Jumping Knowledge Networks

论文:Representation Learning on Graphs with Jumping Knowledge Networks

1、传统GCN在不同阶数上会有不同表现

graph笔记

随着阶数增加,所获取的信息更加全面,也就可以解释为啥大部分论文的GCN的层数只有2层,而之后提出的randomwalk的cotraining也依旧会导致这个问题当random wallk的步数无穷时

graph笔记

本文融合了所有层的表示以获取不同层面的表示,融合方式为concat max-pooling以及LSTM attention(为每一层学习一个 attention score,同时,这个score代表了各个层的重要系数。attention score 的学习是将各个层的表达依次送入一个双向LSTM,这样每个层都有一个前向表达和后向表达,然后将这两个表达拼接到一起送进一个 linear 层拟合出一个score,然后将这个score进行softmax 归一化操作就得到了 attention score,最后对各层表达依据重要系数进行加权求和得到最终表达。)

graph笔记

graph笔记

graph笔记

graph笔记

所有数据上均有提升,但是在除了PPI的数据集上LSTM attention表现不好,其余表现都很好,是因为PPI数据集比较大,LSTM存在优势

 

 

 

 

相关文章:

  • 2021-11-01
  • 2021-08-07
  • 2021-06-11
  • 2021-09-03
  • 2022-01-18
  • 2021-05-30
  • 2021-09-08
  • 2021-04-24
猜你喜欢
  • 2022-01-03
  • 2021-07-13
  • 2021-04-10
  • 2021-10-12
  • 2021-09-07
  • 2021-11-23
  • 2021-07-30
相关资源
相似解决方案