Graph Neural Networks顾名思义由GraphNeural Network组成。Graph由节点和边组成,节点有节点的性质,边有边的性质。

  09Franco Scarselli提出The Graph Neural Network Model,能够将其用于化学分子会不会突变。

图系列(一)图神经网络

  如何把graph输入到NN中?这就是GNN需要处理的最大的问题。GNN想要做的事情就是抽取与周围节点之间的关系。通常有两种做法:

图系列(一)图神经网络

  但是常用的算法是GATGCN

Spatial-based convolution

图系列(一)图神经网络

  用neighbor feature更新下一代的hidden state,我们乘这个操作叫做Aggregate。: 把所有 nodesfeature集合起来代表整个 graph的操作称之为Readout。那具体怎么做呢?

NN4G (Neural Networks for Graph)

  假设我们的输入如下图所示:

图系列(一)图神经网络

  节点v0,,v4v_{0},\cdots,v_{4}分别有x0,,x4x_{0},\cdots,x_{4}个特征,特征代表的是节点的一些特殊属性,比如在化学分子里面,就表示不同的原子所具有的属性。

  对于节点v3v_{3},先经过一个编码得到第0层隐藏层的输出h30=Wˉ0x3h_{3}^{0}=\bar{W}_{0} \cdot x_{3},之后在第一层隐藏层,需要考虑与节点v3v_{3}相邻的三个节点,得到第1层隐藏层的输出h31=W^1,0(h00+h20+h40)+Wˉ1x3h_{3}^{1}=\hat{W}_{1,0}(h_{0}^{0}+h_{2}^{0}+h_{4}^{0})+\bar{W}_{1}x_{3},上述就是Aggregate所做的事情。

  那Readout怎么考虑整张图的node feature呢?NN4G里面是将每一层的输出平均出来再加权。

图系列(一)图神经网络

DCNN (Diffusion-Convolution Neural Network )

  同样对于下面这个输入:

图系列(一)图神经网络

  第0层隐藏层的输出h30=W30MEAN(d(3,)=1)h_{3}^{0}=W_{3}^{0}\text{MEAN}(d(3,\cdot)=1),其中d(3,)=1d(3,\cdot)=1表示距离v3v_{3}这个节点距离为1的节点,将其平均再乘上一个权重。

  第1层隐藏层的输出h30=W31MEAN(d(3,)=2)h_{3}^{0}=W_{3}^{1}\text{MEAN}(d(3,\cdot)=2)。可以看出它同样是基于输入图所做一些计算,并不是在第0层的输出上接着算的。

  之后将每个隐藏层计算得到的结果排成一个矩阵,每个节点乘上一个权重就能得到Node features输出:

图系列(一)图神经网络

  如果是将每个隐藏层计算得到的结果排成一个矩阵再加起来直接得到输出,而不是乘上权重矩阵的话,就是DGC (Diffusion Graph Convolution)这篇文章的工作。

MoNET (Mixture Model Networks)

  Geometric deep learning on graphs and manifolds using mixture model CNNs在处理neighbor node的时候不是将其平均起来,而是考虑邻居节点的加权。

图系列(一)图神经网络

GraphSAGE

图系列(一)图神经网络

GAT (Graph Attention Networks)

图系列(一)图神经网络

GIN (Graph Isomorphism Network)

  这篇文章主要是在理论上分析了什么样的做法会work,在处理邻居节点时,不希望去取max或者mean

图系列(一)图神经网络

Spectral-based convolution

  卷积操作在频域里面就是相乘,因此对输入图和Filter做傅里叶变换,然后相乘再做反变换可以得到相同的结果:

图系列(一)图神经网络

  这里老板给任务了,先做去了,后面还有一部分,也比较深入了,未完,以后有看到更好的资料再来把这里补上吧:

  • https://www.youtube.com/watch?v=M9ht8vsVEw8

学习资源

图系列(一)图神经网络

相关文章:

  • 2021-12-09
  • 2021-12-02
  • 2021-09-14
  • 2021-11-10
  • 2022-02-19
  • 2021-08-17
  • 2021-11-25
  • 2021-10-04
猜你喜欢
  • 2021-06-23
  • 2021-12-26
  • 2021-12-27
  • 2022-01-15
  • 2021-06-07
相关资源
相似解决方案