课程链接

 

输入是图:

考虑结构和关系信息。

 

Notes | 图神经网络

 

如何在图结构中做Convolution?

 

 

Spatial-based GNN

Notes | 图神经网络

 

Aggregate:用neighbor feature update下一层的hidden state

Readout:把所有nodes的feature集合起来代表整个graph

 

 

NN4G (Neural Networks for Graph)

 

Notes | 图神经网络

 

输出:

Notes | 图神经网络

 

每一层的结果取平均后再相加。

 

DCNN (Diffusion-Convolution Neural Network)

 

Notes | 图神经网络

 

d为距离(图中表示的是到节点3的距离)

第 i 层,找到距离为i的节点的特征取mean,再乘上权重。

 

每个节点的表示,由k个这样的层组成:

Notes | 图神经网络

concat 之后, 乘以权重得到输出。

 

DGC (Diffusion Graph Convolution)

和上一篇类似,得到的输出是直接相加:

Notes | 图神经网络

 

 

MoNET (Mixture Model Networks)

无脑相加 -> 给一个权重的定义:重新定义距离,用定义的距离做weight,再进行sum 或 mean。

Notes | 图神经网络

 

GraphSAGE

Notes | 图神经网络

对邻居feature的处理方式:

mean

max-pooling

LSTM(把邻居节点喂给LSTM,output是hidden state,每次update时,随便sample一个邻居节点的顺序来消除LSTM对顺序的关注)

 

GAT (Graph Attention Networks)

对邻居做attention。

 

节点特征:

Notes | 图神经网络

 

计算energy(weight):

Notes | 图神经网络

 

计算attention分数:

Notes | 图神经网络

 

Notes | 图神经网络

每个节点的feature = sum{ 所有邻居节点 * 邻居节点各自的energy(attention weight) }

 

GIN (Graph Isomorphism Network)

Notes | 图神经网络

自己的feature + sum(邻居features)

 

用sum,不用mean或max pooling,区别不同形态的图:

Notes | 图神经网络

 

资源

GNN库: Deep Graph Library dgl.ai

相关文章:

  • 2021-09-14
  • 2021-11-10
  • 2021-06-23
  • 2021-08-17
  • 2021-04-14
  • 2022-01-05
  • 2021-12-02
  • 2021-04-06
猜你喜欢
  • 2021-05-15
  • 2021-06-07
  • 2021-12-27
  • 2021-04-14
  • 2022-01-15
相关资源
相似解决方案