作者:Petar Velickovic, Guillem Cucurull, Arantxa Casanova, Yoshua Bengio

来源:ICLR 2018

论文:https://arxiv.org/abs/1710.10903

源码:https://github.com/PetarV-/GAT ,https://github.com/Diego999/pyGAT

https://github.com/danielegrattarola/keras-gat

 

一、论文动机

       GCN将局部的图结构和节点特征结合在节点分类任务中获得好的表现。但GCN及其近似模型有两点不足:一是结合邻近节点特征的方式和图结构相关,限制模型泛化能力;二是给同阶邻域不同结点分配相同权重,限制模型捕捉空间信息相关性能力。本文提出GAT网络,使用masked self-attention层,用注意力机制对邻近节点特征加权求和,有效地解决了这些问题:为每个节点邻节点分配不同的权值,不需要矩阵运算和事先知道图结构(邻近节点特征的权重完全取决于节点特征,独立于图结构)。实验证明,GAT模型有效适用于(基于图的)归纳学习问题与转导学习问题。

二、论文创新

2.1引入masked self-attentional layers;

2.2给不同相邻节点分配相应的权重;

三、论文模型

Graph Attention Networks 总结

Graph Attentional Layer:

 

单个 graph attentional layer

输入节点特征向量集: Graph Attention Networks 总结

输出节点特征向量集: Graph Attention Networks 总结

Graph Attention Networks 总结

masked attention的方式将注意力分配到节点的邻节点集上,即  Graph Attention Networks 总结

Graph Attention Networks 总结

本文中 使用单层的前馈神经网络实现。总的计算过程为:

Graph Attention Networks 总结

Graph Attention Networks 总结

四、论文算法

源码:

https://github.com/PetarV-/GAT https://github.com/Diego999/pyGAT

https://github.com/danielegrattarola/keras-gat

五、论文实验

5.1 数据集

Graph Attention Networks 总结

Transductive learning.

Cora,Citeseer and Pubmed 

500 for validation and 1000for testing

Inductive learning

PPI  , 2 for validation and 2 for testing

5.2 baselines:

 Graph Attention Networks 总结

5.3 实验结果

Graph Attention Networks 总结

Graph Attention Networks 总结

 

相关文章:

  • 2021-06-14
  • 2021-11-23
  • 2021-05-05
  • 2021-04-09
  • 2021-11-22
  • 2021-12-02
  • 2021-12-24
  • 2021-07-24
猜你喜欢
  • 2018-10-09
  • 2021-05-21
  • 2022-01-18
  • 2021-06-29
  • 2022-01-03
相关资源
相似解决方案