2.1 图神经网络源起

图神经网络(二)
图神经网络(二)

2.2 图神经网络基本参数定义:

图神经网络(二)
图神经网络(二)

2.3 f、g参数的学习

图神经网络(二)

2.4 GNN的局限性

首先,对于不动点,迭代更新节点的隐藏状态是低效的。如果放松不动点的假设,我们可以设计一个多层GNN来获得节点及其邻域的稳定表示。

其次,GNN在迭代过程中使用相同的参数,而大多数流行的神经网络在不同的层次上使用不同的参数,这是一种分层的特征提取方法。此外,节点隐藏状态的更新是一个连续的过程,可以借鉴GRU和LSTM等RNN内核。

第三,在原始GNN中,边缘也存在一些无法有效建模的信息特征。例如,知识图中的边具有关系类型,通过不同边的消息传播应根据其类型而不同。另外,如何学习边缘的隐藏状态也是一个重要的问题。最后,如果我们把注意力集中在节点的表示而不是图的表示上,则不适合使用不动点,因为表示在不动点上的分布在值上比较平滑,对于区分每个节点的信息量较少。

2.5 图神经网络的变体

图神经网络(二)

2.6 图神经网络在自然语言处理领域的应用

图神经网络(二)

相关文章:

  • 2022-01-15
  • 2022-01-18
  • 2021-10-31
  • 2022-12-23
  • 2021-09-14
  • 2021-11-10
猜你喜欢
  • 2021-06-07
  • 2021-12-27
  • 2021-11-11
  • 2021-12-10
  • 2021-04-30
  • 2021-04-29
相关资源
相似解决方案