Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering
文章的创新点:
(1)谱方法: 一种基于图信号处理(GSP)的,建立在谱图理论上的图卷积公式)。
(2)局部性的卷积核:所提出的谱卷积核可以被证明是严格定义为半径K的球,即从中心顶点的K跳顶点。
(3)低的时间复杂度:时间复杂度从n^2下降到了kn。
(4)有效地池化:我们提出了一种有效的图池策略,在将顶点重新排列为二叉树结构后,它类似于一维信号的池化。
先回顾一下第一代的GCN,第一代图卷积公式定义如下:
F(k,i,j)就是图卷积神经网络在第k层的卷积核,它是网络的可学习参数,具有任意性。由图卷积公式可以看出,卷积核不具备局部性,并且依赖于图的拉普拉斯矩阵的谱分解。
第二代的GCN为了降低时间复杂度,即图卷积不依赖图的拉普拉斯矩阵的谱分解,同时为了让卷积核具有局部性,定义的图卷积公式如下:
卷积核为:
多项式的系数,
是图的拉普拉斯矩阵的特征值构成的对角矩阵,k是多项式的阶数。可以看出,该卷积核的参数由特征值限定了。原先的第一代GCN的卷积核是一个自由参数构成的卷积核,现在用图拉普拉斯矩阵的特征值限定这些参数,用特征值构成的对角矩阵去做k阶多项式逼近这个卷积核,所有卷积核写成如上的形式。
虽然上面还是讲到了图的拉普拉斯矩阵的特征值构成的对角矩阵,依赖于拉普拉斯矩阵的谱分解,但是看图卷积的最终形式,图卷积只依赖于多项式的系数,拉普拉斯矩阵L,阶数k以及节点特征x,并没有特征值,这是因为用切比雪夫多项式
可以将这一部分递归写成
最后的卷积形式就为: