以下内容多为个人理解,如有错误感谢批评指正。

参考链接:
如何理解GCN?知乎回答:从热传导模型到GCN
从CNN到GCN的联系与区别——GCN从入门到精(fang)通(qi)

GCN问题本质

图中的每个结点无时无刻不因为邻居和更远的点的影响而在改变着自己的状态直到最终的平衡,关系越亲近的邻居影响越大。

GCN的实质

是在一张Graph Network中特征(Feature)和消息(Message)中的流动和传播!

研究GCN的原因

  1. CNN无法处理非欧几里得结构数据,因为此种结构没有平移不变性,卷积核的大小无法固定不变。
  2. 拓扑图中包含许多重要的信息,可以通过图谱论进行挖掘。
  3. 拓扑连接是一种广义的数据结构,且一般来说任何数据在赋范空间内都可以建立拓扑关系。例如谱聚类(谱聚类原理总结

进入到应用层面,具体来说。
GCN的目的

提取拓扑图的空间特征。

核心理论: Sepectral graph theory 图谱论
图谱论简述

核心思想

  • 借助于图的拉普拉斯矩阵的特征值和特征向量来研究图的性质。
  • 借助于图谱的理论来实现拓扑图上的卷积操作。

为什么GCN要用拉普拉斯矩阵?
(1)拉普拉斯是对称矩阵,可以进行特征分解(谱分解),这和GCN的Spectral domain对应。
(2)拉普拉斯矩阵只在中心顶点和一阶相连的顶点上(1-hop neighbor)有非0元素,其余之处均为0.
(3)拉普拉斯算子和拉普拉斯矩阵之间的关系。

拉普拉斯矩阵的谱分解(特征分解)

  • 矩阵的谱分解,特征分解,对角化都是同一概念。特征分解
  • 不是所有矩阵都可以特征分解,充要条件为n阶方阵存在n个线性无关的特征向量。
    线性无关与线性相关
  • 拉普拉斯矩阵是半正定对称矩阵,有如下三个性质:
  1. 对称矩阵一定有n个线性无关的特征向量
  2. 半正定矩阵的特征值一定非负
  3. 对称矩阵的特征向量相互正交,及所有的特征向量构成的矩阵为正交矩阵。正交矩阵

基于频谱的GCN 图卷积神经网络数学原理

由上可知拉普拉斯矩阵一定可以谱分解,且分解后有特殊的形式。对于拉普拉斯矩阵其谱分解为:

L=U(λ1...λn)U1L=U\begin{pmatrix} \lambda_1 & & \\ &...& \\ & &\lambda_n\\ \end{pmatrix}U^{-1}

其中U=(u1,u2,...,un)U=(\vec u_1 , \vec u_2, ... ,\vec u_n)是列向量为单位特征向量的矩阵,也就说u1\vec u_1是列向量。

(λ1...λn)\begin{pmatrix} \lambda_1 & & \\ &...& \\ & &\lambda_n\\ \end{pmatrix}是n个特征值构成的对角阵。

由于UU是正交矩阵,即UUT=EUU^T=E

所以特征分解又可以写成:
L=U(λ1...λn)UTL=U\begin{pmatrix} \lambda_1 & & \\ &...& \\ & &\lambda_n\\ \end{pmatrix}U^T

特征分解最右边的是特征矩阵的逆,只是拉普拉斯矩阵的性质才可以写成特征矩阵的转置。

从传统的傅里叶变换、卷积类比到Graph上的傅里叶变换及卷积

把传统的傅里叶变换及卷积迁移到Graph上来,核心工作是把拉普拉斯算子的特征函数eiwte^{-iwt}变为Graph对应的拉普拉斯矩阵的特征向量。

Graph上的傅里叶变换

传统的傅里叶变换定义为:
F(ω)=F[f(t)]=f(t)eiwtdtF(\omega)=\mathcal{F}[f(t)]=\int_{}^{}f(t)e^{-iwt}dt

信号f(t)f(t)与基函数的积分,从数学上看,由于基函数
eiwte^{-iwt}是拉普拉斯算子的特征函数(满足特征方程),w就和特征值有关,所以使用此式作为基函数。

证明:
基于频谱的GCN 图卷积神经网络数学原理

同理,在Graph问题中,用到拉普拉斯矩阵(拉普拉斯矩阵就是离散的拉普拉斯算子)时就自然去找拉普拉斯矩阵的特征向量。

L是拉普拉斯矩阵,V是其特征向量,满足下式:
LV=λVLV=\lambda V

离散积分就是一种内积形式,仿上定义Graph上的傅里叶变换:

F(λl)=f(λl)=i=1Nf(i)ul(i)F(\lambda_l)=\vec f(\lambda_l)=\sum_{i=1}^Nf(i)u_l^{*}(i)

ff是Graph上的N维向量,f(i)f(i)与Graph的顶点一一对应,ul(i)u_l(i)表示第l个特征向量的第i个分量。那么特征值(频率)λl\lambda_l下的ff的Graph傅里叶变换就是与λl\lambda_l对应的特征向量ulu_l进行内积运算。

ps:

上述的内积运算是在复数空间中定义的,所以采用了ul(i)u_l^*(i),也就是ulu_l的共轭。

利用矩阵乘法将Graph上的傅里叶变换推广到矩阵形式:
基于频谱的GCN 图卷积神经网络数学原理

即f在Graph上傅里叶变换的矩阵形式为:
f^=UTf\hat{f}=U^Tf

(b)Graph上的傅里叶逆变换

类似地,传统的傅里叶逆变换是对频率w求积分:
F1[F(ω)]=12F(ω)eiwtdω]\mathcal{F}^{-1}[F(\omega)]=\frac{1}{2\prod}\int F(\omega)e^{iwt}d\omega]

迁移到Graph上变为对特征值λl求和:
f(i)=l=1Nf^(λl)ul(i)f(i)=\sum_{l=1}^N\hat{f}(\lambda_l)u_l(i)

利用矩阵乘法将Graph上的傅里叶逆变换推广到矩阵形式:
基于频谱的GCN 图卷积神经网络数学原理

即f在Graph上傅里叶逆变换为
f^=UTf\hat{f}=U^Tf

推广卷积

在上面的基础上,利用卷积定理类比将卷积运算推广到Graph上。

卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即对于f(t)与h(t)两者的卷积是其函数傅里叶变换乘积的逆变换:
fh=F1[f^(ω)h^(ω)]=12f^(ω)h^(ω)eiwtdω]f*h=\mathcal{F}^{-1}[\hat{f}(\omega)\hat{h}(\omega)]=\frac{1}{2\prod}\int \hat{f}(\omega)\hat{h}(\omega)e^{iwt}d\omega]

类比到Graph上并把傅里叶变换的定义带入,f与卷积核h在Graph上的卷积可按下列步骤求出:

ff的傅里叶变换为f^=UTf\hat{f}=U^Tf
卷积核h的傅里叶变换写成对角矩阵的形式即为:
(h^(λ1)...h^(λn))\begin{pmatrix} \hat{h}(\lambda_1) & & \\ &...& \\ & &\hat{h}(\lambda_n)\\ \end{pmatrix}

h^(λl)=i=1Nh(i)ul(i)\hat{h}(\lambda_l)=\sum_{i=1}^{N}h(i)u_l^*(i)是根据需要设计的卷积核hh在Graph上的傅里叶变换。

两者的傅里叶变换乘积即为:
(h^(λ1)...h^(λn))UTf\begin{pmatrix} \hat{h}(\lambda_1) & & \\ &...& \\ & &\hat{h}(\lambda_n)\\ \end{pmatrix} U^Tf
再乘以U求两者傅里叶变换乘积的逆变换,则求出卷积:
(fh)G=U(h^(λ1)...h^(λn))UTf(1)(f*h)_G=U \begin{pmatrix} \hat{h}(\lambda_1) & & \\ &...& \\ & &\hat{h}(\lambda_n)\\ \end{pmatrix} U^Tf \tag{1}

式中:UUUTU^T的定义与之前矩阵分解出的U相同。
很多论文中的Graph卷积公式为:
(fh)G=U((UTh)(UTf))(f*h)_G=U((U^Th)\bigodot(U^Tf))

⊙表示Hadamard product(哈达马积),对于两个维度相同的向量、矩阵、张量进行对应位置的逐元素乘积运算。其实此式和式(1)是完全相同的。

后续学习:
傅里叶变换
机器学习中的GCN

相关文章:

  • 2021-07-31
  • 2021-07-26
  • 2021-11-25
  • 2021-10-25
  • 2022-02-10
  • 2021-04-25
  • 2022-01-01
  • 2021-09-21
猜你喜欢
  • 2021-06-19
  • 2021-06-28
  • 2021-12-02
  • 2021-09-25
  • 2021-06-24
  • 2021-05-28
  • 2021-06-16
相关资源
相似解决方案