Few-Shot Learning with Graph Neural Networks 笔记

第一步
输入
T={{(x1,l1),…(xs,ls)},{x~1,…,x~r},{x1,…,xt};li∈{1,K},xi,x~j,xj∼Pl(RN)}
其中s为有标签的样本数量,r为无标签的样本数量,t为待分类的样本数量,其中所有x独立同分布。
提取
将输入 $\mathcal{T} $ 转换为全连接图GT=(V,E) ,其中va∈V 代表图片x (包括有标签和无标签的)。
初始化点特征
图G 的初始值通过下式得到
xi(0)=(ϕ(xi),h(li))
其中ϕ(xi) 是一个CNN,h(li) 是独热码。
GNN

边特征
A~i,j(k)=φθ~(xi(k),xj(k))=MLPθ~(abs(xi(k)−xj(k)))
MLP是多层感知机
图卷积
在其最简单的模型中,给定赋权图G的顶点上的输入信号F∈RV×d ,我们考虑图形本征线性算子的族A,其在该信号上局部地起作用。 最简单的是邻接算子A:F↦A(F)其中(AF)i:=∑j∼iwi,jFj,其中(i,j)∈E ,wi,j 为其相关权重。 GNN层Gc(·)接收信号x(k)∈RV×dk作为输入,并产生x(k+1)∈RV×dk+1
xl(k+1)=Gc(x(k))=ρ(B∈A∑Bx(k)θB,l(k)),l=d1…dk+1
其中Θ={θ1(k),…,θ∣A∣(k)}k,θA(k)∈Rdk×dk+1 为参数, ρ(⋅)是非线性函数,论文中选择Leaky ReLUs
损失函数
minL1∑i≤Lℓ(Φ(Ti;Θ),Yi)+R(Θ)ℓ(Φ(T;Θ),Y)=−∑kyklogP(Yi=yk∣T)
其中 Φ(T;Θ)=p(Y∣T),通过极大似然估计得出预测标签。