小样本学习&元学习经典论文整理||持续更新

核心思想

  本文提出了一种基于度量学习的小样本学习算法(TEAM),与其他基于度量学习的算法相比,本文在特征提取阶段采用了一种Task Internal Mixing (TIM)数据增强方法,设计了一种能够根据每个Episode进行自适应调整的距离度量方法Episodic-wise Adaptive Metric(EAM),并采用了一种双向相似性度量方法(Bi-SIM)来计算分类概率。算法的处理过程如下图所示
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
  首先在特征提取阶段采用了TIM的数据增强方法来扩充数据集,对于每个任务中的两个样本xix_ixjx_j,按照如下的方式进行融合
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
式中ω\omega是从[0.5,1.0]中随机采样得到的。本质上,TIM加入了一个先验,即如果两个样本在原始像素空间中相似,那么它们在特征空间中可能更接近。特征提取网络fθf_{\theta}采用如下损失函数进行训练
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
式中MTiM_{\mathcal{T}_i}就是下面将要介绍的根据Episode进行自适应调整的距离度量方法。
  然后,作者设计了EAM距离度量方法,给定两个特征向量xix_ixjx_j则二者之间的距离可以定义为下式
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
式中矩阵MtM_t参数化了向量空间中的一种马氏距离,例如当MtM_t为单位矩阵是,上式就表示欧氏距离。作者的想法就是通过优化的方式,对每个Episode都寻找到一个最优的MtM_t,使得相似的样本之间距离更小,不相似的样本之间距离更大,为了实现这个目标,作者提出以下优化问题
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
式中M\mathcal{M}表示相似样本的集合,C\mathcal{C}表示不相似样本的集合,如何构建这两个集合后面会有介绍。利用拉格朗日乘子法可将上式转化为
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
式中
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
与PN算法相类似,类别CC对应的支持集SCS_C,其类别原型pcp_c
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
则相似样本集M\mathcal{M}由三类样本构成:第一类xix_ixjx_j属于同一支持集,{xiSC,xjSC,ij}\left \{x_i\in S_C, x_j\in S_C, i\neq j\right \};第二类xix_i属于SCS_C,而xjx_j属于该类对应的原型向量,{xiSC,xjPC}\left \{x_i\in S_C, x_j\in P_C\right \};第三类xjx_j是查询集QQxix_ikk个最近邻,{xiSC,xjN(xi,k,Q)j}\left \{x_i\in S_C, x_j\in N(x_i,k,Q)j\right \}
不相似样本集C\mathcal{C}由两类样本构成:第一类xix_ixjx_j属于不同的原型向量集,{xiPC,xjPC,CC}\left \{x_i\in P_C, x_j\in P_{C'}, C\neq C'\right \};第二类xjx_j属于训练集中的类别CtrainC_{train}对应的原型向量PTP_T{xiPC,xjPT}\left \{x_i\in P_C, x_j\in P_{T}\right \}
为了寻找到最优的MtM_t,需要对d×dd\times d个参数进行优化(dd表示特征向量的维度),而对于一个Episode而言,其中所有的样本组合可能也不够d×dd\times d个,因此得到的模型就很容易过拟合。为了解决这个问题,作者引入了新的正则化约束
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
M0M_0是一个与小样本任务先验有关的矩阵,上式本质上是约束了由MtM_tM0M_0描述的两个混合高斯分布之间的KL散度。综上可以得到MtM_t的优化目标函数
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
但是如果采用SGD或其他的凸优化方法来求解上式计算复杂度将相当大,毕竟对于每个Episode都要计算一次,因此作者引入一种新的计算方法
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
MtM_t^*表示最优解,为了进一步引入特征相关性信息,作者又在上式基础上增加了任务协方差矩阵Σt\Sigma_t
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
则最终的EAM距离度量矩阵为
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
  最后,本文又提出一种双向相似性度量方法(Bi-SIM)来计算分类概率,正常的概率计算方法都是利用Softmax函数计算查询样本xix_i属于类别cc的概率sics_{i\rightarrow c}
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
而作者指出还应该计算原型向量pcp_c属于查询样本xix_i的概率
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
最终的分类概率为二者的乘积
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
  作者指出该策略能够有效地提高相似性度量方法的鲁棒性。可以看到上面的EAM计算和Bi-SIM计算过程中都用到了查询集中的样本,因此本文也属于直推学习(Transductive)类型。

实现过程

网络结构

  特征提取的主干网络可以采用4-Conv或ResNet-18

创新点

  • 在特征提取网络中引入TIM数据增强方法
  • 设计了EAM距离度量函数,根据每个Episode寻找最佳的距离度量函数
  • 设计了Bi-SIM双向相似性度量方法,用于分类概率计算

算法评价

  本文引入和设计了非常多新的概念和方法,尤其是核心内容EAM度量方法的设计部分,涉及到了半正定规划(SDP),优化理论,信息论和正则化约束中的许多概念,看起来还是很复杂的。但就实验结果来看,本文在多个数据集上的效果与同时期的基于度量学习的方法相比都没有明显的优势,只是在CUB-200数据集上取得了不错的效果。一顿操作猛如虎,但效果也就一般。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》

相关文章: