核心思想

  本文提出一种基于数据增强的小样本学习算法,利用一个自动编码器(Auto-Encoder,AE)用于寻找同类别不同样本之间的变形(deformations,本文称其为Δ\Delta),然后在利用其为其他的类别样本生成新样本,最后利用扩充后的数据集训练分类器。
  普通的自动编码器AE,是通过最小化重构信号X^\hat{X}和原始信号XX之间的差异X^X1\left \| \hat{X}-X\right \|_1,来学习如何重构信号的。其中X^=D(E(X))\hat{X}=D(E(X))DD表示解码器,EE表示编码器。通常编码器EE会把原始信号压缩到一个低维空间中得到E(X)E(X),其表示了XX中最关键的信息,利用其就可以重构得到非常接近原始信号的重构信号X^\hat{X}。但本文是利用AE来提取同一类别的两个样本之间的变形信息,进而利用这一信息来合成新的样本,处理过程如下图所示。
论文阅读笔记《∆-encoder: an effective sample synthesis method for few-shot object recognition》
  训练时,将训练集中同一类别的两个样本XSX^SYSY^S输入到编码器EE中,得到变形信息Z=E(XS,YS)Z=E(X^S,Y^S),然后再将ZZ和样本YSY^S一起输入到解码器DD中,用于重构得到X^S\hat{X}^S。利用重构损失就可以对AE进行训练了。在测试时,利用训练好的编码器EE得到训练集中同一类别的两个样本之间的变形信息Z=E(XS,YS)Z=E(X^S,Y^S),而在解码时,则是输入一个新的类别中的样本YuY^u,利用变形信息ZZ和样本YuY^u重构得到新的样本X^u\hat{X}^u。对于每个类别都重构得到1024个新的合成样本,最后再利用扩充后的数据集去训练一个线性分类器。

实现过程

网络结构

  样本在经过AE之前,要通过一个特征提取网络将其转化为特征向量,特征提取网络采用ResNet-18或VGG-16结构。编码器和解码器均采用MLP结构。

创新点

  • 利用自动编码器获取同类别两个样本之间的变形信息,并利用其对新类别的样本进行扩充,从而起到数据增强的效果

算法评价

  这篇文章的思路是与《Low-shot Visual Recognition by Shrinking and Hallucinating Features》都是学习两个样本之间的变形信息,然后用这个信息去扩充其他类别的样本,这个是基于不同类别样本之间的变形信息是具备可迁移能力的假设之上的,不然学习到的变形信息可能不能有效的扩充其他类别的样本。文中在提到合成新样本时,使用sample这个词,而不用synthesize这个词,我还是感觉有些困惑的。
如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。论文阅读笔记《∆-encoder: an effective sample synthesis method for few-shot object recognition》

相关文章:

  • 2021-09-06
  • 2022-12-23
  • 2021-05-06
  • 2021-12-24
  • 2021-06-03
  • 2021-04-17
  • 2021-08-23
  • 2021-11-07
猜你喜欢
  • 2021-04-12
  • 2021-07-25
  • 2021-12-29
  • 2021-04-10
  • 2021-04-27
  • 2021-12-24
  • 2021-05-22
相关资源
相似解决方案