前言

目前大多数小样本学习器首先使用一个卷积网络提取图像特征,然后将元学习方法与最近邻分类器结合起来,以进行图像识别。本文探讨了这样一种可能性,即在不使用元学习方法,而仅使用最近邻分类器的情况下,能否很好地处理小样本学习问题。

本文发现,对图像特征进行简单的特征转换,然后再进行最近邻分类,也可以产生很好的小样本学习结果。比如,使用DenseNet特征的最近邻分类器,在结合均值相减(mean subtraction)和L2归一化之后,其性能优于目前流行的更复杂的小样本学习方法。使用其它卷积神经网络的特征也能得到同样的结果。

本文的小样本学习器称为SimpleShot,作者希望将最近邻分类重新确立为小样本学习的一个baseline。


实现方法

定义输入图像为II,假设给定一个训练集Dbase={(I1,y1),...,(IN,yN)}D_{base}=\lbrace(I_1,y_1),...,(I_N,y_N)\rbrace,它包含AA个base class,共有NN个带标记的图像,也就是说yn{1,...,A}y_n \in \lbrace 1,...,A\rbrace。再假设给定一个支持集DsupportD_{support},其中有CC个novel class,每个类有KK个样本。那么小样本学习的目标就是构建一个能够准确识别这CC个novel class的模型,这样的设置称为KK-shot CC-way。

在SimpleShot中,使用参数为θ\theta的卷积神经网络fθ(I)f_{\theta}(I)从图像II中提取出特征xRDx \in \Bbb R^D,然后在xx上进行最近邻分类。fθ(I)f_{\theta}(I)DbaseD_{base}上进行训练,以最小化线性分类器的损失:
SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记
损失函数ll是交叉熵损失,使用SGD对卷积神经网络和线性分类器进行联合训练。

1. 使用最近邻进行识别

一旦fθf_{\theta}在base class上进行训练,我们就可以得到图像的一个特征空间,那么在访问图像的时候就可以直接访问特征空间中的图像,并且在后续操作中可以直接提供特征空间中的图像,这里定义x=fθ(I)x=f_{\theta}(I)为特征空间中的图像。那么接下来的最近邻分类就是在这个空间中进行的。

  • 在one-shot情况下,Dsupport={(x^1,1),...,(x^C,C)}D_{support}=\lbrace(\hat x_1,1),...,(\hat x_C,C)\rbrace,这里的x^\hat x是novel class CC中的图像,而xxDbaseD_{base}中的图像。然后通过最近邻方法就将最相似的支持集图像x^c\hat x_c的标签分配给测试集图像x^\hat x
    SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记

  • 在multi-shot情况下,首先计算DsupportD_{support}中每个类的平均特征向量,并将每个平均特征向量作为该类的one-shot样本,接下来的操作和one-shot中的一样。

2. 特征转换

这应该是最重要的一部分了,但整个方法又非常简洁。本文使用欧氏距离作为最近邻分类的距离度量,然后接下来仅考虑了两种特征转换方式,它们虽然很简单,但对SimpleShot小样本学习器的准确性产生了积极的影响。

  • Centering。计算base class的平均特征向量为:
    SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记
    然后从一个特征向量x^\hat x中减去这个平均特征向量:
    SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记
    这就是centering操作,也就是均值相减,它不会改变特征向量之间的欧氏距离,但是当它与L2归一化相结合之后,模型会变得更有效率

  • L2归一化(L2N)。给定一个特征向量x^\hat x,将其归一化为具有单位l2l_2的范数:
    SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记

SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 论文笔记
上图说明了在使用最近邻方法处理小样本学习时的特征转换的重要性。其中UN是未进行归一化,L2N是L2归一化,CL2N是中心L2归一化,可以看到,CL2N特征比UN特征的性能要好,说明特征转换对小样本学习来说是非常重要的。


结论

本文主要分析了最近邻分类器中的特征转换对小样本学习的重要性,文中提到的特征转换是centering和L2归一化的结合,并且它确实能提升特征表示的质量,从而提升小样本学习的性能,并且这种方法与目前的一些小样本学习方法相比还是比较简洁的,因为它没有用到元学习。

相关文章:

  • 2021-10-20
  • 2021-10-04
  • 2021-12-24
  • 2022-01-17
  • 2022-01-03
  • 2021-04-17
  • 2021-09-22
猜你喜欢
  • 2021-07-27
  • 2021-09-20
  • 2021-05-13
  • 2021-09-26
  • 2021-07-04
  • 2021-06-28
  • 2021-11-26
相关资源
相似解决方案