论文阅读笔记:Improving Generalization via Scalable Neighborhood Component Analysis
论文地址
代码地址
Problem Statement
- Parametric Softmax适用于带标签的大数据训练,而应用在开放式场景中(有新类别、样本少)是不可取的。
- Non-Paramertric embedding的各种方法有被用来处理视觉任务,但是并没有取得有竞争力的结果(如在ImageNet、MSCOCO)。
Research Object
- 通过优化特征embeddings取代parametric classifiers来处理视觉任务。
- 发掘Non-Parametric methods的泛化能力。
Contributions
- 改进NCA来处理大规模的数据集和深层的神经网络,使用augmented memory来存储non-parametric embeddings。
- 证明最近邻分类器可以在ImageNet这种具有挑战性的数据集上取得优秀的表现,媲美parametric methods。
- 训练出来的features具有良好的泛化能力,可应用于子类别识别和小样本识别。
Methods

图片到特征的映射:v=fθ(x),θ来自数据集D,D′指进行搜索的数据集,有3种情况:
1.D′=D,这样就是closed-set recognition如ImageNet;
2.D′有标签,但是和D不同,这样就是open-set recognition如子类别识别和小样本识别;
3.D′有标签不完整,可用于泛化的基于内容的图像检索。
1.Neighborhood Component Analysis
-
Non-parametric formulation of classification
sij表示样本i和j的相似程度(vi和vj经过l2标准化):sij=cos(ϕ)=∣vi∣∣vj∣viT=viTvj
xi选择xj作为其邻居的概率为:pij=∑k=iexp(sik/σ)exp(sij/σ),pii=0
让Ωi={j∣yj=yi}表示和xi具有相同标签的图片的下标集合,那么xi被正确识别的概率为pi=∑j∈Ωipij
那么全局目标就是最小化J=n1∑iJi=−n1log(pi)
梯度计算:
∂vi∂Ji=σ1k∑pikvk−σ1k∈Ωi∑p~ikvk
∂vj∂Ji={σ1(pij−p~ij)vi,j∈Ωiσ1pijvi,j∈/Ωi
p~ik=pik/j∈Ωi∑pij
-
Differences from parametric softmax
主要区别还是在于一个是对样本分类,一个是对样本之间的相关性进行计算。
-
Computational challenges for learning
为了减少计算的复杂度,采取以下两个措施:
1.只计算∂Ji/∂vi而不计算∂Ji/∂vj;
2.只计算∂Ji/∂vi的开销也比较大,使用augmented memory来存储embeddings。
2.Learning with Augmented Memory
我们将整个数据集的特征表示作为augmented non-parametric memory,
假设当前正开始第t+1次iteration,网络参数为θ(t),Memory为M(t)={v1(t),v2(t),...,vn(t)}
因为Memory总是随着迭代而不断变换,可以近似地认为vi(t)≈fθ(t)(xi),i=1,2,...,n
那么在计算梯度时可以近似为:∂vi∂Ji=σ1k∑pikvk(t)−σ1k∈Ωi∑p~ikvk(t)
再计算网络参数θ的梯度∂θ∂Ji=∂vi∂Ji⋅∂θ∂vi
另外每次算完vi后,对Memory进行如下更新:vi(t+1)←m⋅vi(t)+(1−m)⋅vi。
Experiment
1.在ImageNet ILSVRC挑战上进行性能度量,ResNet作为基本结构,kNN进行测试准确度;
2.sub-category discovery,只对粗粒度标注进行训练,转移用于细粒度的标签预测;
3.few-shot recognition。
Conclusion
我们提出了一种用于视觉识别的非参数近邻方法。我们学习CNN将图像嵌入到低维特征空间中,其中图像之间的距离度量根据NCA准则保存分类标签的语义结构。我们通过使用外部扩充存储来处理NCA的计算需求,从而使得NCA可扩展用于大数据集和深层神经网络。我们的实验不仅为这种简单的非参数方法提供了对ImageNet分类的显著性能,但最重要的是,对于子类别发现和小样本识别而言,最重要的是更通用的特征表示。在未来,需要重新研究非参数化方法,用于其他视觉识别问题,如检测和分割。
Notes
类的显著性能,但最重要的是,对于子类别发现和小样本识别而言,最重要的是更通用的特征表示。在未来,需要重新研究非参数化方法,用于其他视觉识别问题,如检测和分割。
Notes