参考文献:
Wang F, Liu W, Liu H, et al. Additive Margin Softmax for Face Verification[J]. arXiv preprint arXiv:1801.05599, 2018.
简介
严格意义上,这篇还不算一篇正式的论文,只能算是一篇技术报告。但是谁让作者太牛呢(分别是Norm Face 和A-Softmax的一作),当然不等论文正式成型就赶紧消化一下。
之前的L-Softmax, A-Softmax引入了角间距的概念,用于改进传统的softmax loss函数,使得人脸特征具有更大的类间距和更小的类内距。作者在这些方法的启发下,提出了一种更直观和更易解释的additive margin Softmax (AM-Softmax)。同时,本文强调和讨论了特征正则化的重要性。实验表明AM-Softmax在LFW和MegaFace得到了比之前方法更好的效果。相关代码也公布在网上。
算法介绍
1. 算法流程
AM-Softmax,单看名字,就能意会它和A-Softmax有关联。之前我在博客里写过L-Softmax、A-Softmax,因此这里直接跳过这两者的介绍,直奔主题。
L-Softmax和A-Softmax均是引入了一个参数因子
上式是一个单调递减的函数,且比L-Softmax/A-Softmax所用的
除了将
其中
2. 讨论
与L-Softmax/A-Softmax类似,作者也讨论了AM-Softmax的几何解释。同样的,
另外,作者还讨论了什么时候该 加入feature normalization。本篇论文与NormFace一样,将
3. 实验
与SphereFace的实验的数据设置相同,本文与其它Loss函数进行了比较,均取得了最好的结果。
值得注意的是,在LFW集上,未采用feature normalization比采用了feature normalizaiton的结果更好,作者分析是由于LFW的数据质量较高。
总结
本文在特征和权值正则化的情况下,提出了一种 additive margin Softmax,更直观也更易解释,同时也取得了比A-Softmax更好的实验结果。
参考文献
【1】Ranjan R, Castillo C D, Chellappa R. L2-constrained softmax loss for discriminative face verification[J]. arXiv preprint arXiv:1703.09507, 2017.
PS
Loss函数的改进貌似简单,但是推导和证明还是有一定门槛。近段时间只是跟进大牛们的工作都已经觉得节奏很快,更何况是自己要思考和实践创新方法了。