一、向量相关性
这里先说向量相关性是因为,在人脸识别时,我们采取的策略是将一个人脸输入进网络后,得到一组特征向量,将这组特征向量与特征向量库中的其他人脸作损失比较,并规定相应的阈值来判断是否为某某。
什么是向量相关性?
一般来说,我们认为向量相关性(差异:可以用距离或相似度衡量)是两个向量间的夹角大小,在同一坐标系中:夹角为90°时,两个向量相乘结果为0,我们认为两个向量是不相关的。当夹角在(0-90°),两个向量相乘有正数的结果,即正相关。夹角在(90-180°)时,向量相乘为负,即负相关。
距离:信息熵、IOU、L1距离、曼哈顿距离、切比雪夫距离、闵可夫斯基距离、标准化欧氏距离、马氏距离、夹角余弦、汉明距离、杰卡德距离& 杰卡德相似系数、相关系数& 相关距离…
欧式距离
二维空间的公式:
三维空间的公式:
多维空间公式:
欧式距离只能衡量在同一量纲下,两向量的绝对距离。
在欧氏距离公式中,取值范围会很大,一般通过如下方式归一化:
sim = 1 / (1 + dist(X,Y))
余弦相似度
公式:
两向量的内积除以两向量的L2范数。这相当于做归一化。余弦相似度与欧式距离区别:相似度不能代替距离,不是等价的关系。一个是角度的衡量,一个是距离的衡量。
因为余弦值的范围是 [-1,+1] ,相似度计算时一般需要把值归一化到 [0,1],一般通过如下方式:
sim = 0.5 + 0.5 * cosθ
经过归一化处理以后,相似度全部落在了0和1之间,值越大,相似度越高。
余弦距离:1-余弦相似度 = (0-2),0为最相似,2为最不相似。
解决欧式距离与余弦相似度的差异
标准化后的两个向量,他们的欧式距离的平方与余弦距离成正比。转一个别人的推导:
回顾Softmax Loss
论文:http://proceedings.mlr.press/v48/liud16.pdf
公式:
L-SoftmaxLoss
总结:
A-SoftmaxLoss
论文:https://arxiv.org/pdf/1704.08063.pdf