文章链接:https://arxiv.org/abs/2004.00280
这篇文章想法比较有意思,基于知识蒸馏(Knowledge Distillation),采用一个无监督算法的输出信息,来指导一个有监督算法。

文章中无监督算法采用UGACH(Unsupervised Generative Adversarial Cross-Modal Hashing),监督算法采用DCMH(Deep Cross-Modal Hashing),无监督算法的输出信息为相似性矩阵Si,jS_{i,j},算法模型图如下
[论文笔记]Creating Something from Nothing: Unsupervised Knowledge Distillation for Cross-Modal Hashing

与UGACH算法中采用kk邻近思想来确定相似度矩阵的方法不同,本文采用特征性向量的欧式距离来确定相似度矩阵,文章中尝试了几种不同的算法如下:
[论文笔记]Creating Something from Nothing: Unsupervised Knowledge Distillation for Cross-Modal Hashing

  • viIv_{i}^{I}为原始图片特征向量,viTv_{i}^{T}为原始文本向量
  • fiIf_{i}^{I}为经过神经网络得到的图片向量,fiTf_{i}^{T}为经过神经网络得到的文本向量

由于相似性矩阵不能直接求得,使得在原始的目标函数中要引入新的一项
θI,,θT,=argminθ1,θT=i,jSi,jfiIfjT\boldsymbol{\theta}^{\mathrm{I}, \star}, \boldsymbol{\theta}^{\mathrm{T}, \star}=\arg \min _{\boldsymbol{\theta}^{1}, \boldsymbol{\theta}^{\mathrm{T}}}=\sum_{i, j} S_{i, j} \cdot\left|\mathbf{f}_{i}^{\mathrm{I}}-\mathbf{f}_{j}^{\mathrm{T}}\right|

相关文章: