1.motivation
本文也是为了解决multi-source domain adaptation的问题,作者认为以前的MDA方法存在以下的问题:
-
为了学习到domain invariant feature,牺牲了特征提取器的性能;
-
认为多个source domain的贡献是一致的,忽略了不同source domain和target domain之间的不同的discrepancy,
-
认为同一个源域中不同样本贡献是一样的,忽略了不同的样本和target domain的相似性不一样
-
基于adversarial 学习的方式会出现gradient问题,当分类器性能很好的时候(具体可以参见WGAN)
从Figure 1可以看出 相比和更接近,在中不同样本和的相似性也不同,作者用红线做了区分。
2.Method
如图2所示,作者提出了multi-source distilling domain adaptation(MDDA) Network. MDDA一共分为四个阶段:
-
Source Classifier Pre-training. 不用于以往的方法使用共享的backbone来提取多个源域的特征,作者认为采用共享的参数会让特征提取关注domain invariant feature从而对损失提取discriminative 的特征的能力。这里对每一个源域都训练一个独立的特征提取器和分类器(没有共享参数)并且采用交叉熵来优化
-
Adversarial Discriminative Adaptation. 在pre-train阶段后,学习独立的target encoder将特征映射到源域空间,不同于以往的方法将所有域都映射到同一个domain。这里将target分别映射到N个source domain,来进行adversarial 的学习,并采用wassertein distance来优化
target encoder尽量让domain d分辨器,通过最小化target的feature和source的feature之间Wasserstein距离。这样不同source domain的target domain之间的差距就可以通过wassertein distance来量化 -
Source distilling. 在distilling 不同域的区别后,作者进一步关注同一个domain中不同样本和target domain之间的差异。也是基于Wassertein distance来选择和target domain接近的样本来finetune 分类器。对于每一个样本 在第个source domain中,计算Wasserstein distance
选择那些距离比较大的样本来finetune
-
Aggregated Target Prediction最后在测试阶段,是将target在不同域特征提取器 ,在通过finetune的分类器 ,最后将所有的结果加权
Experiment
ablation study
- visualization
target domain的feature 变得更加的dense(红色部分)了(并且target和source domain分布更加接近
- weighting strategy
- source distilling for fine-tuning
对比可以看到其实不同域对target影响是远远大于 在同一个域里面不同样本的影响
通过adversial 训练之后模型更加关注物体 学习到了domain invariant的特征
感想:
感觉论文表达的意思还是很直接的,也是target domain的分布用source domain的加权分布来逼近,不同的是每一个source domain都训练一个discriminator和特征提取器,并且用wassestein loss类训练,并且作为后续combine的依据。还加入同一个域不同样本的finetune. bonus是加入了一些可视化的解释。