今晚听了李文博士的报告“Domain Generalization and Adaptation using Low-Rank Examplar Classifiers”,讲的很精彩。自己第一次听说domain generalization和domain adaptation,故此简单记录一下。很多机器学习的任务都假设样本是独立同分布的(i.i.d),但是真实世界的数据往往不一样都满足。训练样本和测试样本之间分布可能存在偏差。这是因为数据集本身可能是存在biased,比如:比较经典的几个数据集imagenet,caltech等,都有各自的特点;还有就是真实的数据集是具有多样性的,用domain A的数据对一类物体进行训练,在domian B的同一类物体进行识别,表现往往都有下降。所以在模式识别、人脸识别、动作识别时候需要解决模型的泛化和自适应问题。

他们提出用examplar SVM进行分类,并且考虑到预测的稀疏性,融合了低秩矩阵的概念。为了加快训练,损失函数那块用exp替代log,用矩阵的block inverse来加快矩阵求逆。感觉工作量很充足,不愧是一篇TPAMI的文章。向大牛看齐。另外给出李文博士的个人主页:http://www.vision.ee.ethz.ch/~liwenw/ 

相关文章:

  • 2021-09-19
  • 2021-09-28
  • 2021-04-22
  • 2021-08-10
  • 2022-01-02
  • 2021-07-05
  • 2021-09-16
  • 2022-12-23
猜你喜欢
  • 2021-11-24
  • 2021-10-14
  • 2021-12-05
  • 2021-04-11
  • 2021-09-21
  • 2021-06-25
  • 2021-09-04
相关资源
相似解决方案