Multi-view Learning with Incomplete Views(IEEE TIP2015)

Chang Xu, Dacheng Tao, Chao Xu.
Peking University.
论文链接:https://ieeexplore.ieee.org/abstract/document/7297854

1 论文主要贡献

  提出处理不完整视图的关键是利用多个视图之间的联系,本文假设从一个共享的子空间生成不同的视图,以便可以通过此子空间集成有关观察到的视图的信息,然后将其用于估计不完整的视图。研究了一种连续过度松弛(successive over-relaxation SOR)优化技术以解决由此产生的目标函数,并从理论上分析了其收敛性。

2 论文主要内容

2.1 Objective function

minU,W,Z12i=1mUiWZiF2s.t. POi(Zi)=POi(Xi),  i[1,m].(1)\min_{U,W,Z}\frac{1}{2}\sum_{i=1}^m||U_iW-Z_i||_F^2\\s.t.\ \mathcal{P}_{O_i}(Z_i)=\mathcal{P}_{O_i}(X_i), \; \forall i\in [1,m].\tag{1}
  Eq.11中,XiRDinX_i\in\R^{D_i*n}为第 ii 个视图的原始数据,DiD_i为第 ii 个视图的特征维度;ZiRDinZ_i\in\R^{D_i*n}为第 ii 个视图图补全后的数据;OiRDinO_i\in\R^{D_i*n}为第 ii 个视图指示矩阵;POi(.)\mathcal{P}_{O_i}(.)表示矩阵在子空间上的投影;ZRDn={Z1,...,Zm}=UWZ\in\R^{D*n}=\{Z_1,...,Z_m\}=UWURDrU\in\R^{D*r}为系数矩阵;WRrnW\in\R^{r*n}是重构表达;约束ZiZ_i是 low-rank.
  —Note—
  1) 关于POi(.)\mathcal{P}_{O_i}(.)文章中是这样解释的:

POi(.)\mathcal{P}_{O_i}(.) is the projection onto the subspaces of sparse matrices with nonzeros restricted to the index subset OiO_i.

  我个人的理解是:OiRDinO_i\in\R^{D_i*n}为第 ii 个视图指示矩阵,用于指示第 ii 个视图对应数据缺失与否;POi(Zi)=POi(Xi)\mathcal{P}_{O_i}(Z_i)=\mathcal{P}_{O_i}(X_i)约束了当XijvX_{ij}^v(第vv个视图下数据矩阵的元素XijX_{ij}不缺失时,对应的ZijvZ_{ij}^v应当和XijvX_{ij}^v相等;当XijvX_{ij}^v(第vv个视图下数据矩阵的元素XijX_{ij}缺失时,对应ZijvZ_{ij}^v没有约束。
  2) 关于约束ZiZ_i是 low-rank. 对于不完整数据的补全,我们首先考虑最简单的做法:复制其他样本或者用样本均值代替,这样得到的ZiZ_i应当是low-rank. 从样本角度考虑,nn个样本中相似的样本应当有很多,相似样本的特征也应当相似,所以ZiZ_i自然是low-rank的。本文约束ZZ的秩不超过rr,在聚类任务中,就是聚成不超过rr类的结果。
  和 multi-label learning 中的标签相关矩阵类似SRccS\in\R^{c*c}, where c is the number of labels. 标签之间也具有相关性,比如sky和cloud,所以SS也具有低秩性或局部相关性。
  3) 本文考虑了两种incomplete情况。
  i. missing variable:某个视图中矩阵元素缺失或者整个列缺失;
  ii. missing view: 某个视图整体缺失或者某个视图中整列缺失情况比较多,这是仅用POi(Zi)=POi(Xi)\mathcal{P}_{O_i}(Z_i)=\mathcal{P}_{O_i}(X_i)不能较好地补全原始缺失数据,此时representation矩阵 WW 的作用很大,矩阵 WW 将views联系起来。

2.2 Optimization (SOR)

这部分我没看懂,数学能力要求比较高,我就简单从论文里搬运一下,欢迎不吝指教~
  采用交替优化的策略可以求解 Eq.11,但对于大型数据矩阵而言,alternating minimization 效率不高。为了实现更快的收敛,本文研究了一种 successive over-relaxation 方法来更新目标变量。
  SOR 方法是 Gauss-Seidel 方法 [D. M. Strong, “Iterative methods for solving ax= b,” AMC, vol. 10, p. 12, 2003.] 的概括和改进。SOR 的思想是在搜索时,采用 Wk+1=Wk+λ(Wk+1Wk),λ>1W^{k+1}=W^k+\lambda(W^{k+1}-W^{k}),\lambda>1,若 λ=1\lambda=1 就退化成 Gauss-Seidel 方法。
Multi-view Learning with Incomplete Views论文笔记
  优化算法如图所示:Problem (2) 即 Eq.11.
Multi-view Learning with Incomplete Views论文笔记

2.3 实验

  作者在clustering, regression, classification都做了实验,详情请阅读文章。

2.4 总结

  在本文中,我们研究了多视图学习中的不完整视图问题,其中可能在某些视图上部分观察到一个样本。利用多个视图之间的联系是处理不完整视图的关键解决方案,而不是遗漏不完整视图或用平均信息填充它们。通过假定从共享子空间生成了不同的视图,可以通过整合来自其他观察到的视图的信息,通过该子空间来估计不完整的视图。最终的目标函数可以通过连续过度松弛方法有效地求解,其收敛性已在理论上进行了分析。在 toy data 和真实数据集上进行的综合实验证明了研究不完整视图问题的重要性以及所提出算法的有效性。

相关文章:

  • 2021-10-08
  • 2022-01-16
  • 2021-04-21
  • 2021-11-13
  • 2021-07-15
  • 2022-01-12
  • 2021-10-26
  • 2021-07-24
猜你喜欢
  • 2021-08-01
  • 2021-06-09
  • 2021-07-02
  • 2021-12-11
  • 2021-04-10
  • 2021-09-19
  • 2021-06-09
相关资源
相似解决方案