Random Projections for k-means Clustering

第四十次写博客,本人数学基础不是太好,如果有幸能得到读者指正,感激不尽,希望能借此机会向大家学习。由于K-Means算法本身的时间复杂度很高,特别是在处理大数据集时,因此这篇文章主要介绍一种使用随机映射(Random Projection)降维方法的近似K-Means算法,其他有关于原型聚类算法的讨论可以移步到该类算法的导航页《原型聚类算法综述(原型聚类算法开篇)》

文章主要内容?

  这篇文章主要讨论K-Means聚类问题中的维数约减技术,并给出如下结论:对于任意nndd维向量构成的矩阵ARn×d{\bf{A}}\in{\Bbb{R}^{n\times{d}}},可以以O(ndε2k/log(d))O\left(nd\lceil{\varepsilon^{-2}k/\log{\left(d\right)}}\rceil\right)的时间复杂度,将其维数约减至t=Ω(k/ε2)t=\Omega\left(k/\varepsilon^2\right),通过这个映射可以以某一恒定不变的概率得到近似精度为2+ε2+\varepsilon的包含kk个簇的聚类结果,其中ε(0,1/3)\varepsilon\in{\left(0,1/3\right)}。上述映射可以通过在矩阵A\bf{A}的右边乘上一个随机矩阵RRd×t{\bf{R}}\in{\Bbb{R}^{d\times{t}}}得到,其中矩阵R\bf{R}中的每个元素的值被等概率的设置为+1/t+1/\sqrt{t}1/t-1/\sqrt{t}
  具体来说,本文关注随机映射(Random Projection,或者称为 Johnson-Lindenstrauss嵌入)技术在K-Means聚类中的应用,以输入是nndd维向量的集合为例,该算法首先将这些向量随机映射到d~\tilde{d}d~d\tilde{d}\leq{d})维空间中,然后在这些映射后得到的向量上运行K-Means聚类算法。该算法可以以一定的时间复杂度来计算上述嵌入(随机映射)过程,这个时间复杂度与输入数据的规模(即nn)呈线性关系,并且得到的最优聚类与在原始数据集上得到的最优聚类之间的近似度为2+ε2+\varepsilon

之前的研究?

  维度约减技术主要可以分为两大方面:a.特征选择(Feature Selection),即通过选择那些可以真实反映数据集特征的特征,来将数据集嵌入到一个低维空间;b.特征抽取(Feature Extraction),即通过人为构造新的特征,来将数据集嵌入到一个低维空间,例如采用原始特征的线性组合。如果将数据集A~\tilde{\bf{A}}的最优聚类结果重新带入数据集A\bf{A}中,与直接在A\bf{A}上得到的最优聚类结果相比差了一个因子ϕ\phiϕ1\phi\geq{1}),其中A~\tilde{\bf{A}}A\bf{A}通过嵌入ff得到的数据集,那么我们就称该嵌入以因子ϕ\phi保存了A\bf{A}的聚类结构,其中,嵌入f:RdRd~f:\Bbb{R}^d\rightarrow{\Bbb{R}^{\tilde{d}}}d~<d\tilde{d}<d)使得A\bf{A}中的任意dd维向量满足f(A(i))=A~(i)f\left({\bf{A}}_{\left(i\right)}\right)=\tilde{\bf{A}}_{\left(i\right)}
  之前对于K-Means聚类中降维技术的研究包括:a.奇异值分解(SVD)技术将数据集映射为A~=UkΣkRn×k\tilde{\bf{A}}={\bf{U}}_k{\Sigma}_k\in{\Bbb{R}^{n\times{k}}},这种方法以因子2保存了原始数据集中的聚类结构;b.随机映射(Random Reprojection,简称RP)技术将输入的dd维向量映射成为t=Ω(log(n)/ε2)t=\Omega\left(\log{\left(n\right)/\varepsilon^{2}}\right)维向量,这种方法以因子1+ε1+\varepsilon保存了原始数据集中的聚类结构;c.基于奇异值分解的特征选择技术使用SVD找出了c=Ω(klog(k/ε)/ε2)c=\Omega\left(k\log{\left(k/\varepsilon\right)/\varepsilon^{2}}\right)个可以真实反映数据集特征的特征,这种映射方式可以某一恒定不变的概率以因子2+ε2+\varepsilon保存原始数据集中的聚类结构,下图所示是这三种降维技术与本文提出的降维技术之间的对比,

Random Projections for k-means Clustering(ICML 2010)
图1 K-Means聚类中的各种降维技术

其中,RP技术采用随机信号矩阵(Random Sign Matrix)和邮差算法(Mailman Algorithm)来人为构造特征,这些手段会在下文中进行简要介绍。

聚类的最优度和近似度?

  首先引入K-Means聚类问题的另一种表示,给定数据集ARn×d{\bf{A}}\in{\Bbb{R}^{n\times{d}}}、簇数量kk,以及“集群指标矩阵”(Cluster Indicator Matrix),K-Means聚类问题的最优解还可以表示为集群指标矩阵的形式,即
(1)Xopt=argminXχAXXTAF2{\bf{X}}_{opt}={\rm{argmin}}_{X\in{}{\chi}}||{\bf{A}}-{\bf{XX}}^{T}{\bf{A}}||^{2}_{F} \tag{1}

其中,χ\chi是集群指标矩阵的集合,XoptRn×k{\bf{X}}_{opt}\in{\Bbb{R}^{n\times{k}}}是问题得到的最优集群指标矩阵,这样K-Means聚类问题还可以表示为
F(A,X)=AXXTAF2F\left({\bf{A}},{\bf{X}}\right)=||{\bf{A}}-{\bf{XX}}^{T}{\bf{A}}||^{2}_{F}

其中,集群指标矩阵XRn×k{\bf{X}}\in{\Bbb{R}^{n\times{k}}}的每行只有一个非零元素,该元素用来指示样本点所属的簇,即Xij=1/zj{\bf{X}}_{ij}=1/\sqrt{z_j}i=1,2,,ni=1,2,\dots,nj=1,2,,kj=1,2,\dots,k)表示第ii个样本点隶属于第jj个簇,zjz_j则是簇中所含样本点总数,明显XXT=Ikdiag(1,1,,1){\bf{XX}}^{T}={\bf{I}}_{k}\in{diag\left(1,1,\dots,1\right)}是一个kk维单位矩阵。
  上述式(1)即聚类的最优度度量,如果对于数据集A\bf{A}和簇数量kk,某个算法得到的指示矩阵Xγ{\bf{X}}_{\gamma}以至少1δγ1-\delta{\gamma}的概率满足下式,
(2)AXγXγTAF2γminXχAXXTAF2=γAXoptXoptTAF2||{\bf{A}}-{\bf{X_{\gamma}}}{\bf{X}}_{\gamma}^{T}{\bf{A}}||_{F}^{2}\leq{\gamma\min_{{\bf{X}}\in{\chi}}{||{\bf{A}}-{\bf{XX}}^{T}{\bf{A}}||_{F}^{2}}} \\ =\gamma{||{\bf{A}}-{\bf{X}}_{opt}{\bf{X}}_{opt}^{T}{\bf{A}}||_{F}^{2}} \tag{2}

那么称该算法是K-Means问题的“γ\gamma-近似”(γ\gamma-approximation),其中,γ1\gamma\geq{1}δγ[0,1)\delta_{\gamma}\in{[0,1)}。这里直接引用《A simplelineartime (1+ε\varepsilon)-approximation algorithm fork-means clustering in any dimensions.》 一文中的下述定理,
  对于任意ε(0,1]\varepsilon'\in{(0,1]},令γ=1+ε\gamma=1+\varepsilon',那么K-Means问题的“γ\gamma-近似”算法的时间复杂度是O(2(k/ε)O(1)dn)O\left(2^{\left(k/\varepsilon'\right)^{O\left(1\right)}}dn\right)

文章符号定义与线性代数基础?

  矩阵ARn×d{\bf{A}}\in{{\Bbb{R}}^{n\times{d}}},聚类数量k<min{n,d}k<\min{\{n,d\}},对于矩阵A{\bf{A}}的奇异值分解A=UΣVT{\bf{A}}={\bf{U}}\Sigma{\bf{V}}^{T},令UKRn×d{\bf{U}}_{K}\in{\Bbb{R}^{n\times{d}}}表示U\bf{U}中与最大的kk个奇异值对应的列向量构成的矩阵,VKRd×k{\bf{V}}_{K}\in{\Bbb{R}^{d\times{k}}}表示V\bf{V}中与最大的kk个奇异值对应的列向量构成的矩阵,Σk\Sigma_{k}是由这kk个最大的奇异值构成的对角矩阵。如果rank(A)=ρrank\left({\bf{A}}\right)=\rho,那么Aρk=AAk{\bf{A}}_{\rho-k}={\bf{A}}-{\bf{A}}_k,其中Ak=UkΣkVkT{\bf{A}}_k={\bf{U}}_k\Sigma_k{\bf{V}}_k^{T}A(i){\bf{A}}_{\left(i\right)}代表A\bf{A}的第ii行,i[n]i\in[n]代表i{1,2,,n}i\in{\{1,2,\dots,n\}}A\bf{A}ρ\rho个非负奇异值可以表示为σ(i)(A)\sigma_{\left(i\right)}\left({\bf{A}}\right)i[ρ]i\in[\rho]),A2||{\bf{A}}||_2AF||{\bf{A}}||_F分别表示矩阵A\bf{A}的谱范数(2-范数)和弗罗贝尼乌斯单数(F-范数),A{\bf{A}}^{\dagger}表示A\bf{A}的伪逆矩阵,即唯一满足下述各个不等式的矩阵,

AAA=AAAA=A(AA)T=AA(AA)T=AA{\bf{A}}{\bf{A}}^{\dagger}{\bf{A}}={\bf{A}}、{\bf{A}}^{\dagger}{\bf{A}}{\bf{A}}^{\dagger}={\bf{A}}^{\dagger}、\left({\bf{A}}{\bf{A}}^{\dagger}\right)^{T}={\bf{A}}{\bf{A}}^{\dagger}、\left({\bf{A}}^{\dagger}{\bf{A}}\right)^{T}={\bf{A}}^{\dagger}{\bf{A}}

A{\bf{A}}^{\dagger}的谱范数(即A{\bf{A}}^{\dagger}的最大奇异值)与A{\bf{A}}的谱范数互为倒数,还有一条关于矩阵范数的重要性质,即任意满足矩阵乘法的矩阵C{\bf{C}}T{\bf{T}},满足不等式CTFCFT2||{\bf{C}}{\bf{T}}||_{F}\leq{||{\bf{C}}||_{F}||{\bf{T}}||_{2}}。我们将满足P2=P{\bf{P}}^{2}={\bf{P}}的方阵P{\bf{P}}作为投影矩阵,令E[Y]E[Y]Var[Y]Var[Y]作为随机变量YY的期望和方差,P(e)P\left(e\right)是事件ee发生的可能性,并且将“独立同分布”(independent identically distributed)缩写为“i.i.d.”,将“以一定概率”(with probability)缩写为“w.p.”,所有对数都以2为底。

随机投影与随机信号矩阵?

  随机投影(Random Projection,或者称为 Johnson-Lindenstrauss嵌入)定理的一个重要结论是:
  对于任意矩阵ARn×d{\bf{A}}\in{\Bbb{R}^{n\times{d}}},可以将其中的nndd维向量线性的投影到t=Ω(log(n)/ε2)t=\Omega\left(\log{\left(n\right)/\varepsilon^{2}}\right)维空间中,这种投影使用随机标准正交矩阵,并以因子1+ε1+\varepsilon保存了原始空间中任意两点之间的距离。
随后的研究对上述结论的证明过程进行了简化,并证明使用任意高斯随机矩阵(例如矩阵中所有元素均是服从均值为零,方差为1/t1/\sqrt{t}的独立的高斯随机分布)也可以完成随机映射,具体地说,对于任意高斯随机矩阵R\bf{R}如下不等式均以较高的概率成立,

(1ε)A(i)A(j)2ARAR2(1+ε)A(i)A(j)2\left(1-\varepsilon\right)||{\bf{A}}_{(i)}-{\bf{A}}_{(j)}||_{2}\leq{||{\bf{A}}_{}{\bf{R}}-{\bf{A}}_{}{\bf{R}}||_{2}\leq{\left(1+\varepsilon\right)||{\bf{A}}_{(i)}-{\bf{A}}_{(j)}||_{2}}}

由于映射A~=AR\tilde{\bf{A}}={\bf{AR}}具有上述性质,因此也以因子1+ε1+\varepsilon保存了在原矩阵A\bf{A}上的最优K-Means目标函数,Achlioptas证明了,即使使用一个(经过重新放缩后的)“随机信号矩阵”(Random Sign Matrix)进行投影也可以保证上述结论成立,本文使用这个结论对投影过程中涉及到的计算进行计简化。

本文提出的算法?

Random Projections for k-means Clustering(ICML 2010)
图2 K-Means聚类的随机投影算法

算法时间复杂度分析?

  假设投影矩阵R\bf{R}是通过图1中步骤2所示方法构造的,那么,步骤3中使用邮差算法(Mailman Algorithm)计算矩阵乘法的时间复杂度是O(ndε2k/log(d))O(nd\lceil\varepsilon^{-2}k/\log{(d)}\rceil),当k=O(log(d))k=O(\log{(d)})时,上述步骤的时间复杂度近乎为线性O(nd/ε2)O(nd/\varepsilon^{2}),这对于处理大规模数据是非常有效的。虽然采用不同的方法构造投影矩阵会使得上述步骤的时间复杂度产生变化,例如采用均值为零、方差为1/t1/\sqrt{t}的随机高斯矩阵得到的时间复杂度是O(knd/ε2)O(knd/\varepsilon^{2}),但使用图1所示算法最终产生的聚类结果是近似的。另外,本文使用MATLAB的matrix-matrix BLAS工具来执行步骤3中的矩阵相乘。
  在算法步骤4中,假设γ=1+ε\gamma=1+\varepsilon,那么对于任意ε(0,1/3)\varepsilon\in{(0,1/3)},“γ\gamma-近似”算法将会以O(2(k/ε)O(1)kn/ε2)O\left(2^{\left(k/\varepsilon\right)^{O\left(1\right)}}kn/\varepsilon^{2}\right)的时间复杂度产生一个以因子2+ε2+\varepsilon保留原始聚类结构的个解,那么整个算法的时间复杂度可以表示为O(ndε2k/log(d)+2(k/ε)O(1)kn/ε2)O(nd\lceil\varepsilon^{-2}k/\log{(d)}\rceil+2^{\left(k/\varepsilon\right)^{O\left(1\right)}}kn/\varepsilon^{2})。即使不采用“γ\gamma-近似”算法,而直接在A~\tilde{\bf{A}}上运行标准K-Means聚类,步骤4的时间复杂度O(nk2/ε2)O(nk^{2}/\varepsilon^{2})也远远小于直接在原始数据集A\bf{A}上运行标准K-Means聚类的时间复杂度O(nkd)O(nkd)


参考资料

【1】 Arthur, D. . “k-means++ : The advantages of careful seeding.” Proceedings of the eighteenth annual ACM-SIAM symposium on Discrete algorithms, 2007 Society for Industrial and Applied Mathematics, 2007.

相关文章:

  • 2021-11-11
  • 2021-11-19
  • 2022-12-23
  • 2021-11-17
  • 2021-06-26
  • 2022-12-23
  • 2021-06-23
  • 2021-11-10
猜你喜欢
  • 2021-05-07
  • 2021-11-06
  • 2021-04-06
  • 2022-12-23
  • 2021-09-22
  • 2022-12-23
相关资源
相似解决方案