背景:

sparse PCA 较 PCA来说更具可解释性,泛化性。

部分符号

XRn×p\mathrm{X} \in \mathbb{R}^{n \times p}
假设样本已经中心化(每一个行为一个样本)
X=[X1,X2,,Xp]\mathrm{X}=[X_1,X_2,\ldots, X_p]
Xj=(x1j,x2j,,xnj)X_j = (x_{1j}, x_{2j},\ldots, x_{nj})
X=UDVT\mathrm{X = UDV^{T}}
Z=UD\mathrm{Z=UD}为主成分(PCs)

创新点

1.将PCA问题转化为一个回归问题,利用最小角回归,可以高效求解Lasso问题。
2.二重迭代求解,sparse PCA问题。

文章梗概

The LASSO AND THE ELASTIC NET

普通的Lasso

Sparse Principal Component Analysis
Y=(y1,y2,,yn)TY=(y_1,y_2,\ldots,y_n)^{\mathrm{T}}
这个方法的问题在于,当pnp \gg n的时候,β^\hat{\beta}最多有n个非零项(这是为什么呢?)

The elastic net

Sparse Principal Component Analysis

将PCA改造为回归问题

定理一 考虑单个向量(需要先进行SVD)

Sparse Principal Component Analysis

定理二 单个向量(无需进行SVD版本)

Sparse Principal Component Analysis

定理三 多个向量(无需进行SVD, 非LASSO,非elastic net)

Sparse Principal Component Analysis

目标函数(最终版)

Sparse Principal Component Analysis

俩步求解

Sparse Principal Component Analysis

定理四 A given B的理论支撑(存疑)

Sparse Principal Component Analysis

算法一

Sparse Principal Component Analysis

方差计算

因为稀疏化后的向量,既不具有空间上(往往)的正交性,也不具有概率上(xTCy=0\mathrm{x^{T}Cy}=0)的正交性。这里,Zou 考虑的是空间上的正交性,将得到的向量正交化,把余量相加得最后的方差。
Sparse Principal Component Analysis

复杂度

n>pn > pnp2+mO(p3)np^2+mO(p^3) #m是迭代次数

pnp \gg n 算法改进

简单来说,就是把step2改进下,原来需要求解一个elastic net问题,现在直接进行截断,自然会减轻不少负担。
Sparse Principal Component Analysis

##数值实验(pitprops)
Sparse Principal Component Analysis

Sparse Principal Component Analysis

相关文章: