降维技术使得数据变得更易使用,并且它们往往能够去除数据中的噪声,使得机器学习任务往往更加精确。

降维往往作为预处理步骤,在数据应用到其它算法之前清洗数据。有很多技术可以用于数据降维,在这些技术中,独立成分分析(Independent Component Analysis, ICA)、因子分析(Factor Analysis)、主成分分析(Principal Component Analysis, PCA)比较流行,其中又以主成分分析应用最广泛。

PCA可以从数据中识别其主要特征,它是通过沿着数据最大方差方向旋转坐标轴来实现的。选择方差最大的方向作为第一条坐标轴,后续坐标轴与前面的坐标轴正交。

协方差矩阵上的特征值分析可以用一系列的正交坐标轴来获取。

 

降维的优点

1 使得数据集更易使用

2 降低很多算法的计算开销

3 去除噪声

4 使得结果易懂

缺点

1 不一定需要,且有可能损失有用信息

 

注意:PCA技术适用于数值型数据,不适用与名义数据

 

 假设有如下数据需要进行预处理,数据集合约1000行。

降维PCA技术

 

PCA算法的伪代码大致如下:

     1 去除平均值

     2 计算协方差矩阵

     3 计算协方差矩阵的特征值和特征向量

     4 将特征值从大到小排序

     5 保留最上面的N个特征向量

     6 将数据装换到上述N个特征向量构建新的特征空间中

 

本文通过PCA算法对数据降维处理,主要代码如下

 1 from numpy import *
 2 
 3 def loadDataSet(filename, delim = '\t'):
 4     fr = open(filename)
 5     stringArr = [line.strip().split(delim) for line in fr.readlines()]
 6     datArr = [map(float, line) for line in stringArr]
 7     return mat(datArr)
 8 
 9 def pca(dataMat, topNfeat=9999999):
10     
11     meanVals = mean(dataMat, axis=0)
12     meanRemoved = dataMat-meanVals
13     covMat = cov(meanRemoved, rowvar = 0)
14     eigVals, eigVects = linalg.eig(mat(covMat))
15     eigValInd = argsort(eigVals)
16     eigValInd = eigValInd[:-(topNfeat+1):-1]
17     redEigVects = eigVects[:, eigValInd]
18     lowDDataMat = meanRemoved * redEigVects
19     reconMat = (lowDDataMat * redEigVects.T) + meanVals
20     
21     return lowDDataMat, reconMat
pca

相关文章:

  • 2021-07-05
  • 2021-04-07
  • 2019-09-26
猜你喜欢
  • 2021-12-22
  • 2022-02-27
  • 2019-08-06
  • 2021-08-08
  • 2022-01-22
相关资源
相似解决方案