uestc-wxp

(转载)浅谈协方差矩阵

统计学的基本概念

学过概率统计的孩子都知道,统计里最基本的概念就是样本的均值,方差,或者再加个标准差。首先我们给你一个含有n个样本的集合X=\{{X_{1},\ldots,X_{n}}\},依次给出这些概念的公式描述,这些高中学过数学的孩子都应该知道吧,一带而过。

均值:\bar{X}=\frac{\sum_{i=1}^n  X_{i}}{n}
标准差:s=\sqrt{\frac{\sum_{i=1}^n (X_{i}-\bar{X})^2}{n-1}}
方差:s^2=\frac{\sum_{i=1}^n (X_{i}-\bar{X})^2}{n-1}

很显然,均值描述的是样本集合的中间点,它告诉我们的信息是很有限的,而标准差给我们描述的则是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0,8,12,20]和[8,9,11,12],两个集合的均值都是10,但显然两个集合差别是很大的,计算两者的标准差,前者是8.3,后者是1.8,显然后者较为集中,故其标准差小一些,标准差描述的就是这种“散布度”。之所以除以n-1而不是除以n,是因为这样能使我们以较小的样本集更好的逼近总体的标准差,即统计上所谓的“无偏估计”。而方差则仅仅是标准差的平方。

为什么需要协方差?

上面几个统计量看似已经描述的差不多了,但我们应该注意到,标准差和方差一般是用来描述一维数据的,但现实生活我们常常遇到含有多维数据的数据集,最简单的大家上学时免不了要统计多个学科的考试成绩。面对这样的数据集,我们当然可以按照每一维独立的计算其方差,但是通常我们还想了解更多,比如,两个随机变量之间的关系,以及随机变量之间关系的强度。协方差和相关系数就是用来度量两个随机变量关系的统计量,我们可以仿照方差的定义:

var(X)=\frac{\sum_{i=1}^n (X_{i}-\bar{X})(X_{i}-\bar{X})}{n-1}

来度量各个维度偏离其均值的程度,标准差可以这么来定义:

cov(X,Y)=\frac{\sum_{i=1}^n (X_{i}-\bar{X})(Y_{i}-\bar{Y})}{n-1}

协方差的结果有什么意义呢?

如果Y取值较大时X取值也较大,Y取值较小时X的取值也较小,协方差取正值。反之,如果Y取值较小时X取值较大,Y取值较大时X取值较小,协方差去负值。这就表明协方差的符号揭示了XY之间关系的一些信息。(注意 : a.取值的大小和均值作比较 b.协方差也是一个统计值)

然而协方差的取值可以是任意实数,并且就其取值本身并不能确定x和y之间关系的强度。而相关系数的取值总是介于-1和1之间,并且相关系数取值为-1和1时表示x和y之间存在纯粹的线性关系。

从协方差的定义上我们也可以看出一些显而易见的性质,如:

1. cov(X,X)=var(X)
2. cov(X,Y)=cov(Y,X)

协方差多了就是协方差矩阵

上一节提到的猥琐和受欢迎的问题是典型二维问题,而协方差也只能处理二维问题,那维数多了自然就需要计算多个协方差,比如n维的数据集就需要计算\frac{n!}{(n-2)!*2}个协方差,那自然而然的我们会想到使用矩阵来组织这些数据。给出协方差矩阵的定义:

C_{n\times n}=(c_{i,j},c_{i,j}=cov(Dim_{i},Dim_{j}))

这个定义还是很容易理解的,我们可以举一个简单的三维的例子,假设数据集有\{x,y,z\}三个维度,则协方差矩阵为

可见,协方差矩阵是一个对称的矩阵,而且对角线是各个维度上的方差。

Matlab协方差实战

 

转自 :http://pinkyjie.com/2010/08/31/covariance/

 

更详细内容 :http://www.math.zju.edu.cn/Probability/course/chapter3-2.htm

 

发表于 2012-11-07 22:12  1986早起的太阳  阅读(111)  评论(0编辑  收藏  举报
 

分类:

技术点:

相关文章:

  • 2022-02-14
  • 2021-12-16
  • 2021-11-27
  • 2021-08-06
  • 2021-08-06
  • 2021-08-04
  • 2021-11-13
猜你喜欢
  • 2021-08-06
  • 2021-12-16
  • 2021-11-02
  • 2021-11-08
  • 2022-01-14
  • 2021-12-04
  • 2021-12-24
相关资源
相似解决方案