Lecture 7: VC Dimension VC维

ppt
video

7.1 Definition of VC Dimension VC维的定义

复习1

上节课,林教授讲到了,当样本N足够大,且成长函数mH(N)存在断点k时,可以概率性地推出EoutEin


kmH(N)B(N,k)i=0k1(Ni)[Nk1]

【林轩田】机器学习基石(七)——VC维

复习2 VC边界

对演算法A在数据空间D上选择的任何假设g,当D在统计学意义上足够大时,这个假设是坏假设的几率是

PD[|Eout(g)Ein(g)|>ϵ]PD[hH,s.t.|Eout(g)Ein(g)|>ϵ]4mH(2N)exp(18ϵ2N)4(2N)k1exp(18ϵ2N)[k]

所以,如果

  • mH(N)kH
  • ND

    以上两点推出,
    EinEout
  • 如果,演算法A选择了一个有小EingA是好的演算法

有了上面三条,再加上好运气,我们就学到了好的规律!!

vc维定义

  • vc维是最大的非断点的正式名称
    【林轩田】机器学习基石(七)——VC维

假设函数H的VC维,记为dVC(H),是使得成长函数mH(N)=2N最大的N,即

  • 假设函数H可以shatter的最多的输入数量
  • dvc=k1
    如下图,这是上节课提出的几个例子:
    【林轩田】机器学习基石(七)——VC维

  • 所以,如果我们有有限个VC维的话,就可以推出不论选择哪个g,都能够保证Ein(g)Eout(g),而不用关心

    • 演算法A长什么样。
    • 样本分布P长什么样。
    • 目标函数f长什么样。

7.2 VC dimension for perceptrons 感知器的VC维

矩阵相关

开始之前,我们先复习两个矩阵相关的概念。

逆矩阵

AnnB使AB=BA=E
BAA
E

举个例子:

A=[1243]

A的逆矩阵。
解:
假设

B=[abcd]

AB=[1243][abcd]=[a+2cb+2d4a+3c4b+3d]=[1001]

所以,
{a+2c=1,b+2d=0.4a+3c=04b+3d=1,

得到,
B=[0.60.40.80.2]

线性相关

a1,a2,...am为一组n,若存在一组不全为0的实数k1,k2,...km,使得

k1a1+k2a2+k3a3+...+kmam=0

则称向量组a1,a2,...,am线性相关,反之,线性无关。

将向量组写成矩阵,如何通过矩阵的性质判断向量组是线性相关还是线性无关呢?

  • 将矩阵进行初等行变换,化为阶梯型矩阵,若非零行的行数等于向量的个数,即矩阵满秩,则为向量组线性无关;若非零行行数小于向量个数,即矩阵非满秩,则向量组线性相关。

感知器的vc维

首先我们来回顾一下二维感知器:
【林轩田】机器学习基石(七)——VC维
在线性可分的情况下,PLA是可以找到最佳的g的,当迭代次数T足够大时,我们能保证Ein(g)=0
在之前关于机器学习可行性的论证中,二维线性分割问题的vc维等于3是有限的,在训练样本N足够大时,Eout(g)Ein(g)

所以,我们能推出,在二维线性可分问题中, PLA的Eout(g)0

现在,我们提出一个问题,PLA在多维情况下仍旧可行吗?

【林轩田】机器学习基石(七)——VC维

注意到一维的感知机dvc=2,二维的感知机dvc=3
猜想,D维的感知机dvc=d+1

如何验证这个猜想呢?分为两步:

  1. 验证dvcd+1
  2. 验证 dvcd+1

首先证明dvcd+1,因为vc维的定义是,能够被shatter的最大输入数量;如果我们能找到至少1个d维的能shatter的最大输入数量是d+1的情形,那么就可以说dvcd+1
【林轩田】机器学习基石(七)——VC维

我们构造一个有d+1个inputs的d维矩阵:

X=[000...0100...0010...0001...0......000...1]

第一个input向量代表原点,有d个0;其余d行向量分别代表某一维值为1,其它维值为0的向量。

注意到图中灰色的一列,我们给向量的左边添加一列常数1,代表threshold。

d=1时:

X=[01]

可见d+1=2个inputs是shatter的
d=2时:
X=[001001]

也就是说在二维平面直角坐标系上,是(0,0),(1,0)和(0,1)三个点,我们在几何上可以很容易证明,这三个点是shatter的。

我们说d+1个inputs是shatter的,就是说假设空间中,包含输出y的全排列,就是对任意的y

y=[y1y2...yd+1]

总能找到一个w,使得sign(wX)=y 成立。

注意到我们构造的矩阵是可逆的,所以wX=yw=X1y总是成立的。

这里我们证明了第一个不等式,即我们找到了d维的d+1个inputs可以被shatter。

如何证明dvc<=d+1呢?我们需要证明,对d维的任意d+2个输入来说,都是不能被shatter的。

【林轩田】机器学习基石(七)——VC维

考虑一个二维的例子,d=2,d+2=4,也就是4行2列的矩阵,我们在左边偷偷再加一列常数1表示threshold,这样就构成了一个4行3列的矩阵。

这四个点在平面直角坐标系上的表示,分别是(0,0),(1,0),(0,1),(1,1),根据以前的学习,我们知道这四个点是不能被shatter的。
【林轩田】机器学习基石(七)——VC维

也就是说,如果我们定好了另外三个点分别是圈、叉、圈,第四个点一定不能是叉,只能是圈,用线性代数表示:

wTx4=wTx2+wTx3wTx1>0

从矩阵的角度来说,如果一个矩阵的行数大于列数,这个矩阵的向量组是线性相关的。

【林轩田】机器学习基石(七)——VC维

这里假设,anwTxn的符号相同,也就是说,我们假设a1是正的,a2,a3....,ad+1是负的,那么
【林轩田】机器学习基石(七)——VC维

根据负负得正,wTxd+2一定大于0;也就是说,不存在xd+2为叉叉的情况,这样已经证明出,d+2个inputs是不能被shatter的,所以dvc<=d+1

所以,我们证明了d维的感知机模型,dvc=d+1

7.3 Physical Intuition of VC Dimension vc维的直观物理解释

  • 假设的参数w代表了自由程度(degrees of freedom),参数越多,代表假设空间函数的可调节能力越强。
  • 假设的数量,M=|H|,可以类比成自由程度。
  • 上一小节提到的vc维,可以理解为有效地二元分割的自由程度。

【林轩田】机器学习基石(七)——VC维

  • 根据经验,虽然不是总这样,dvc的值和自由参数个数是相等的。

【林轩田】机器学习基石(七)——VC维

第五节课曾经讨论过M和机器学习两个核心问题的关系,将M转换为dvc,结论类似。

  • dvc小时,坏事情发生的概率右边界小,也就是说我们有极高的概率保证EoutEin,但是同时因为dvc较小,可以选择的H也少了,所以不能保证Ein足够小。
  • 反之如是。

所以选择一个合适的dvc,或者说合适的假设空间H,或者说合适的模型,是十分重要的。

【林轩田】机器学习基石(七)——VC维

Fun Time问题是,经过原点的也就是说固定w0为0的感知器模型的dvc是多少?这个问题可以从自有参数与dvc的关系入手,因为自由参数少了一个,所以dvc也相应地减1。答案是2,d。

7.4 Interpreting VC Dimension VC维的解释

【林轩田】机器学习基石(七)——VC维

在深入解释vc维之前,我们先来回顾一下vc边界。vc边界指坏事发生的概率的右边界,用δ表示。

换个说法,好事情发生概率的左边界就是1δ,即

PD[|Ein(g)Eout(g)|ϵ]1δ

δ表示ϵ,得到
【林轩田】机器学习基石(七)——VC维

也就是说,在1δ的概率下:

|Ein(g)Eout(g)|8Nln(4(2N)dvcδ)

去掉绝对值,

Ein(g)8Nln(4(2N)dvcδ)Eout(g)Ein(g)+8Nln(4(2N)dvcδ)

【林轩田】机器学习基石(七)——VC维

我们重点关注右边界,使用Ω(N,H,δ)表示根号项的一大串内容,视为模型复杂度的惩罚项。

【林轩田】机器学习基石(七)——VC维

左图横轴是dvc,纵轴是Error。

  • 随着dvc的增大,Ein是减小的。可以这么理解,dvc增大了,代表假设空间中可供选择的g变多了,也就更容易找到小的Ein
  • 根据公式,dvc增大,模型复杂度也在增大。
  • Eout根据前两个的走势,大致呈现山谷形。

【林轩田】机器学习基石(七)——VC维

给定一些参数,计算需要训练样本N的值,我们发现,理论上样本N=10000dvc,但是经验上,N=10dvc就可以了。
所以说我们的vc bound是十分宽松的,那它为什么如此宽松呢?原因如图。
【林轩田】机器学习基石(七)——VC维

相关文章:

  • 2021-06-01
  • 2021-11-04
  • 2022-12-23
  • 2022-12-23
  • 2021-10-30
  • 2021-07-20
  • 2021-10-01
猜你喜欢
  • 2021-10-08
  • 2022-12-23
  • 2021-07-16
  • 2021-05-18
  • 2022-12-23
  • 2021-11-03
  • 2021-07-27
相关资源
相似解决方案