变量之间存在的一次函数关系是线性关系,那么线性分类就应该是利用这样一种线性关系将输入学习器的样例按照其标记分开。一个线性函数的因变量值是连续的,而分类问题则一般是离散的,这个实值函数SVM学习——线性学习器可以这样表示:

      SVM学习——线性学习器        其中SVM学习——线性学习器是权重向量,SVM学习——线性学习器是阈值参数,由SVM学习——线性学习器可以确定一个超平面。

      假设,当SVM学习——线性学习器时,输入样本SVM学习——线性学习器标记为正类,否则为负类,这里的SVM学习——线性学习器为阈值,相当于这里有一个决策规则SVM学习——线性学习器,从几何上说,SVM学习——线性学习器定义的超平面(SVM学习——线性学习器维欧氏空间中维度大于一的线性子空间)将输入空间分成了两部分,分别对应于两个类别标记,SVM学习——线性学习器决定了超平面距离原点的距离,SVM学习——线性学习器决定了超平面的方向和大小,如图:

                                                                    SVM学习——线性学习器

很明显,这个分类超平面不是唯一的(当然,如果超平面不存在则输入空间线性不可分),只要输入集合确定,那么实际上它的分布也就确定了,如果这个分类超平面客观上存在,那么直观地看,任意一个数据样例离超平面越远则说明这个超平面把数据分的越“开”,于是就有了函数间隔的定义:

定义1:输入样本SVM学习——线性学习器对应于超平面SVM学习——线性学习器的函数间隔是:SVM学习——线性学习器,这里SVM学习——线性学习器是数据分类标记,不失一般性可取值为-1表示负类和+1表示正类,如果SVM学习——线性学习器则意味着数据被正确分类(不管是负类还是正类,如果实际输出和目标输出同号则意味着它们的乘积大于0,否则表明本来为负类的被分成了正类或者本来为正类的分成了负类,所以乘积为负)。显然,输入样本集合到超平面的函数距离由离超平面最近的样例决定。

      将上式转化为归一化线性函数:SVM学习——线性学习器,得到的量叫做几何间隔,回想空间中点到直线的距离公式:设直线方程为:SVM学习——线性学习器,则点SVM学习——线性学习器到直线的距离为:SVM学习——线性学习器

,这里的SVM学习——线性学习器就是向量SVM学习——线性学习器的2-范数,所以几何间隔可以看作是输入样本到分类超平面的距离。

      可以通过下图理解几何间隔:

      SVM学习——线性学习器

       对于任意点SVM学习——线性学习器,在分类超平面SVM学习——线性学习器上的投影点位SVM学习——线性学习器SVM学习——线性学习器为点SVM学习——线性学习器到分类超平面的距离,显然有:SVM学习——线性学习器(为w的单位方向向量),于是有:SVM学习——线性学习器

 

 

回想Rosenblatt感知器的原始形式:

--------------------------------------------begin 感知器算法------------------------------------------------

      已知线性可分的数据集合S,其势为n,学习率为SVM学习——线性学习器,则

        SVM学习——线性学习器

       while (!所有样例都被正确分类){              

                   foreach(i in 1..n){

                       if (SVM学习——线性学习器)

                       {

                                SVM学习——线性学习器

                                SVM学习——线性学习器

                                SVM学习——线性学习器

                        }

                 }

         }

---------------------------------------------end 感知器算法-------------------------------------------------

      当SVM学习——线性学习器表明当前输入样本被误分了,因此权重被更新了多少次就表明样本被误分了多少次,

假设存在向量SVM学习——线性学习器满足SVM学习——线性学习器,对任意一个输入样本都有SVM学习——线性学习器SVM学习——线性学习器是一个固定的值,这就意味着所有输入样本和由SVM学习——线性学习器SVM学习——线性学习器决定的超平面之间的最小几何间隔为SVM学习——线性学习器,那么找到这个超平面前S中的样本最多会被误分多少次呢?

-----------------------------------------begin 线性分类器分类误差上界推导-----------------------------------

      构造新的输入样本向量,SVM学习——线性学习器和权重向量SVM学习——线性学习器,一旦发生分类错误,则有:SVM学习——线性学习器

于是,

1、SVM学习——线性学习器,那么就有:SVM学习——线性学习器SVM学习——线性学习器SVM学习——线性学习器,假设总共出现了SVM学习——线性学习器次误分类,归纳一下,  

 SVM学习——线性学习器SVM学习——线性学习器(式子1);

2、又因为SVM学习——线性学习器归纳一下,

SVM学习——线性学习器(式子2);

3、从R的定义可以发现它其实描述了输入样本分布的广泛程度,对于由SVM学习——线性学习器SVM学习——线性学习器决定的超平面,SVM学习——线性学习器描述了超平面离原点的距离,因此这个距离一定是小于等于R的,于是有SVM学习——线性学习器SVM学习——线性学习器(式子3);

4、由柯西-许瓦茨不等式可以得到:SVM学习——线性学习器式子4)

     最后,由式子1、式子2、式子3和式子4,可以得到以下关系:

SVM学习——线性学习器

      这个式子很重要,它从理论上证明了如果分类超平面存在,则对于输入样本S,在有限次迭代和最多SVM学习——线性学习器次分类错误下就可以找到这个分类超平面,输入样本一旦确定,R也就确定了,这意味着此时SVM学习——线性学习器只和几何间隔SVM学习——线性学习器有关且为反比关系。

---------------------------------------------end 线性分类器分类误差上界推导---------------------------------

      回到函数间隔SVM学习——线性学习器和几何间隔SVM学习——线性学习器这两个量,对分类超平面做尺度变换(类似于SVM学习——线性学习器),发现这个变换并不会使与原有超平面SVM学习——线性学习器相关联的函数关系发生变化,当用几何间隔来评价分类器的分类性能时,由于归一化而使这种尺度变换对评价不产生影响,因此完全可以将函数间隔固定为1,那么,对于正例有:SVM学习——线性学习器,对于负例有:SVM学习——线性学习器,于是正例或者负例与分类超平面之间的几何间隔为:

SVM学习——线性学习器SVM学习——线性学习器

   SVM学习——线性学习器SVM学习——线性学习器

于是,最大化几何间隔就变成了最小化SVM学习——线性学习器,等价于最小化SVM学习——线性学习器,最后得到下面的最优化问题:

------------------------------------------------begin --------------------------------------------------------

                    对于给定的样本集合SVM学习——线性学习器

                    求最优化问题        SVM学习——线性学习器

                                              SVM学习——线性学习器   SVM学习——线性学习器

------------------------------------------------end   --------------------------------------------------------

求解上面的问题就要用到最优化理论中的一些方法了,下一篇正好复习一下。

相关文章:

  • 2021-06-20
  • 2021-10-02
  • 2021-05-23
  • 2021-08-31
  • 2021-11-07
  • 2021-04-28
  • 2021-09-30
  • 2021-03-31
猜你喜欢
  • 2021-08-20
  • 2021-08-04
  • 2021-09-02
  • 2021-04-16
  • 2021-09-20
  • 2021-08-22
  • 2021-07-18
相关资源
相似解决方案