SVM——线性可分 SVM 原理

线性可分和超平面

二分类问题

二分类问题就是:给定的各个样本数据分别属于两个类质疑,而目标是确定新数据点将归属到哪个类中。

在机器学习的应用中,至少现阶段,分类是一个非常常见的需求,特别是二分类,它是一切分类的基础,而且很多情况下,多分类问题都可以转化为二分类问题来解决。

特征的向量空间模型

具体的样本在被机器学习算法处理时,由其特征来表示,换言之每个现实世界的事物,再用来进行机器学习训练或预测时,需要转化为一个特征向量。

假设样本的特征向量为n维,那么我们说这些样本的特征向量处在n维的特种空间中。一般来说,特征空间可以是欧式空间,也可以是希尔伯特空间,不过便于理解,都是用欧式空间。

当我们把一个n维向量表达在一个n维欧式空间的时候,可以想象一个个向量对应该空间中的一个个点。举个例子,把若干样本的特征向量放到特征空间里去,就好像在这个n维空间中撒了一把豆子,当n=1时,这些豆子是一条直线上的若干点;当n=2时,这些豆子是平面上的若干点……

线性可分

选取特征的目的:将一个事物的某些属性数字化,再映射为特征空间中的点,其目的是为了对其进行计算。

比如特征向量是2维,下图中红蓝两色点都是样本的特征向量,红色是正类,蓝色是负类:
(系列笔记)8.SVM系列(1)
这两类样本很显然可以被一条线分割开(如下图),这就是两类样本在其特征空间里线性可分
(系列笔记)8.SVM系列(1)
线性可分的数学定义D0D_0D1D_1是n维欧式空间的两个点集,如果存在n维向量 ww 和实数 bb,使得所有属于D0D_0 的点 xix_i 都有 wxi+b>0wx_i+b>0 ,而对于所有属于 D1D_1 的点 xjx_j 则有 wxj+b<0wx_j+b<0。我们称D0D_0D1D_1线性可分。

超平面

上述将D0D_0D1D_1完全正确地划分开的wx+b=0wx+b=0,就是超平面(Hyperplane)。
超平面: n维欧式空间中维度等于n-1的线性子空间。如:1维欧氏空间(直线)中的超平面为0维(点),2维欧氏空间中的超平面为1维(直线);3维欧氏空间中的超平面为2维(平面);以此类推。

在数学意义上,将现行可分的样本用超平面分隔开的分类模型,叫线性分类器(线性分类模型)。可以想象,在一个样本特征向量线性可分的特征空间里,可能有许多超平面可以把两类样本分开,在这种情况下,我们要寻找的是最佳超平面。
最佳超平面判断标准: 以最大间隔把两类样本分开的超平面,是最佳超平面(也叫最大间隔超平面):

  1. 两类样本分别分割在该超平面的两侧;
  2. 两侧距离超平面最近的样本点到超平面的距离被最大化。

线性可分支持向量机

找到最大间隔超平面

线性可分支持向量机 :以找出线性可分的样本在特征空间中最大间隔超平面为学习目的的分类模型。
具体过程:先找到两个平行的,能够分离正负例的辅助超平面,然后将他们分别推向正负例两侧,使得他们之间的距离尽可能大,一直到有至少一个正样本或负样本通过对应的辅助超平面为止——推到无法再推,再推就“过界”为止,如图:
(系列笔记)8.SVM系列(1)
这两个超平面互相平行,它们范围内的区域称为“间隔”,最大间隔超平面位于这两个辅助超平面正中的位置且与它们平行的超平面(绿色)

用直线表示这两条直线:
蓝色:x2=sx1+t1=>sx1x2+t1=0x_2=sx_1+t_1=>sx_1-x_2+t_1=0——————————————(1)
红色:x2=sx1+t2=>sx1x2+t2=0x_2=sx_1+t_2=>sx_1-x_2+t_2=0——————————————(2)
d=t1t2d=t_1-t_2,绿线:x2=sx1+t1d2=>sx1x2+t1d2=0x_2=sx_1+t_1- \frac{d}{2}=>sx_1-x_2+t_1- \frac{d}{2}=0——(3)
然后t2=t1dt_2=t_1-d带入(2),然后将(1)两侧同时减去d2\frac{d}{2},(2)两侧同时加d2\frac{d}{2}
(系列笔记)8.SVM系列(1)
x=(x1,x2)x=(x_1,x_2),w=(2sd,2d)w=(\frac{-2s}{d},\frac{2}{d}),b=12t1db=1-\frac{2t_1}{d},则:
(系列笔记)8.SVM系列(1)

符号说明

用来训练线性可分支持向量机(Support Vector Machine,SVM)的样本记作:
(系列笔记)8.SVM系列(1)
其中,xix_i为n维实向量,而yiy_i的取值要么是1,要么是-1,i=1,2,...,mi=1,2,...,myiy_ixix_i的标签,当yi=1y_i=1时,xix_i为正例;当yi=1y_i=-1时,xix_i为负例。

我们要找将上面m个样本完整正确地分隔为正负两类的最大间隔超平面:wx+b=0w*x+b=0,这个超平面由其法向量w和截距b确定,可用(w,b)表示。
(系列笔记)8.SVM系列(1)
这m个样本在特征空间是线性可分的,因此我们可以找到两个将正负两类样本分离到距离尽可能大的超平面,它们分别是:wx+b=1w*x+b=1(超平面1)和wx+b=1w*x+b=-1(超平面2)
通过几何不能得到这两个超平面之间的距离:2w\frac{2}{||w||},因此要使两平面间的距离最大,我们需要最小化w||w||

2w\frac{2}{||w||}的推导过程:

w=(k,1)w=(k,-1),b1=b+1b_1=b+1b2=b1b_2=b-1,则超平面1又可以表示为:x2=kx1+b2x_2=kx_1+b_2,超平面2可以表示为:x2=kx1+b1x_2=kx_1+b_1
(系列笔记)8.SVM系列(1)
因为有:el=k\frac{e}{l}=k,则:
(系列笔记)8.SVM系列(1)
以为b1b2=2|b_1-b_2=2,所以:
(系列笔记)8.SVM系列(1)
又因为w=(k,1)=>w=k2+(1)2=k2+12w=(k,-1)=>||w||=\sqrt{k^2+(-1)^2}=\sqrt{k^2+1^2},所以:
(系列笔记)8.SVM系列(1)

学习目标

依据定义,我们知道样本数据需满足下列两个条件之一:
yi=1y_i=1,则wxi+b>=1wx_i+b>=1
yi=1y_i=-1,则wxi+b<=1wx_i+b<=1
也就是说没有样本点在超平面1和超平面2中间,且所有点都在正确的那一侧。将上式合并就是
yi(wxi+b)>=1y_i(wx_i+b)>=1,也就是说,我们要最小化w||w||是有约束条件的:
(系列笔记)8.SVM系列(1)
因此,求最大分割超平面问题其实是一个约束条件下的最优化问题
(系列笔记)8.SVM系列(1)
为了后面好算,我们用(w)22\frac{(||w||)^2}{2};来代替w||w||,并将约束条件变一下形式:
(系列笔记)8.SVM系列(1)
这就是支持向量机的学习目标,其中min(w22)min(\frac{||w||^2}{2})是目标函数,我们要对它最优化。但是不能用梯度下降法来优化,梯度下降法是优化没有约束条件问题的算法。此处要用拉格朗日乘子法(见系列笔记9~)

相关文章: