支持向量机是一种二分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机包括核技巧,这使它称为实质上的非线性分类器。支持向量机的学习算法是求解凸二次规划的最优化算法。

由简至繁的模型:线性可分支持向量机、线性支持向量机和非线性支持向量机。当数据线性可分时,通过硬间隔最大化,学习线性可分支持向量机;当训练数据近似线性可分时,通过软间隔最大化,学习线性支持向量机;当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。

线性可分支持向量机

假设分类问题的输入空间和特征空间不同。线性可分支持向量机、线性支持向量机假设这两个空间的元素一一对应,即能把输入映射为特征。非线性支持向量机用一个非线性映射将输入映射到特征。所以,输入都是映射到特征空间,支持向量机的学习都是在特征空间中进行的。

一般当训练数据线性可分时,存在无穷个分离超平面可将两类数据正确分开。感知机利用误分类最小的策略,求得分离超平面,不过这时解可能有很多。线性可分支持向量机利用间隔最大化求分离超平面,这时的解是唯一的。

在样本空间中,划分超平面可通过如下线性方程来描述

wTx+b=0w^Tx + b = 0

其中 w=(w1;w2;...;wd)w = (w_1;w_2;...;w_d) 是法向量(即导数,斜率),决定了超平面的方向,b是位移。将超平面记为(w, b)。样本空间中任意点 x 到超平面的距离可写为(可以类比点到直线的公式):

r=WTx+bwr = \frac{W^Tx + b}{||w||}

若能正确分类训练集则满足以下公式

wTxi+b+1,yi=+1w^Tx_i + b \ge +1, y_i=+1

wTxi+b1,yi=1w^Tx_i + b \le -1, y_i=-1

下图,距离超平面最近的几个样本点是上述等式的等号成立,它们被称为“支持向量”,连个异类到超平面的距离之和为

γ=2w\gamma = \frac{2}{||w||}

称为间隔
支持向量机(一)

欲找到“最大间隔”的划分超平面,也就是找到满足约束的 w 和 b,使得 γ\gamma 最大,即

maxw,b2wmax_{w, b} \frac{2}{||w||}

s.t.yi(wTx+b)1,i=1,2,...,ms.t. \quad y_i(w^Tx + b) \ge 1,i=1,2,...,m

上述第一个式子转化后可以写成

minw,bw22min_{w,b} \frac{||w||^2}{2}

这就是支持向量机(SVM)的基本型。间隔貌似只与 w 有关,事实上 b 通过约束隐式的影响着 w 的取值。这里的间隔最大化也叫硬间隔最大化

支持向量机由很少的“重要的”训练样本确定。

對偶問題

求解上节最后的约束条件和最大化后得到间隔划分超平面对应的模型

f(x)=wTx+bf(x)=w^Tx+b

上式本身是一个凸二次规划问题,能直接求解,但可以有更高效的办法。

该问题的拉格朗日函数是

L(w,b,α)=w22+1=1mαi(1yi(wTx+b))L(w, b, \alpha) = \frac{||w||^2}{2} + \sum_{1=1}^m \alpha_i(1-y_i(w^Tx + b))

其中α=(α1;α2;...;αm)\alpha=(\alpha_1;\alpha_2;...;\alpha_m),令 L 对 w 和 b 求偏导并等于0,得

w=i=1mαiyixiw = \sum_{i=1}^m \alpha_i y_i x_i

0=i=1mαiyi0 = \sum_{i=1}^m \alpha_i y_i

代入上式,对偶问题是

maxαi=1mαi12i=1mj=1mαiαjyiyjxiTxj1max_{\alpha} \sum_{i=1}^m \alpha_i - \frac{1}{2}\sum_{i=1}^m \sum_{j=1}^m \alpha_i \alpha_j y_i y_j x_i^Tx_j \quad\quad 公式(1)

s.t.i=1mαiyi=0,αi01s.t. \quad \sum_{i=1}^m \alpha_i y_i =0 , \alpha_i \ge 0 \quad\quad 公式(1)

解出 α\alpha 后,求出 w 和 b 即可得到模型

f(x)=wTx+b=1=1mαiyixiTx+bf(x)=w^Tx + b = \sum_{1=1}^m \alpha_i y_i x_i^T x + b

上述过程需要满足KKT条件

αi02 \alpha_i \ge 0 \quad\quad 公式(2)

yif(xi)102y_i f(x_i)-1 \ge 0 \quad\quad 公式(2)

αi(yif(xi)1)=02\alpha_i(y_if(x_i)-1)=0 \quad\quad 公式(2)

那么如何求解对偶问题呢,其实从对偶问题的公式(1)看,这是一个二次规划问题,可以使用SMO算法求解。

SMO算法

SMO算法的基本思路是先固定 αi\alpha_i 之外的所有参数,然后求 αi\alpha_i 上的极值。由于存在约束 i=1mαiyi=0\sum_{i=1}^m \alpha_i y_i=0 ,若固定 αi\alpha_i 之外的其他变量,则 αi\alpha_i 可由其他变量导出。于是,SMO每次选择两个变量 αi\alpha_iαj\alpha_j ,并固定其他参数。这样参数初始化后,SMO不断执行如下两个步骤直至收敛:

  1. 选取一对需更新的变量 αi\alpha_iαj\alpha_j
  2. 固定 αi\alpha_iαj\alpha_j 以外的参数,求解公式(1)获得更新后的 αi\alpha_iαj\alpha_j

注意到只需要选取的 αi\alpha_iαj\alpha_j 中有一个不满足KKT条件公式(2),目标函数就会在迭代后增大。直观来看KKT条件违背的程度越大,变量更新后可能导致的目标函数值增幅越大。于是SMO先取违背KKT条件程度最大的变量,第二个变量应选择一个使目标函数值增长最快的变量,但由于比较各变量所对应的目标函数值增幅的复杂度过高,SMO采用了一个启发式:使选取的两变量所对应样本之间的间隔最大(这样的两个变量有很大差别,与对两个相似变量进行对比,对它们进行更新会带给目标函数值更大的变化)。

SMO算法之所以高效,恰由于在固定其他参数后,仅优化两个参数的过程能做到非常高效。仅考虑 αi\alpha_iαj\alpha_j 时,公式(1)中的约束可以重写为

αiyi+αjyj=c,αi0,αj0\alpha_i y_i + \alpha_j y_j=c, \quad \alpha_i \ge 0,\alpha_j \ge 0

其中

c=ki,jαkykc=- \sum_{k \ne i,j} \alpha_k y_k

是使i=1mαiyi=0\sum_{i=1}^m \alpha_i y_i=0 成立的常数,用

αiyi+αjyj=c\alpha_i y_i+\alpha_j y_j=c

消去公式(1)中的变量 αj\alpha_j ,则得到一个关于 αi\alpha_i 的单变量二次规划问题,仅有的约束是 αj0\alpha_j \ge 0 ,这样的二次规划问题有闭式解,于是不必调用数值优化算法即可高效的计算出更新后的 αi\alpha_iαj\alpha_j

bb 确定时,注意到对任意的支持向量(xs,ys)(x_s, y_s) 都有 ysf(xs=1)y_sf(x_s=1) ,即

ys(iSαiyixiTxs+b)=1y_s(\sum_{i \in S} \alpha_i y_i x_i^T x_s +b)=1

其中 S=iαi>0,i=1,2,..mS={i|\alpha_i \gt 0, i=1,2,..m} 是所有支持向量的下标。理论上可以选取任意支持向量通过求解上式获得 bb ,但现实中通常选择:使用所有支持向量求解的平均值。

b=1S(1ysiSαiyixiTxs)b=\frac{1}{|S|}\sum(\frac{1}{y_s} - \sum_{i \in S} \alpha_i y_i x_i^T x_s)

但现实中通常选择:使用所有支持向量求解的平均值。

b=1S(1ysiSαiyixiTxs)b=\frac{1}{|S|}\sum(\frac{1}{y_s} - \sum_{i \in S} \alpha_i y_i x_i^T x_s)

参考

周志华《机器学习》
https://www.cnblogs.com/pinard/p/6111471.html

相关文章:

  • 2021-12-02
  • 2021-04-29
  • 2021-11-29
猜你喜欢
  • 2021-10-15
  • 2021-05-30
相关资源
相似解决方案