前言: 回顾下之前所说的线性分类器:
                机器学习(四)监督学习---线性支持向量机SVM
              

1. 线性最优超平面

 
Q1: 但是对于wx+b=0这条直线有多种选择,Which is best?
                机器学习(四)监督学习---线性支持向量机SVM
A1: Find an optimal hyperplane(最优超平面)

       直观上看,就应该去找位于两类样本"正中间"的最优超平面,它除了能将训练数据正确区分开来,也应该对训练样本局部扰动的"容忍性“最好,但是 如何找到最优超平面?

A2: Maximum margin(最大化间隔)

Definition:任意点 x 到超平面的距离可写为:
                                   机器学习(四)监督学习---线性支持向量机SVM
间隔 :让距离超平面最近的这几个训练样本满足式子(6.1):
                            机器学习(四)监督学习---线性支持向量机SVM
此时它们被称为"支持向量",而此时间隔计算如下:(x+x- 是距离超平面最近的点)
机器学习(四)监督学习---线性支持向量机SVM

根据式子(6.1)可知:  yi(wxi+b)1\ y_{i}\cdot (wx_{i}+b)\geq 1


因此将整个问题转化为:(拉格朗日乘子法)
              机器学习(四)监督学习---线性支持向量机SVM
              机器学习(四)监督学习---线性支持向量机SVM

参考之前拉格朗日乘子法:
              机器学习(四)监督学习---线性支持向量机SVM

第一步: 可知,求的即是:
                                          机器学习(四)监督学习---线性支持向量机SVM
第二步: 转化为对偶问题:
                          机器学习(四)监督学习---线性支持向量机SVM

第三步: 由于先求 minw,bL(w,b,α)\min_{w,b}L(w,b,\alpha ),因此对 w、b 求导,得:
              机器学习(四)监督学习---线性支持向量机SVM
机器学习(四)监督学习---线性支持向量机SVM

第四步: 再将 w、b 回代,转化为max问题:
              机器学习(四)监督学习---线性支持向量机SVM

第五步: 除了上面两个式子,根据KKT条件还需要满足一个式子,如下所示:
              机器学习(四)监督学习---线性支持向量机SVM
                            机器学习(四)监督学习---线性支持向量机SVM

解析:
 
※ 根据 αi(yif(xi)1)=0\alpha _{i}(y_{i}f(x_{i})-1)=0 可知:要么 αi=0\alpha _{i}=0,要么 yif(xi)1=0y_{i}f(x_{i})-1=0,即在边界,所以只有边界点αi0\alpha _{i}\neq0

  1. 由于大部分的点都不在边界上,所以大部分 αi = 0
  2. w、b都可以由支持向量求出,w已经求出,而b则是根据边界条件 yi(wTxi+b)=1y_{i}(w^{T}x_{i}+b)=1求得b

第六步: 求解b:
              机器学习(四)监督学习---线性支持向量机SVM

              

2. 广义最优超平面

              机器学习(四)监督学习---线性支持向量机SVM
              机器学习(四)监督学习---线性支持向量机SVM

相关文章: