SVM是非常常用的分类器算法,其能够在二分类问题上有很好的表现,并且具有处理非线性数据的能力。其参数容易调节,但比较容易出现过拟合现象。

SVM原理

SVM最优化问题

SVM 的目标是找到一个由支持向量所确定的超平面,该超平面能够使得各类样本到超平面的距离最远。如图所示:
机器学习笔记(二)SVM原理

在m维空间中,任意超平面可以用以下方程来描述:
wTx+b=0w^{T} x+b=0
其中ww为超平面系数:
w=(w1w2wm) w=\left(\begin{array}{c} w_{1} \\ w_{2} \\ \vdots \\ w_{m} \end{array}\right)
样本xx同样用列向量表示:
x=(x1x2xm) x=\left(\begin{array}{c} x_{1} \\ x_{2} \\ \vdots \\ x_{m} \end{array}\right)
那么样本xx到超平面的距离可以表示为:
wTx+bw\frac{\left|w^{T} x+b\right|}{\|w\|}
其中w=w12+wn2\|w\|=\sqrt{w_{1}^{2}+\ldots w_{n}^{2}}
支持向量到超平面的距离为1,非支持向量的样本到超平面的距离大于1,于是有:
{wTx+b1y=1wTx+b1y=1\left\{\begin{array}{l} w^{T} x+b \geq 1 \quad y=1 \\ w^{T} x+b \leq-1 \quad y=-1 \end{array}\right.
该式可以简化为:
y(wTx+b)1y\left(w^{T} x+b\right) \geq 1
那么支持向量到超平面的距离为:
d=y(wTx+b)wd=\frac{y\left(w^{T} x+b\right)}{\|w\|}
SVM的优化目标是使得该距离最大化,并乘以2方便后续求导,对优化结果没有影响:
max2y(wTx+b)w\max 2 * \frac{y\left(w^{T} x+b\right)}{\|w\|}
由于在支持向量上,y(wTx+b)=1y\left(w^{T} x+b\right)=1,所以上式可以进一步简化为:
max2w\max \frac{2}{\|w\|}
转化为最小化为问题并乘方抵消根号后得到了SVM的最优化问题:
min12w2 s.t. yi(wTxi+b)1\min \frac{1}{2}\|w\|^{2} \text { s.t. } \quad y_{i} \quad\left(w^{T} x_{i}+b\right) \geq 1
在实际训练过程中,样本不会被超平面严格地分为两类,个别样本会越过超平面而被分类错误,为了减小这类样本对SVM的影响,需要增加软间隔。相比于硬间隔的约束条件,增加软间隔后,SVM允许个别样本点出现在间隔带内,如图所示:
机器学习笔记(二)SVM原理

确定软间隔的方式是为每一个样本引入一个松弛变量ξi\xi_{i},此时SVM的目标函数为:
minα12w2+Ci=1Nξis.t yi(wTxi+b)1ξiξi0\begin{array}{c} \min _{\alpha} \frac{1}{2}\|w\|^{2}+C \sum_{i=1}^{N} \xi_{i} \\ \text {s.t } y_{i}\left(w^{T} x_{i}+b\right) \gg 1-\xi_{i} \\ \xi_{i} \geq 0 \end{array}
其中C是惩罚系数,结合拉格朗日函数,KKT条件等得到最优化目标函数为:
minα12i=1Nj=1NαiαjyiyjK(xi,xj)i=1Nαi s.t i=1nyiαi=00αiC\begin{array}{c} \min _{\alpha} \frac{1}{2} \sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j} y_{i} y_{j} K\left(x_{i}, x_{j}\right)-\sum_{i=1}^{N} \alpha_{i} \\ \text { s.t } \sum_{i=1}^{n} y_{i} \alpha_{i}=0 \\ 0 \leq \alpha_{i} \leq C \end{array}

SVM的增量学习

由于在实际过程中,故障诊断数据集往往是不充足的,而使用全部历史数据和新数据进行模型的重新训练需耗费大量时间,不利于诊断模型的实际应用。基于支持向量机的增量学习方法具有在学习过程中的不断加强认识,不断扩充知识库以及不断逐步学习的能力。
基于支持向量机的增量学习方法首先将按照传统支持向量机的步骤学习历史数据集并保存决策超平面与支持向量。仅保存支持向量可以使得后续学习步骤节约大量的存储空间与计算资源。当该方法学习后续新数据集时,会将旧数据集的支持向量与新数据集共同组成训练集并实现模型知识库更新。
(i) 首先使用支持向量机学习历史数据集 ,并获得决策超平面与所有支持向量,对于历史数据集SS的最优化目标函数为:
minα12i=1Nj=1NαiαjyiyjK(xi,xj)i=1Nαi s.t i=1nyiαi=00αiC\begin{array}{c} \min _{\alpha} \frac{1}{2} \sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j} y_{i} y_{j} K\left(x_{i}, x_{j}\right)-\sum_{i=1}^{N} \alpha_{i} \\ \text { s.t } \sum_{i=1}^{n} y_{i} \alpha_{i}=0 \\ 0 \leq \alpha_{i} \leq C \end{array}
(ii) 将旧数据集的支持向量与新数据集II共同组成训练集并完成支持向量机的更新。该算法的目标函数为:
minw,b,ξ12w2+C(tIξi+LiSξi)s.t yi(wTxi+b)1ξiξi>0\begin{array}{c} \min _{w, b, \xi} \frac{1}{2}\|w\|^{2}+C\left(\sum_{t \in I} \xi_{i}+L \sum_{i \in S} \xi_{i}\right) \\ \text {s.t } y_{i}\left(w^{T} x_{i}+b\right) \geq 1-\xi_{i} \\ \xi_{i}>0 \end{array}
其中II是训练集中属于新数据集中的部分, SS是训练集中属于旧数据集的支持向量的部分。 LL是使得旧数据集的支持向量在训练过程中权重更大的常数。使用LL的原因是旧数据集仅保留了支持向量数据,相对于新数据存在严重的数据不平衡,所以需要对旧数据集的支持向量采用更大的惩罚系数,保证最终的超平面不会偏向新数据集。L一般取如下值:
L=NSVSL=\frac{N^{\prime}}{S V_{S}}
其中NN^{\prime}是旧数据集的样本数量,SVSS V_{S}是支持向量数量。最优化目标函数为:
minαi=1Nj=1NαiαjyiyjK(xi,xj)i=1Nαi s.t i=1Nαiyi=0αi0{CL=αi+ui,(is)C=αi+ui,(iI)\begin{array}{l} \min _{\alpha} \sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j} y_{i} y_{j} K\left(x_{i}, x_{j}\right)-\sum_{i=1}^{N} \alpha_{i} \\ \text { s.t } \sum_{i=1}^{N} \alpha_{i} y_{i}=0 \\ \quad \alpha_{i} \geq 0 \\ \quad\left\{\begin{array}{l} C L=\alpha_{i}+u_{i},(i \in s) \\ C=\alpha_{i}+u_{i},(i \in I) \end{array}\right. \end{array}
其中 是对应约束条件 的拉格朗日算子。
(iii) 保存求得的支持向量与决策平面,对于每一个新数据集,重复步骤(ii),完成模型更新。
基于SVM的增量学习技术路线如图所示
机器学习笔记(二)SVM原理

SVM的参数

在使用过程中一般都是使用RBF核,其具有最好的性能,能够很好地处理非线性数据。将数据标准化后再由SVM训练能够有效地提高训练效率和性能。
在实验中有特点的C和Gamma参数能够使得验证集分类成绩达到99.99%,交叉验证效果表现良好,但是在未经过训练的测试集上效果表现很差。
降低C和Gamma能够有效降低模型的过拟合问题

代码实现

sklearn封装实现:
https://github.com/beiluo-horizon/Machine-Learning-Model/blob/master/SVM_Method.py
libsvm封装实现:
没有实现自动寻优的函数
https://github.com/beiluo-horizon/Machine-Learning-Model/blob/master/libsvm.py

参考

https://zhuanlan.zhihu.com/p/77750026?utm_source=wechat_session
https://zhuanlan.zhihu.com/p/31886934

相关文章: