最近模式识别课开始学SVM了,这次趁着这个机会把SVM弄明白。这边文章先把老吴机器学习课上的SVM部分总结一下,作为一个初级的入门总结。

1. 优化目标

SVM之所以使用如此广泛,其在学习复杂的非线性方程方面更加强大。
这里我们不用像教课一样上来就介绍什么函数间隔,几何间隔。直接上目标函数吧。
逻辑回归支持向量机
关于SVM初步的理解
逻辑回归的假设函数就是我们所熟悉的sigmoid函数,将假设值与输出值构建为一个损失函数。
关于SVM初步的理解
将逻辑回归优化函数改造成支持向量机:
关于SVM初步的理解
还是一个二分类问题,只不过把损失函数改成了cost1和cost0函数,去掉了1/m也能获得最优θ。比如图中红色字体的例子。
最后说一下关于正则化项,通常在逻辑回归的目标函数中我们想最小化A,然后用一个正则化参数×其他项,使训练样本拟合的更好,一般正则化参数λ比较小,但是在支持向量机中,我们通常使用一个较大的C值×我们的代价A。
关于SVM初步的理解
当我们通过最小化代价函数学校到参数θ时,支持向量机直接用其来预测y的值。

2.大边界的直观理解

3.大边界分类背后的数学

4.核函数

5.使用支持向量机

相关文章: