• 主要解决的问题:分类
  • 线性分类方法:寻找到一个超平面(二维情况下为线)使样本分成两类,并且(两类样本)间隔最大如图1,间隔最大就是求2/||w||最大。虚线上的点叫支撑向量(SV)
  • 非线性分类问题的解决办法:将非线性样本转换为线性样本,通过核函数(kernel trick),如图2
  • 回归问题:区别不大,若输入标签为连续值则做回归,若输入标签为分类值则做分类
  • 训练要注意的参数:
    • kernel:核函数的类型,一般常用的有’rbf’,’linear’,’poly’
    • C:惩罚因子,学术上叫软间隔,表征你有多么重视离群点,C越大越重视,越不想丢掉它们。
    •  gamma: 是’rbf’,’poly’和’sigmoid’的核系数且gamma的值必须大于0。
SVM重点
图1
SVM重点
图2

 总结:线性分类方法和非线性转线性的思路是SVM的核心特点。

相关文章:

  • 2021-10-04
  • 2022-12-23
  • 2021-05-08
  • 2022-12-23
  • 2021-11-03
  • 2021-11-19
  • 2021-09-26
  • 2022-01-24
猜你喜欢
  • 2021-05-14
  • 2021-11-04
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-28
  • 2021-11-29
相关资源
相似解决方案