一直以来各种机器学习或者说统计学习算法的损失函数都是独立讨论的,在这里对这些作一个汇总,期待能找到之间的联系。

在这里提及的算法有

1、线性回归

2、逻辑回归

3、支持向量机

4、决策树

5、

一、线性回归

机器学习各类损失函数汇总和比较

 

机器学习各类损失函数汇总和比较

 

 

机器学习各类损失函数汇总和比较

 二、逻辑回归

 

机器学习各类损失函数汇总和比较

机器学习各类损失函数汇总和比较

 

 

机器学习各类损失函数汇总和比较

对于二分类问题有

 

机器学习各类损失函数汇总和比较

三、支持向量机

 首先先介绍一下关于点到直线距离的小知识

 

机器学习各类损失函数汇总和比较

如图所示,直线机器学习各类损失函数汇总和比较的方程是机器学习各类损失函数汇总和比较机器学习各类损失函数汇总和比较机器学习各类损失函数汇总和比较过P点的法向量,则点P到直线的距离为

机器学习各类损失函数汇总和比较

在这里如果把(x,y)看成机器学习各类损失函数汇总和比较 ,直线公式为机器学习各类损失函数汇总和比较的话,d的公式的分子可以看成无符号的函数间隔,而分母恰好是机器学习各类损失函数汇总和比较的二范数。即d是几何间隔和空间上的几何距离可以看做一个东西。(我这么理解,不一定正确)

接下来是传统的SVM推导过程

 

机器学习各类损失函数汇总和比较

上述是在线性可分的情况,如若线性不可分,需要加松弛条件,可以对每个样本点机器学习各类损失函数汇总和比较 引进一个松弛变量机器学习各类损失函数汇总和比较,这样约束条件变为

                                                          机器学习各类损失函数汇总和比较

同时,对每个松弛变量机器学习各类损失函数汇总和比较,支付一个代价 机器学习各类损失函数汇总和比较,目标函数由原来的机器学习各类损失函数汇总和比较变成

                                                                       机器学习各类损失函数汇总和比较

这里,机器学习各类损失函数汇总和比较>0称为惩罚参数,一般由应用问题决定, 机器学习各类损失函数汇总和比较值大时对误分类的惩罚增大,机器学习各类损失函数汇总和比较值小时对误分类的惩罚减小。

(我的理解:如果SVM线性可分的话,那么相对于分类超平面来说,损失就是0,因为所有的样本点都被正确分类了,此时优化的机器学习各类损失函数汇总和比较其实就相当于一个正则项,仅仅是为了更好的泛化。而加上松弛变量之后,才有了真正的分类损失)。

 四、决策树

机器学习各类损失函数汇总和比较

 


部分内容引用自

1、https://blog.csdn.net/ajaccio8899/article/details/82924425

2、https://ask.julyedu.com/question/85100

3、https://www.jianshu.com/p/699a13c9a253

相关文章:

  • 2021-12-30
  • 2021-06-10
  • 2022-01-17
  • 2021-08-05
  • 2017-11-30
  • 2021-04-20
猜你喜欢
  • 2021-12-21
  • 2021-07-16
  • 2021-11-01
  • 2022-01-16
  • 2021-08-05
  • 2021-06-04
  • 2022-01-06
相关资源
相似解决方案