支撑向量机的损失函数:

数据损失部分:斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

例子:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

L的最小值是0,最大值是无穷。

存在问题:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

也就是,不同权值,得到的评价函数一样,实际上一般参数比较分散比较好,所以要加入涉及参数平均分布的评价指标,如下:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

可以看到有L2、L1等多种规则化权重。

一般使用L2,是参数均匀分布的权重得分更高。

最终的到如下MSV损失函数:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

损失函数=数据损失+正则损失。

Softmax Classifier分类器的损失函数:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

L的最小值是0,最大值是无穷,无穷更容易。

总结:

斯坦福CS231n计算机视觉-线性分类器损失函数与最优化

 

可以看到两种不同的损失评价函数对同一分类得到不同的数值,这主要是因为,MSV主要对分类边界的样本比较敏感,所以只考虑边界的点。而Softmax Classifier分类对内部的点同等的重要,所以损失函数中,被淘汰的点也要计算入损失函数中。

最优化:

这里讲的比较笼统,只讲了梯度下降法,以后补充。

相关文章: