6-1、classification
什么是分类问题:positive/negative
二分类问题、多分类问题
Threshold classifier
线性回归对于分类问题的实用性
逻辑回归对于分类问题的实用性——典型的分类算法
6-2、逻辑回归算法的目标函数
函数h的含义和目的:给定输入样本,去估计y=1的概率;
6-3、逻辑回归算法——决策边界
线性决策边界:
上图决策边界的属性是由目标函数h的参数theta直接决定的,与训练集无关!!!
(训练集的作用是去修正决策边界,去更好地拟合参数theta,使其决策边界更准确)
非线性决策边界:(多元多次)
分析:由线性非线性决策边界可以看出,关键在于参数theta的确定,训练集数据用来拟合参数theta;接下来一讲介绍怎么去利用已知训练集来自动拟合参数theta——即Cost Function
6-4、逻辑回归算法——损失函数
①问题设定:
②cost function
具体每部分图像:
分析:定义单训练样本代价函数,与线性回归问题函数不同,关键在于原来的损失函数用于逻辑回归模型中时,是一个非凸函数,无法用凸优化方法去计算,因此采用上述cost
下一讲:对整个训练样本进行cost function定义,简化,并利用梯度下降法去求解
6-5、逻辑回归算法——简化损失函数、以及梯度下降算法
①问题设定
最终为:
②此时梯度下降算法:
分析:对J进行求偏倒后,形式和线性回归中完全一致!!但:两者的目标函数不同,只是形式一致而已。
说明:线性回归中的Feature scaling 技巧,依旧适用于逻辑回归的梯度下降算法!
6-5、逻辑回归算法——先进优化办法
①Look:
四个优化算法,视情况而定~
后三者可以去自动选择学习率~ 且速度快~ 高级优化
②Example
octave实现(略)
6-7、逻辑回归——多分类问题,one-vs-rest(此前为二分类问题)
分析:one-vs-rest本质上是多个而分类问题,分别训练多个分类器,从而得出多个h;
测试阶段,给定输入样本,经过不同的分类器目标函数h,可得出不同的估计概率,概率大的分类器即为可能属于的类。