6-1、classification

什么是分类问题:positive/negative

二分类问题、多分类问题

Threshold classifier

线性回归对于分类问题的实用性
逻辑回归对于分类问题的实用性——典型的分类算法
6章 分类问题、逻辑回归算法

6-2、逻辑回归算法的目标函数


6章 分类问题、逻辑回归算法

函数h的含义和目的:给定输入样本,去估计y=1的概率

6-3、逻辑回归算法——决策边界


6章 分类问题、逻辑回归算法

线性决策边界:

6章 分类问题、逻辑回归算法

上图决策边界的属性是由目标函数h的参数theta直接决定的,与训练集无关!!!
(训练集的作用是去修正决策边界,去更好地拟合参数theta,使其决策边界更准确)

非线性决策边界:(多元多次)

6章 分类问题、逻辑回归算法


分析:由线性非线性决策边界可以看出,关键在于参数theta的确定,训练集数据用来拟合参数theta;接下来一讲介绍怎么去利用已知训练集来自动拟合参数theta——即Cost Function

6-4、逻辑回归算法——损失函数


①问题设定:

6章 分类问题、逻辑回归算法

②cost function

6章 分类问题、逻辑回归算法

具体每部分图像:

6章 分类问题、逻辑回归算法

6章 分类问题、逻辑回归算法

分析:定义单训练样本代价函数,与线性回归问题函数不同,关键在于原来的损失函数用于逻辑回归模型中时,是一个非凸函数,无法用凸优化方法去计算,因此采用上述cost

下一讲:对整个训练样本进行cost function定义,简化,并利用梯度下降法去求解

6-5、逻辑回归算法——简化损失函数、以及梯度下降算法


①问题设定

6章 分类问题、逻辑回归算法

最终为:

6章 分类问题、逻辑回归算法

②此时梯度下降算法:

6章 分类问题、逻辑回归算法
分析:对J进行求偏倒后,形式和线性回归中完全一致!!但:两者的目标函数不同,只是形式一致而已。

说明:线性回归中的Feature scaling 技巧,依旧适用于逻辑回归的梯度下降算法!

6-5、逻辑回归算法——先进优化办法


①Look:

6章 分类问题、逻辑回归算法

四个优化算法,视情况而定~ 
后三者可以去自动选择学习率~ 且速度快~ 高级优化

②Example

octave实现(略)


6-7、逻辑回归——多分类问题,one-vs-rest(此前为二分类问题)


6章 分类问题、逻辑回归算法



分析:one-vs-rest本质上是多个而分类问题,分别训练多个分类器,从而得出多个h;
    测试阶段,给定输入样本,经过不同的分类器目标函数h,可得出不同的估计概率,概率大的分类器即为可能属于的类。




相关文章: