台大李宏毅Machine Learning 2017Fall学习笔记 (6)Logistic Regression
做Logistic Regression回归,需要3步。
Step 1: Function Set
在此问题中选择
这里对Logistic Regression和Linear Regression的输出值做个对比,主要是输出值的范围不同。
Step 2: Goodness of a Function
如果训练数据集的格式如下所示:
假设训练集数据是由
现在的目标是求出使
为了便于处理,对 上式进行等价处理:
注意:上图中采用交叉熵函数作为损失函数。
关于前两步对Logistic Regression和Linear Regression做对比。
至于为何不用
Step 3: Find the best function
这一步的工作就是要利用梯度下降法,不断迭代,找到符合要求的解。PPT中步骤详细,直接贴上来。
顺便观察下迭代的公式,可以发现逻辑回归和线性回归的迭代公式是相同的。
好,模型的求解讲解完毕。再说一说为何不用
如果采用了
下图形象地展示了这一点。
判别式模型与生成式模型(Discriminative v.s. Generative)
这一小节讲述的
两种求解模型的方法各有优劣,在此小节的问题中判别式模型的准确率更高。
那生成式模型的优势见下图。
之前讨论的都是二分类问题,如果遇到多分类问题,以三分类为例,则需要把
举例如下:
有时会出现无法分类的情况,如下图。
此时需要进行特征变换,但是要找到一个很好的特征变换往往并不容易。
这时候咱们把几个逻辑回归组合起来,其效果相当于特征变换的作用。再加一个逻辑回归当作分类器。整体结构图如下所示。
首先进行特征变换,结果如下。
基于特征变换的结果进行分类,如下图。
注:上图右下中的
把多个