一、逻辑回归二分类

1.1、Hypothesis Representation

机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

与线性回归的区别是将预测函数机器学习算法——逻辑回归(logistics regression)换成了机器学习算法——逻辑回归(logistics regression),即将预测值的范围限制在了0-1之间,以便于二值分类,sigmoid函数如下图:

机器学习算法——逻辑回归(logistics regression)标题:sigmoid函数

其中预测函数机器学习算法——逻辑回归(logistics regression)的实质是给出了输出为1的可能性,例如机器学习算法——逻辑回归(logistics regression)代表输出为1的可能性为70%。

机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

1.2、Decision Boundary

为了处理0-1分类问题,我们可以将hypothesis function 转换为:

机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

即:

机器学习算法——逻辑回归(logistics regression)

可以看出此时的 Decision Boundary便是超平面  机器学习算法——逻辑回归(logistics regression),Decision Boundary的作用便是认为分割为 y = 0 和 y = 1的区域。

例:

机器学习算法——逻辑回归(logistics regression)

此时我们的decision boundary是一条垂直线机器学习算法——逻辑回归(logistics regression),在直线右侧 y = 1,直线左侧 y = 0。

注意:机器学习算法——逻辑回归(logistics regression)的参数 机器学习算法——逻辑回归(logistics regression)不一定必须为线性的,也可以为非线性的,以拟合非线性的情况,如圆:(e.g.机器学习算法——逻辑回归(logistics regression)

1.3、Cost Function

模型:

机器学习算法——逻辑回归(logistics regression)

说明:逻辑回归的cost function不能写成线性回归那样,由于 机器学习算法——逻辑回归(logistics regression) ,是非线性的,会使得机器学习算法——逻辑回归(logistics regression)存在波动波动,使得cost最小化时,有多个局部最优解,即不是(convex function)凸函数,不能得到最优的参数 机器学习算法——逻辑回归(logistics regression)

如图:

机器学习算法——逻辑回归(logistics regression)

设计logistic Cost Function

机器学习算法——逻辑回归(logistics regression)

当 y=1时,得机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

当 y = 0 时,

机器学习算法——逻辑回归(logistics regression)

机器学习算法——逻辑回归(logistics regression)

 使用这个方法可以保证cost function是凸函数

1.3.1、Simplified Cost Function and Gradient Descent

将y=0和y=1合并在一起,结果如下:

机器学习算法——逻辑回归(logistics regression)

完整的 m 个样本的cost为:

机器学习算法——逻辑回归(logistics regression)

向量化:

机器学习算法——逻辑回归(logistics regression)

1.4、Gradient Descent

由:

机器学习算法——逻辑回归(logistics regression)

 得:

机器学习算法——逻辑回归(logistics regression)

向量化:

机器学习算法——逻辑回归(logistics regression)

二、多分类问题(one-vs-all)

2.1、模型

此时标签有多个,有prediction function

机器学习算法——逻辑回归(logistics regression)

对于多分类问题,我们通常先选定一类,然后将其它的类均归为第二类,将多分类问题转化为二分类问题。然后循环所有类,然后将最高的机器学习算法——逻辑回归(logistics regression)作为多分类的预测值。

例:有三个classes

机器学习算法——逻辑回归(logistics regression)

2.2、过拟合

解决办法:

1) Reduce the number of features:

  • Manually select which features to keep.
  • Use a model selection algorithm (studied later in the course).

2) Regularization

  • Keep all the features, but reduce the magnitude of parameters \theta_jθj​.
  • Regularization works well when we have a lot of slightly useful features.

2.2.1、正则化(Regularization)

线性回归:

正则化后的cost function:

机器学习算法——逻辑回归(logistics regression)

 其中λ是个超参数,需要手动调节

正则化后的Gradient Descent:

机器学习算法——逻辑回归(logistics regression)

其中机器学习算法——逻辑回归(logistics regression) 正则化项。

逻辑回归:

正则化后的cost function:

机器学习算法——逻辑回归(logistics regression)机器学习算法——逻辑回归(logistics regression)机器学习算法——逻辑回归(logistics regression)

 其中机器学习算法——逻辑回归(logistics regression)  即为正则化项

 

参考:吴恩达老师:机器学习

 

相关文章:

  • 2021-09-07
  • 2021-10-19
  • 2021-12-15
  • 2021-09-07
  • 2021-08-21
  • 2021-11-29
  • 2021-12-20
  • 2021-10-19
猜你喜欢
  • 2021-10-16
  • 2021-10-15
  • 2021-10-15
  • 2021-09-07
  • 2021-10-15
  • 2021-10-15
  • 2021-09-17
  • 2021-10-09
相关资源
相似解决方案