1.之前在线型回归中通过假设函数预测的Y值可能远远小于0,或远远小于1,在分类算法模型中不合适。
这时通过logistic函数来使y值在0~1之间。
机器学习(二)Logistic回归和拟合的正则化

机器学习(二)Logistic回归和拟合的正则化
2.logistic函数输出的是在给定的参数x,假设函数h(θ)输出y=1的可能性
机器学习(二)Logistic回归和拟合的正则化
3.决策边界
由logistic函数可知 当θ的转置X>=0 h(θ)>=0.5 suppose y =1
画出 θ的转置
X矩阵 >0 的范围就是决策边界

机器学习(二)Logistic回归和拟合的正则化3.代价函数 是为了找出最适合的一组θ的计量

机器学习(二)Logistic回归和拟合的正则化
①当 y = 0时 代价函数只有后半部分
②当 y = 1时 代价函数只有前半部分
这里就不再详细阐述代价函数了

4.梯度下降 找出最适合的θ
机器学习(二)Logistic回归和拟合的正则化
通过多次同步的更新θ就可以得到最适合的假设函数了。

正则化

机器学习(二)Logistic回归和拟合的正则化
正则化是为了防止过度拟合 如图2
怎样来防止过度拟合呢?在J(θ)代价函数中加惩罚项 同时优化梯度下降函数
可以得出
机器学习(二)Logistic回归和拟合的正则化
机器学习(二)Logistic回归和拟合的正则化
这样就能得到一个很好的拟合的数据模型了

相关文章:

  • 2021-08-08
  • 2022-12-23
  • 2021-11-22
  • 2021-10-22
  • 2022-01-07
  • 2021-12-28
  • 2021-06-20
猜你喜欢
  • 2021-09-28
  • 2021-09-17
  • 2021-05-15
  • 2021-07-13
  • 2021-08-30
  • 2021-11-03
  • 2022-12-23
相关资源
相似解决方案