1、多个训练样本的代价函数简化表示

前一篇文章中,我们我们已经知道了单训练样本cost(hθ(x)y)cost(h_{\theta}(x),y)的分段表示,实际上,它还可以写成更紧凑的形式:
cost(hθ(x)y)=ylog(hθ(x))(1y)log(1hθ(x))cost(h_{\theta}(x),y)=-ylog(h_{\theta}(x))-(1-y)log(1 - h_{\theta}(x))
该函数(也叫交叉熵)具有以下性质:
ify==1,   cost(hθ(x)y)=log(hθ(x))ify==0    cost(hθ(x)y)=log(1hθ(x))ify==1,\ \ \ cost(h_{\theta}(x),y)=-log(h_{\theta}(x))\\ ify==0\ \ \ \ cost(h_{\theta}(x),y)=-log(1- h_{\theta}(x))

当训练集的大小为m时,其代价函数J(θ)J(\theta)为:
J(θ)=1mi=1mcost(hθ(x(i))y(i))J(\theta)=\frac{1}{m}\sum_{i=1}^{m}cost(h_{\theta}(x^{(i)}),y^{(i)})
机器学习基础 - [第三章:逻辑回归](4)逻辑回归模型的代价函数简化表示与梯度下降

2、逻辑回归的梯度下降法

逻辑回归的梯度下降公式如下所示:
机器学习基础 - [第三章:逻辑回归](4)逻辑回归模型的代价函数简化表示与梯度下降
参数的更新形式和线性回归基本一样,只是假设函数不同。

相关文章:

  • 2021-12-21
  • 2021-05-28
  • 2021-06-22
  • 2022-12-23
  • 2021-10-18
  • 2022-12-23
  • 2021-04-26
  • 2021-05-22
猜你喜欢
  • 2021-12-15
  • 2021-06-23
  • 2022-12-23
  • 2021-08-25
  • 2021-05-09
  • 2021-04-22
  • 2021-10-23
相关资源
相似解决方案