1、多个训练样本的代价函数简化表示
前一篇文章中,我们我们已经知道了单训练样本cost(hθ(x),y)的分段表示,实际上,它还可以写成更紧凑的形式:
cost(hθ(x),y)=−ylog(hθ(x))−(1−y)log(1−hθ(x))
该函数(也叫交叉熵)具有以下性质:
ify==1, cost(hθ(x),y)=−log(hθ(x))ify==0 cost(hθ(x),y)=−log(1−hθ(x))
当训练集的大小为m时,其代价函数J(θ)为:
J(θ)=m1i=1∑mcost(hθ(x(i)),y(i))
逻辑回归模型的代价函数简化表示与梯度下降 机器学习基础 - [第三章:逻辑回归](4)逻辑回归模型的代价函数简化表示与梯度下降](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THprek15ODFNbVUzTkRZd01tVmpNRGd5TldZMU5EVm1NalZtWkdJNU9UVXhPVEJsTlM1d2JtYz0=)
2、逻辑回归的梯度下降法
逻辑回归的梯度下降公式如下所示:
逻辑回归模型的代价函数简化表示与梯度下降 机器学习基础 - [第三章:逻辑回归](4)逻辑回归模型的代价函数简化表示与梯度下降](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THpBdlpqRXpZbVpqWXpBeE9UQmtOalV5TmpjMVl6Y3lZV1UwTVRKaU9UWXpNemd1Y0c1bg==)
参数的更新形式和线性回归基本一样,只是假设函数不同。