-
似然函数:L(θ)=i=1∏mP(yi∣xi;θ)=i=1∏m(hθ(xi))yi(1−hθ(xi))1−y
-
对数似然:l(θ)=logL(θ)=i=1∑m(yiloghθ(xi)+(1−yi)log(1−hθ(xi)))
-
此时应用梯度上升求最大值,引入J(θ)=−m1l(θ)转换为梯度下降任务

-
参数更新:θj:θj−αm1i=1∑m(hθ(xi)−yi)xij
-
多分类的softmax: hθ(xi)=⎣⎢⎢⎢⎢⎢⎢⎡p(yi=1∣xi;θ)p(yi=2∣xi;θ)...p(yi=k∣xi;θ)⎦⎥⎥⎥⎥⎥⎥⎤=∑j=1kejTxi1⎣⎢⎢⎢⎢⎢⎢⎡eθ1Txieθ2Txi...eθkTxi⎦⎥⎥⎥⎥⎥⎥⎤
-
总结:逻辑回归真的很好很好用!