统计学习方法第六章I

参考资料

LR回归的核心在于引入了新的平滑函数sigmoid函数,这种函数相比于感知机的符号函数sgn函数好处在于可以求导,可以求导意味着可以进行梯度下降。(在感知机中实际上是最小化 yi(wxi+b)y_i(w*x_i+b)

并且相对于感知机算法,只要wx+b>0wx+b>0就判定为1的策略。再sigmoid的函数帮助下,我们可以得到一个相对精确的概率。
【统计学习方法】logistic regression 逻辑斯蒂回归

我们需要假设数据符合这一分布,在得到了分布模型之后,我们可以通过最大似然估计的方法得到模型的相关参数。因为sigmoid是平滑可导的,我们可以对似然函数求导,进行梯度下降寻找参数的最优点。
【统计学习方法】logistic regression 逻辑斯蒂回归

需要注意得到的对数似然函数,N为样本数量。

对似然函数求导可以得到:

L(w)wi=yixixiexp(wxi)1+expwxi)\frac{\partial L(w)}{\partial w_i}={y_i}{x_i}-\frac{x_i\exp(wx_i)}{1 + \exp {w{x_i}})}

对于LR的理解可以看为线性模型wTxw^Tx的结果压缩到了[0, 1]的空间上,具有了概率意义。

对数几率(log odds)

定义对数几率为logit(p)=log(p1p)logit(p) = \log(\frac{p}{1-p})

相关文章:

  • 2021-11-26
  • 2021-04-26
  • 2021-10-30
  • 2021-10-22
  • 2021-04-12
  • 2021-05-05
  • 2021-04-14
  • 2021-05-17
猜你喜欢
  • 2021-04-30
  • 2021-06-22
  • 2021-11-03
  • 2021-07-06
  • 2021-10-10
  • 2022-01-21
相关资源
相似解决方案