转:http://webdancer.is-programmer.com/posts/35983

随机梯度下降算法的基本思想,在前面已经说过了。在应用梯度下降的时候有几个要注意的点,再重新记录一下。

1.收敛

我们在应用梯度下降的时候,一定要关注是否收敛。一般来说,η。通过下面的例子看以看到[1]:

应用梯度下降和随机梯度下降时的几个注意点

当学习速率为50时,不收敛;当学习速率为0.01时收敛过慢,所以在训练时候一定要选择恰当的参数。

2.随机shuffle

在随机梯度学习算法中,如果训练集中正例和负例都聚集在一块。不进行shuffle可能会造成'wavy'现象[2],如下图所示:

应用梯度下降和随机梯度下降时的几个注意点

[引用]:

[1]自己实现的logistic regression model,然后在上面做的实验,得出的图1。    
https://github.com/seaslee/ML_algorithm.git   

[2]http://openclassroom.stanford.edu/TestFolder/courses/ufldl/exercises/ex1/ex1.html

相关文章:

  • 2021-05-31
  • 2022-12-23
  • 2021-05-09
  • 2021-12-28
  • 2021-09-05
  • 2022-12-23
  • 2021-09-16
猜你喜欢
  • 2022-12-23
  • 2022-02-27
  • 2021-11-12
  • 2022-03-01
  • 2021-05-25
  • 2021-06-25
相关资源
相似解决方案