SGD
常见的几种梯度下降方法(笔记by李宏毅2020ML)
SGDM:利用之前的梯度跳出可能的局部极小值,类似于物理里的惯性
常见的几种梯度下降方法(笔记by李宏毅2020ML)
Adagrad:小的梯度用一个大的lr,大的梯度用一个小的lr。思考:其实lr一直在减小?只是一个相对之前一步幅度大小?
常见的几种梯度下降方法(笔记by李宏毅2020ML)
RMSProp:解决前面Adagrad的一直增大问题(前期梯度很大的话一下子就停下来了),类似SGDM考虑之前的梯度
常见的几种梯度下降方法(笔记by李宏毅2020ML)
Adam:将SGDM与RMSProp优点结合:综合了一阶和二阶梯度的变化
常见的几种梯度下降方法(笔记by李宏毅2020ML)

相关文章:

  • 2021-06-11
  • 2021-06-10
  • 2021-05-13
  • 2020-12-27
  • 2021-04-11
  • 2021-12-05
  • 2021-11-13
  • 2021-08-04
猜你喜欢
  • 2021-09-27
  • 2021-04-10
  • 2021-08-03
  • 2021-11-29
  • 2021-06-22
  • 2022-12-23
  • 2021-09-02
相关资源
相似解决方案