本文是Deep Learning 之 最优化方法系列文章的RMSprop方法。主要参考Deep Learning 一书。


以下节选自个人深度学习笔记。

内容整合来源于网络与个人理解。

 

RMSprop

口RMSprop是一种改进的Adagrad,通过引入一个衰减系数ρ,让r每回合都衰减一定比例。

口 这种方法很好的解决了Adagrad过早结束的问题,适合处理非平稳目标,对于RNN效果很好。(注意:为二阶矩!)

【Deep Learning 】深度模型中的优化问题(六)之RMSprop(自适应算法2)

 

【Deep Learning 】深度模型中的优化问题(六)之RMSprop(自适应算法2)


    再看看结合Nesterov动量的RMSProp,直观上理解就是: 
    RMSProp改变了学习率,Nesterov引入动量改变了梯度,从两方面改进更新方式。

【Deep Learning 】深度模型中的优化问题(六)之RMSprop(自适应算法2)

 

 

参考:

Deep Learning 最优化方法之RMSProp

 

相关文章:

  • 2021-05-16
  • 2021-08-27
  • 2021-07-19
  • 2021-05-26
  • 2021-10-11
  • 2021-12-27
  • 2021-07-15
  • 2022-01-23
猜你喜欢
  • 2021-09-23
  • 2022-01-08
  • 2021-04-22
  • 2021-09-05
  • 2021-12-15
  • 2021-06-08
  • 2021-05-14
相关资源
相似解决方案