原文:https://blog.csdn.net/JNingWei/article/details/79243800 

Introduction
学习率 (learning rate),控制 模型的 学习进度 : 

学习率(learning rate)

lr 即 stride (步长) ,即反向传播算法中的 ηη :

学习率(learning rate)
学习率大小
学习率(learning rate)
学习率设置
在训练过程中,一般根据训练轮数设置动态变化的学习率。

刚开始训练时:学习率以 0.01 ~ 0.001 为宜。
一定轮数过后:逐渐减缓。
接近训练结束:学习速率的衰减应该在100倍以上。
Note: 
如果是 迁移学习 ,由于模型已在原始数据上收敛,此时应设置较小学习率 (≤10−4≤10−4) 在新数据上进行 微调 。

学习率减缓机制
 

学习率(learning rate)

把脉 目标函数损失值 曲线
理想情况下 曲线 应该是 滑梯式下降 [绿线]: 

学习率(learning rate)

曲线 初始时 上扬 [红线]: 
Solution:初始 学习率过大 导致 振荡,应减小学习率,并 从头 开始训练 。
曲线 初始时 强势下降 没多久 归于水平 [紫线]: 
Solution:后期 学习率过大 导致 无法拟合,应减小学习率,并 重新训练 后几轮 。
曲线 全程缓慢 [黄线]: 
Solution:初始 学习率过小 导致 收敛慢,应增大学习率,并 从头 开始训练 。


[1] 解析卷积神经网络—深度学习实践手册 
[2] 调整学习速率以优化神经网络训练 
[3] 如何找到最优学习率


 

相关文章:

  • 2021-05-08
  • 2021-06-17
  • 2021-10-13
  • 2021-09-08
  • 2021-03-31
  • 2021-10-29
  • 2021-09-01
猜你喜欢
  • 2022-01-11
  • 2021-09-05
  • 2021-09-20
相关资源
相似解决方案