---恢复内容开始---

今天在训练时遇到的问题

把损失函数由 MSE 改成 L1 Loss 的时候 Loss 有了明显的下降

以前一直觉得 MSE 相对来说会更好 ,因为求导的话有标签与结果的差值作为系数,相差越大梯度越大。 L1 Loss 梯度都是一样的。

查了一下,看到了另一种说法:

当预测值与目标值相差很大时, 梯度容易爆炸, 因为梯度里包含了x−t. 所以rgb在Fast RCNN里提出了SmoothL1Loss.

L1 loss 与 MSE

 

当差值太大时, 原先L2梯度里的x−t被替换成了±1, 这样就避免了梯度爆炸, 也就是它更加健壮.


这。。。。应该就是原因吧

---恢复内容结束---

相关文章:

  • 2021-05-06
  • 2021-07-02
  • 2021-09-24
  • 2021-11-06
  • 2021-04-12
  • 2021-10-21
猜你喜欢
  • 2021-03-26
  • 2021-08-28
  • 2021-04-03
  • 2021-04-17
  • 2022-12-23
  • 2021-07-17
  • 2021-10-04
相关资源
相似解决方案