参考知乎的讨论:https://www.zhihu.com/question/29021768

1、计算简单,反向传播时涉及除法,sigmod求导要比Relu复杂;

2、对于深层网络,sigmod反向传播时,容易出现梯度消失的情况(在sigmod接近饱和区),造成信息丢失;

3、Relu会使一些输出为0,造成了网络的稀疏性,缓解过拟合。

 

droupout:防止过拟合

参考:http://www.cnblogs.com/tornadomeet/p/3258122.html

相关文章:

  • 2021-06-11
  • 2021-10-21
  • 2021-12-06
  • 2021-08-19
  • 2021-10-21
  • 2021-09-10
  • 2021-08-06
  • 2021-12-25
猜你喜欢
  • 2022-02-10
  • 2022-01-03
  • 2021-06-21
  • 2021-09-11
  • 2021-07-27
  • 2021-06-04
  • 2021-09-27
相关资源
相似解决方案