relu不可微为什么可用于深度学习

首先确定relu数学上来讲不可微的,提供伪梯度使其可分,faux gradient是伪梯度,使得在0值不可分;

relu不可微为什么可用于深度学习

这里讲到了本质,反馈神经网络正常工作需要的条件就是每一个点提供一个方向,即导数;0值不可微,本质上来说是因为这个地方可画多条切线,但我们需要的只是一条;由于这出现的0值的概率极低,任意选择一个子梯度就OK了,在0处的次微分集合是【0,1】;即选择其中一个就OK了;一般默认是0;

相关文章:

  • 2021-12-16
  • 2022-12-23
  • 2021-12-20
  • 2021-04-29
  • 2021-10-28
  • 2022-01-16
  • 2021-07-25
  • 2021-11-13
猜你喜欢
  • 2021-07-24
  • 2021-12-09
  • 2021-09-15
  • 2021-07-03
  • 2021-09-26
相关资源
相似解决方案