首先我们要明白**函数的作用是:简而言之,增加模型的非线性表达能力。为什么能增加非线性能力,看参考地址。
神经网络的几个常用的**函数及其公式
几大**函数的具体公式如上图。


如上所示,sigmoid只会输出正数,以及它靠近0的输出变化率最大。tanh与sigmoid不同的是,tanh输出可以是负数。Relu是输入只能大于0,如果你输入含有负数,Relu就不合适,如果你的输入是图片格式,Relu就挺常用的。

参考地址:https://zhuanlan.zhihu.com/p/32824193

相关文章:

  • 2021-12-31
  • 2021-11-16
  • 2021-06-07
  • 2021-04-19
  • 2021-09-03
  • 2022-01-13
  • 2021-10-15
  • 2021-09-03
猜你喜欢
  • 2021-07-18
  • 2021-10-21
  • 2021-05-19
  • 2021-10-26
  • 2022-12-23
  • 2021-05-07
相关资源
相似解决方案