当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。

方法1:

fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;

方法二:

Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);

方法三:

s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51

(m是输入层的个数,n是输出层的个数)。

作者:hello风一样的男子
链接:https://www.jianshu.com/p/2022016b52b3
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-05-29
  • 2022-02-02
  • 2022-02-01
  • 2021-06-27
  • 2022-12-23
猜你喜欢
  • 2021-11-20
  • 2022-12-23
  • 2022-12-23
  • 2021-07-31
  • 2022-12-23
  • 2022-12-23
  • 2022-01-02
相关资源
相似解决方案