1. 您已经为所有隐藏单元使用tanh**建立了一个网络。 使用np.random.randn(…,…)* 1000将权重初始化为相对较大的值。 会发生什么?

【 】这没关系。只要随机初始化权重,梯度下降不受权重大小的影响。

【 】这将导致tanh的输入也非常大,因此导致梯度也变大。因此,您必须将α设置得非常小以防止发散; 这会减慢学习速度。

【 】这会导致tanh的输入也非常大,导致单位被“高度**”,从而加快了学习速度,而权重必须从小数值开始。

【★】这将导致tanh的输入也很大,因此导致梯度接近于零, 优化算法将因此变得缓慢。
2.第三周--浅层神经网络(测验)
则:
【★】b[1] 的维度是(4, 1)
【★】W[1] 的维度是 (4, 2)
【★】W[2] 的维度是 (1, 4)
【★】b[2] 的维度是 (1, 1)
可参考:
第三周--浅层神经网络(测验)

相关文章:

  • 2021-10-07
  • 2021-06-17
  • 2021-12-13
  • 2021-11-26
猜你喜欢
  • 2021-11-27
  • 2021-06-27
  • 2021-12-07
  • 2021-04-02
  • 2021-10-05
  • 2021-12-15
  • 2021-11-18
相关资源
相似解决方案