Vanishing/Exploring gradients 梯度消失/爆炸


Deep learning II - I Practical aspects of deep learning - Vanishing/Exploring gradients 梯度消失/爆炸
如图所示,由于深度神经网络深度较大,当每一层的w都小于1或者都大于1时,最终的输出值会成指数级较小或上升,造成梯度消失或者爆炸,从而使得梯度下降变得困难
Deep learning II - I Practical aspects of deep learning - Vanishing/Exploring gradients 梯度消失/爆炸
1. 为了不让z太大,当n越大时,w的值应该越小
2. 针对ReLU,初始化w[l]=np.random.randn(shape)np.sqrt(2n[l1])
3. 针对tanh,初始化w[l]=np.random.randn(shape)np.sqrt(1n[l1]),方法叫做Xavier initialization.
4. 还有些小众一点的,如w[l]=np.random.randn(shape)np.sqrt(2n[l1]+n[l])

通过以上方法,并不能完全解决梯度消失/爆炸问题,但是可以减缓影像,加速训练

相关文章: