李宏毅深度学习_Backpropagation
本文是李宏毅深度学习 (2015)的学习笔记,主要介绍了神经网络Backpropagation算法的推导过程。本文所用到的图示均来自课堂ppt。
原视频地址:李宏毅深度学习 (2015)
Background
为了使用Gradient Descent对网络参数进行训练,我们就要求出Cost Function对每一层参数的梯度,由于本质上与差别不大(可将看作中的一项),因此我们这里仅对进行推导,推导类似。
链式法则
这里使用求导链式法则先将这个问题拆解成两部分,然后分别对每一部分的求导进行计算。
计算链式法则中拆解的两部分
1. 计算
第一部分的求导分为两种情况:
- 。即当权值不是第一层时,导数为。
- 。即权值为第一层时,导数为。
2. 计算
为了描述方便将描述为。此时利用BP的思想,先求出最后一层的,再找出后一层与前一层的关系,以此求出所有的。
同样根据链式求导法则可以得出
其中与Cost Function的选取有关。
的变化会对造成影响进而影响到下一层的,
向量化后得到
总结
至此,我们已经完成了对的推导,并且实现了向量化。推导类似。