本文主要摘自《神经网络和深度学习》一书
梯度下降
对于一个很简单的代价函数:
我们把C称作二次代价函数或者均方误差或者MSE
我们想要找到一系列能让代价尽可能小的权重和偏置。采用梯度下降算法达到这个目的。
若求导是负的则可以使得球体向下滚落
定义
所以
只要满足
我们就用它来更新规则,持续减小C。
v就是系数 w和b。
总结,梯度下降就是不断的计算梯度
这里对每个训练输入x单独计算梯度值
反向传播
反向传播是用来计算上述中梯度的快速算法。
反向传播的整个过程:
本文主要摘自《神经网络和深度学习》一书
对于一个很简单的代价函数:
我们把C称作二次代价函数或者均方误差或者MSE
我们想要找到一系列能让代价尽可能小的权重和偏置。采用梯度下降算法达到这个目的。
若求导是负的则可以使得球体向下滚落
所以
只要满足
我们就用它来更新规则,持续减小C。
v就是系数 w和b。
总结,梯度下降就是不断的计算梯度
这里对每个训练输入x单独计算梯度值
反向传播是用来计算上述中梯度的快速算法。
反向传播的整个过程:
相关文章: