通过损失函数更新参数。

推荐视频

我们希望预测结果的误差越小越好。

我们可以调节的有W,B,上一层神经元对应的活跃度。

反向传播:根据结果调节W,B。

反向传播:视频及笔记

沿当前w的某个参数做调节,使得整个误差减小的效率最高。

越活跃的神经元,越应该调节它的权重,调节的程度比较大。

反向传播:视频及笔记

我们根据下一层的每个神经元对上一层的神经元进行调节,把他们加和,得到下一层所有神经元对上一层神经元的整体调节效果。

这个方式就是梯度下降法,下降的方式。下降的会最快。

上述的调节只是对一个单个的训练样本的:对每个训练样本进行的训练结果求平均,

反向传播:视频及笔记

但是每一次的训练样本过多的话,就会造成计算上的负担。

因此,分批。

相关文章:

  • 2021-06-20
  • 2022-12-23
  • 2022-12-23
  • 2021-11-25
  • 2021-12-24
  • 2021-10-13
  • 2021-06-27
  • 2021-10-26
猜你喜欢
  • 2022-12-23
  • 2021-10-22
  • 2021-07-22
  • 2021-08-14
  • 2021-12-05
  • 2021-12-28
  • 2021-11-13
相关资源
相似解决方案