通过损失函数更新参数。
我们希望预测结果的误差越小越好。
我们可以调节的有W,B,上一层神经元对应的活跃度。
反向传播:根据结果调节W,B。

沿当前w的某个参数做调节,使得整个误差减小的效率最高。
越活跃的神经元,越应该调节它的权重,调节的程度比较大。

我们根据下一层的每个神经元对上一层的神经元进行调节,把他们加和,得到下一层所有神经元对上一层神经元的整体调节效果。
这个方式就是梯度下降法,下降的方式。下降的会最快。
上述的调节只是对一个单个的训练样本的:对每个训练样本进行的训练结果求平均,

但是每一次的训练样本过多的话,就会造成计算上的负担。
因此,分批。
相关文章:
-
2021-06-20
-
2022-12-23
-
2022-12-23
-
2021-11-25
-
2021-12-24
-
2021-10-13
-
2021-06-27
-
2021-10-26
猜你喜欢
-
2022-12-23
-
2021-10-22
-
2021-07-22
-
2021-08-14
-
2021-12-05
-
2021-12-28
-
2021-11-13
相关资源
-
下载
2021-06-05
-
下载
2021-06-05
-
下载
2023-01-30