前段时间,有同学问我在用神经网络模拟一个线性回归问题时,在SGD中的step()的源码中为何没有出现梯度和除以批量大小的式子,其实这个“除以批量大小”已经被backward()函数计算在内了,step()函数中只需要做学习率与梯度相乘,然后和原梯度相减就行了。至于原因,我将从理论到代码去分析,因为式子太多,打字不方便,就直接写纸上了:

Pytorch入门之自动梯度模块隐藏梯度和除以批量大小

 

相关文章:

  • 2021-09-16
  • 2021-04-08
  • 2022-12-23
  • 2021-05-09
  • 2022-01-07
  • 2022-01-17
猜你喜欢
  • 2021-10-27
  • 2022-12-23
  • 2022-12-23
  • 2021-05-22
  • 2022-12-23
  • 2022-02-27
相关资源
相似解决方案