• maxpooling 的 max 函数关于某变量的偏导也是分段的,关于它就是 1,不关于它就是 0;
  • BP 是反向传播求关于参数的偏导,SGD 则是梯度更新,是优化算法;

1. 一个实例


TensorFlow 学习(八)—— 梯度计算(gradient computation)

relu = tf.nn.relu(tf.matmul(x, W) + b)
C = [...]

[db, dW, dx] = tf.gradient(C, [b, w, x])

相关文章:

  • 2021-12-03
  • 2022-01-16
  • 2021-08-30
  • 2021-11-27
  • 2022-01-18
  • 2021-10-08
  • 2021-11-11
猜你喜欢
  • 2021-09-07
  • 2021-04-04
  • 2022-12-23
  • 2021-07-31
  • 2021-12-03
  • 2021-04-07
  • 2022-12-23
相关资源
相似解决方案