在机器学习算法的学习过程中,经常会遇到对向量函数的求导问题,阅读一些文章之后,对于机器学习算法中经常用到的这些求导问题做一些说明,方便在不明白的时候可以进行查询。 (一)对标量求导 1)向量对标量求导,结果是个向量事实上就是向量的每一个元素对标量求导。举个例子,对于 ,其中是个标量, 2)矩阵对标量求导,结果是个矩阵事实上也就是矩阵的每一个元素对标量求导。对于矩阵 , (二)对向量求导 1) 标量对向量求导,结果是向量事实上这就是所谓的Gradient,即对于一般标量函数 ,其中 , ,有时候也记为为 . 2) 向量对向量求导,结果是矩阵这个当然也是gradient,当然这准确的说应该叫matrix gradient. 即对于向量值函数 ,其中 , 另外在实际运算中还会出现 ,这个也被叫做是f的Jacobian. 相关文章: 2021-12-26 2021-07-13 2021-11-28 2021-04-02 2021-11-01 2021-10-08 2022-02-17 2021-08-03