xiaojianliu

核对矩阵的维数( Getting your matrix dimensions right

在神经网络的计算过程中,特别需要注意的一点就是确认各个矩阵的维度,一般的规律为:

w的维度是(下一层的结点个数,上一层的结点个数),即:

 

b的维度是(下一层的结点个数,1),即:

a和z的维度是:

dw和w的维度一致,db和b的维度一致。

在向量化实现中w,b的维度不变但是z,a,x的维度发生了变化:

${Z^{\left[ {\rm{l}} \right]}}$可以看成由每个单独的${z^{\left[ {\rm{l}} \right]}}$叠加起来,即:

m为训练集大小,所以${Z^{\left[ {\rm{l}} \right]}}$的维度变成:$^{({n^{[l]}},m)}$

同样:

分类:

技术点:

相关文章:

  • 2021-12-18
  • 2022-01-06
  • 2022-12-23
  • 2022-01-22
  • 2022-12-23
  • 2022-12-23
  • 2021-12-03
  • 2022-01-05
猜你喜欢
  • 2021-08-05
  • 2021-06-12
  • 2021-11-26
  • 2021-11-24
  • 2021-11-08
  • 2022-12-23
相关资源
相似解决方案