深入理解BatchNorm

https://www.cnblogs.com/guoyaohua/p/8724433.html

https://www.cnblogs.com/tangweijqxx/p/10678935.html

合bn的原因

在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些层的运算,影响了模型的性能,且占用了更多的内存或者显存空间。目前,很多先进的网络模型(ResNet,MobileNet,Xception,ShuffleNet 等)都使用了BN技术,因此,我们有必要将 BN 层的参数合并到卷积层,来提升模型前向推断的速度。

BN层与卷积层合并的公式推导

深入理解BN、合并conv+BN公式推导

深入理解BN、合并conv+BN公式推导

深入理解BN、合并conv+BN公式推导

 

 

 

相关文章:

  • 2021-09-11
  • 2021-09-19
  • 2021-10-01
  • 2021-08-30
  • 2021-09-09
  • 2021-11-20
猜你喜欢
  • 2022-12-23
  • 2021-12-18
  • 2021-11-15
  • 2021-08-19
  • 2021-07-30
  • 2021-12-16
  • 2022-01-20
相关资源
相似解决方案