一、为什么要Normalization?

二、常见的Normalization方法(BN、LN、IN、GN)

 

 

 

这节课我们来学习常见的Normalization方法(BN、LN、IN、GN)。

一、为什么要Normalization?

其实这个问题在BN的论文中已经给了答案了,就是因为在深度学习中,出现一个ICS的问题。数据尺度/分布的异常,导致模型训练困难。

 

二、常见的Normalization方法(BN、LN、IN、GN)

10.2 常见的Normalization方法(BN、LN、IN、GN)

这四种Normalization,相同的地方是,都要进行归一化,即加减乘除操作。那他们的不同点在哪里?因为beta和gamma都是超参数,所以不同的地方在于均值和方差的求取方式。

10.2 常见的Normalization方法(BN、LN、IN、GN)

LN : 是在网络层里面找均值和方差。

IN:实例,就是一张图片。主要针对图像生成使用。

GN:分组。

 

1. Layer Normalization

10.2 常见的Normalization方法(BN、LN、IN、GN)

BN不适用于变长的网络,比如RNN。比如右边的图。

 

2. Instance Normalization

10.2 常见的Normalization方法(BN、LN、IN、GN)

 

3. Group Normalization

10.2 常见的Normalization方法(BN、LN、IN、GN)

 

 

 

 

 

 

 

 

 

 

 

 

相关文章:

  • 2021-12-07
  • 2021-12-11
  • 2022-01-01
  • 2022-01-01
  • 2021-08-11
  • 2021-06-28
  • 2021-12-26
  • 2021-09-03
猜你喜欢
  • 2021-11-13
  • 2021-09-23
  • 2022-01-03
  • 2021-04-29
  • 2022-12-23
  • 2021-04-30
  • 2021-07-19
相关资源
相似解决方案