Alexnet中的LRN

LRN全称为Local Response Normalization,即局部响应归一化层,LRN函数类似Dropout,是一种防止过拟合的方法。这个函数很少使用,基本上被类似Dropout这样的方法取代,见最早的出处AlexNet论文对它的定义, 《ImageNet Classification with Deep ConvolutionalNeural Networks》

Alexnet中的LRN

Alexnet中的LRN是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。

Alexnet中的LRN是输入值,是**函数Relu的输出值。

Alexnet中的LRN都是自定义系数。

N是总的通道数。

累加多少个通道的像素值取决于自定义系数 n/2 。

比如要计算红框位置的Alexnet中的LRN,累加效果如图所示:

Alexnet中的LRN

相关文章:

  • 2021-05-27
  • 2021-12-30
  • 2021-11-26
  • 2021-09-23
  • 2021-08-23
  • 2021-11-10
  • 2021-06-05
猜你喜欢
  • 2021-05-11
  • 2022-12-23
  • 2021-12-15
  • 2021-06-06
  • 2021-04-21
  • 2021-07-25
相关资源
相似解决方案