LRN(Local Response Normalization)

作用:将不同卷积核RELU后的feature归一化,平滑处理,能增加泛化能力。
Alexnet提出
公式:
LRN学习笔记
其中i代表第i个卷积核
ax,yi,ix,yRELUnk,α,β,n210e40.75a^{i}_{x,y},表示第i个卷积核在x,y处的RELU后结果 n 表示规范化范围 k,\alpha,\beta,n为超参数,一组取值为2,10e-4,0.75
后来实验发现,LRN层似乎没什么用-_-

相关文章:

  • 2021-12-24
  • 2022-12-23
  • 2021-08-08
  • 2021-09-24
  • 2021-07-22
  • 2021-08-30
  • 2021-08-14
  • 2021-06-11
猜你喜欢
  • 2021-07-25
  • 2021-06-27
  • 2022-01-25
  • 2021-12-22
  • 2021-09-23
  • 2022-01-02
  • 2022-12-23
相关资源
相似解决方案