问题描述:
通俗来说,对于Loss Function的解集,较浅的网络应该是越深的网络的子集合,但实际中却发现网络层数越多反而没有更好的效果,这时就出现了网络退化的问题:

解决问题的思路
从本质上来说,我们在搭建深度网络时并不能很好的确定网络的深度,我们期望在网络会有一个最优层,而在最优层之外则是冗余层,我们期望冗余层能做到输入与输出对应,即恒等映射

解决问题的方法
传统CNN网络与残差网络简化示意图如下,在残差网络中,为了达到恒等映射即网络的输入x和输出f(x)一样的目的,从传统的目标f(x)=x,转换为h(x)=f(x)-x.这样在减去目标一致的主体部分后(类似残差的式子因此得名残差网络),网络的变化输出目标趋进于零,这样网络更加容易训练,变化更明显, 通俗理解为(信号差分放大器,保底思路).
深度残差(ResNet)网络理解

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-08-06
  • 2021-09-23
  • 2021-10-22
  • 2021-08-14
  • 2021-08-02
  • 2021-08-11
猜你喜欢
  • 2021-08-13
  • 2021-08-14
  • 2021-10-22
  • 2019-07-06
  • 2022-12-23
  • 2021-11-28
相关资源
相似解决方案