ResNeSt中的ResNest Block(split-attention blocks)

       从图中很明显可以看出 ResNeSt 是 SENet-block、SKNet-block 和 ResNeXt 的集成。首先和 ResNeXt 一样,先将输入划分为K份,每一个都记作 Cardinal X。然后将每个 Cardinal 继续拆分为 Split Y,所以总共就有 G=XY 个分支(可以想象成一棵树)。Split Y 是由若干卷积组成,用于特征的提取,同一个 Cardinal 里的 Split 通过同一个 Split Attention 模块进行输出。

       Split Attention 模块如下图所示,其实就相当于 SENet-block ,一个通道注意力机制,对通道赋予不同的权重。

                                                            ResNeSt中的ResNest Block(split-attention blocks)

        最后再加一个 SKNet-block 。将每个 Cardinal 模块输出的特征进行拼接之后,加一个 1x1 卷积进行处理,将 1x1 卷积的输出结果与输入特征进行相加,就是完整的 ResNeSt block 的操作了。而将 ResNeSt block 进行堆叠,就形成了 ResNeSt。

 

相关文章:

  • 2021-08-21
  • 2022-12-23
  • 2021-06-23
  • 2021-08-25
  • 2022-01-11
  • 2022-01-05
  • 2021-07-18
  • 2021-12-24
猜你喜欢
  • 2021-10-28
  • 2021-09-09
  • 2021-06-19
  • 2022-01-06
  • 2021-09-12
  • 2021-08-15
相关资源
相似解决方案