论文:CBAM: Convolutional Block Attention Module

1. Motivation

受SENet启发,作者在channel attention后面再加上一个spatial attention,既实现了通道注意力机制也实现了空间注意力机制。

2. Structure

  • CBAM
    Paper Reading -- CBAM: Convolutional Block Attention Module
    可以看到,相比SE Block,串行的添加了一个spatial attention,而csSENet是将channel attention和spatial attention做了一个并行。
  • 具体结构
  • Paper Reading -- CBAM: Convolutional Block Attention Module
    作者还做了一个改进,在AvgPool的基础上增加了MaxPool,实验结果表明,两种类型的池化的效果比单一的平均池化效果好。
    Paper Reading -- CBAM: Convolutional Block Attention Module
    CBAM和SE block一样,可以很方便的添加到ResBlock中
    Paper Reading -- CBAM: Convolutional Block Attention Module
    attention玩坏了,那接下来玩啥呢?

相关文章:

  • 2021-10-20
  • 2022-12-23
  • 2021-08-18
  • 2022-12-23
  • 2021-07-25
  • 2021-09-20
  • 2022-12-23
  • 2021-12-02
猜你喜欢
  • 2021-09-11
  • 2021-06-27
  • 2021-12-19
  • 2022-02-02
  • 2021-04-18
相关资源
相似解决方案