原文地址Dual Attention Network for Scene Segmentation

概述

多尺度上下文融合的问题:
虽然上下文融合有助于捕获不同比例的对象,但它无法利用全局视图中对象或内容之间的关系,这对于场景分割也是必不可少的。
贡献:

  1. 提出了一种具有自我关注机制的新型双注意网络(DANet),以增强场景分割的特征表示的判别能力。
  2. 议使用位置注意模块来学习特征的空间相互依赖性,并设计通道注意模块来模拟通道相互依赖性。它通过在本地特征上建模丰富的上下文依赖关系,显着改善了分割结果。
  3. 在三个流行的基准测试中获得了最新的最新结果,包括Cityscapes数据集[5],PASCAL Context数据集[14]和COCO Stuff数据集[2]。

方法

双重注意网络结构图如下所示:
文章阅读:Dual Attention Network for Scene Segmentation

  • 文章采用预扩展的残余网络,deeplab v2作为主干,删除了下采样操作并在最后两个ResNet块中使用了扩散卷积,从而将最终特征映射大小的大小扩大到输入图像的1/8。
  • 来自扩张的残余网络的特征将被馈送到两个并行的注意模块中。
  • 对上面的乘法结果矩阵和原始特征执行逐元素和运算,以获得反映长程上下文的最终表示。同时,信道维度中的远程上下文信息由信道关注模块捕获。
  • 我聚合来自两个关注模块的输出,以获得更好的像素级预测的特征表示。

位置注意模块和通道注意模块的详细信息如(A)和(B)所示:
文章阅读:Dual Attention Network for Scene Segmentation

相关文章:

  • 2021-12-02
  • 2021-05-16
  • 2021-12-02
  • 2021-04-08
  • 2021-07-26
  • 2021-07-05
  • 2022-01-21
  • 2021-10-14
猜你喜欢
  • 2021-07-25
  • 2021-07-18
  • 2021-09-17
  • 2021-08-14
  • 2021-08-17
  • 2021-11-04
相关资源
相似解决方案