论文地址:Autofocus Layer for Semantic Segmentation

 

来自MICCAI2018的一篇分割的论文

 

本文是用了attention模块和parallelising multiple conv with diferenet dilation rates(就是多个平行的不同rate的dila conv)

本文先总结了目前进行语义分割三种方法:

1、多尺度图像金字塔

2、encoder-decoder多个下采样获得语义信息,用skip-conn获得多尺度context,(U-net)

3、用dila conv代替下采样(ASPP)

 

[深度学习从入门到女装]Autofocus Layer for Semantic Segmentation

本文提出的autofocus layer模块如上图所示,F_{l-1}为输入,先对F_{l-1}进行一个soft attention mechanism的模块

[深度学习从入门到女装]Autofocus Layer for Semantic Segmentation

获得K个W*H*D的attention权重[深度学习从入门到女装]Autofocus Layer for Semantic Segmentation

然后对F_{l-1}进行K个不同rate的dila conv,然后进行element-wise multiplication,再进行element-wise sum得到最后的输出

[深度学习从入门到女装]Autofocus Layer for Semantic Segmentation

 

[深度学习从入门到女装]Autofocus Layer for Semantic Segmentation

上图为本文提出的分割网络

相关文章: