【ResNeSt】ResNeSt:Split-Attention Networks
代码(有pytorch和mxnet两个版本)
论文(亚马逊团队张航 李沐)

概述


简介

文章很直接,主要是对ResNet这样的基础主干网络去进行结构上的细节设计。本论文之所以要去对ResNet结构进行改动,论文里也说到了:

  • 一是因为ResNet设计之初来说,基本上很大程度上是去考虑对分类的影响的,尽量去让结构对分类结果有利。但是这样子就对其它任务,诸如检测,分割,姿态估计(论文给出的理由是:感受野尺寸的限制以及缺乏在channel层面上的交互
  • 第二就是虽然现阶段NAS去搜索网络结果俨然成为一种设计结构的方向,但是NAS所针对的分类任务表现很好,不过利用这样的结构很难进行好下游任务:检测、分割之类的(理由:NAS网络内部的元结构彼此之间的差异性让他们来做下游任务比较hard),所以作者们就还是来改一改ResNet网络啦。。。

文章主要基于ResNeXtSENetSKNet来进行结构设计。
看到作者有讨论:其实严格来说去比较ResNeSt-50ResNet-50存疑,因为ResNet-50用的是15年得到的准确率,而ResNeSt-50是是有用一些trick来训练的。提出这么个结构的目的可能就是为了说明ResNet的改进版也能跟最新EfficientNet来打一打吧。

初步表现

  • ResNeSt-50ImageNet 224224224*224的数据上达到了81.13%的top-1精度
  • Fast-RCNN使用ResNeSt-50替换ResNet-50在数据集MS-COCO上,mAP从39.25%提升至42.33%
  • 在DeeplabV3使用ResNeSt-50替换ResNet-50在数据集ADE20K上提升mIOU
    【ResNeSt】ResNeSt:Split-Attention Networks

结构


【ResNeSt】ResNeSt:Split-Attention Networks
如上图最右边的结构,就是ResNeSt Block,一共是分KCardinal Groups,之后每个Cardinal Group又分为rSplit来做Split-Attention, 所以一共相当于是G=K*r个组。

这里简单介绍一下SKNet
【ResNeSt】ResNeSt:Split-Attention Networks
这里的结构比论文里的SK-Net block更加清晰,由Z到a, b 部分:FC(Z)得到的输出softmax后前一半为a, 后一半为b。

然后现在再来看论文的Split-Attention部分:

  • 每一个输入就是一个Split,而且Split-Attention都是在一个Cardinal Group中的所有split中进行,过程同SKNet过程一样,只不过在这里是由2个分支变成了radix个分支。其实现的时候主要使用组卷积来实现这样的结构。
    【ResNeSt】ResNeSt:Split-Attention Networks

结果


Training strategy

使用学习策略

  • Large Mini-batch Distributed Training
  • Label Smoothing
  • Auto Augmentation
  • Mixup Training
  • Large Crop Size
  • Regularization

Results

ablation experiments

【ResNeSt】ResNeSt:Split-Attention Networks

Image Classification
  • 在ImageNet上的结果(ResNetD就是加上了Bag of tricks里的tricks)
    【ResNeSt】ResNeSt:Split-Attention Networks

【ResNeSt】ResNeSt:Split-Attention Networks

Transform Learning Results
  • 目标检测(MS-COCO)
    -【ResNeSt】ResNeSt:Split-Attention Networks
  • 实例分割(MS-COCO)
    【ResNeSt】ResNeSt:Split-Attention Networks
  • 语义分割(左ADE20K, 右Citscapes )
    【ResNeSt】ResNeSt:Split-Attention Networks

相关文章:

  • 2021-06-19
  • 2022-01-06
  • 2021-08-25
  • 2021-10-28
  • 2021-09-12
  • 2021-07-02
  • 2021-05-21
猜你喜欢
  • 2021-11-23
  • 2021-10-28
  • 2021-09-09
  • 2021-08-15
  • 2021-08-21
  • 2022-12-23
相关资源
相似解决方案