Attention:
论文解读的博客原文发布于个人github论文合集 欢迎关注,有想法欢迎一起讨论!私信评论均可。
后面有些语法在CSDN的markdown上不支持,导致显示bug,我就懒得改了,有需求直接访问原博客查看。
| 创建人 | github论文汇总 | 个人博客 | 知乎论文专栏 |
|---|---|---|---|
| ming71 | paperdaily | chaser | 专栏 |
论文发布日期:2017.5 [BMVC]<p/span>
1. Motivation
- SSD的小尺度目标检测效果不好
- 不同特征的相关和利用
不同尺度的特征之间具有相关性,而SSD的多尺度独立预测没有考虑这一关联。
2. Rainbow concatenation
2.1 三种组合方式
2.2 Method
-
双向的信息流动
自顶向下通过转置卷积上采样,自底向上通过池化下采样,在concatenate之前进行BN归一化,避免不同尺度信息出现被覆盖和被淹没。 -
参数共享
巧妙设置拼接的通道数(512, 1024, 512, 256, 256, and 256 channels),使得每个level输出的通道相同均为2816,从而可以使用同一个分类网络来训练(如VGG使用两个3x3卷积,深度相同就可以共享),不同尺度分类网络的参数可以share。share的优势在于:1.降低过拟合风险 2.小数据集或样本不足数据集有优势 3.速度快
关于这个share参数说明一点,一般FPN都是不share的,比如YOLOv3,但是FPN的实验中也做了share参数的情况,发现效果依然很好(作者设置256通道数相同的初衷也是因为传统的图像金字塔中就是share参数的)。而且多尺度检测头上进行参数共享应该是符合MTL原则的,理论上性能不会太差。
3. Experiments
Conclusion
- 提出了一个很好的视角,处理的方式虽然不算细致,但是比较合理,可效果不算特别出彩。
- 多尺度信息在融合前可以进行一个BN归一化,避免不同尺度信息的淹没
- 总结:这篇文章的特征融合思路是目前很多比较主流的方法都或多或少应用过的,就我的目前理解来看,工作也很完备,但是结果而言并不算十分出众。可能是由于融合方式的不合理,或者说这种思路没有触及信息流动的根本敏感点(即使是不同尺度特征图,其上的特征也是有很大冗余的,所以很多看似合理的工作只能是无关痛痒的锦上添花,这一点在FSSD的实验中也有体现)