CenterNet是基于anchor-free的一阶段检测算法
CenterNet2是CenterNet作者基于两阶段的改进

CenterNet(Object as point笔记添加[2022年4月14号])

以下笔记基于mmdetection代码库

  1. CenterNet网络结构笔记
    CenterNet和CenterNet2笔记
  2. CenterNet的Centernet_head.py中的decode部分
    CenterNet和CenterNet2笔记

centernet的paper
centernet的code
centernet2的paper
centernet2的code

centernet的实现思路:
centernet的预测结果会将输入进来的图片划分成不同的区域,每个
区域都会有一个特征点,centernet网络的预测结果就会判断这个特征
点是否有对应的物体,以及物体的种类和置信度,同时还会对特征点进行调整获得物体的中心坐标,回归预测获得物体的宽高

centernet的缺点:

centernet如果两个相同的类别的距离比较近那么他的中心点可能只有
一个不太好预测可能会参数误差

参考博客

CenterNet2

框架图

CenterNet和CenterNet2笔记

之前传统的双阶段目标检测(以faster-rcnn为例)中的第一个阶段是使
用SPN网络参数是前景框还是背景框。并没有表明该框是前景还是背景的
可能性-->因为之前的spn网络并没有给这些框打分的功能。但是常见的
一阶段的算法有这个功能。

所以作者的做法是使用常见的一阶段充当two-stage的第一个stage,这样就可以对是属于前景还是背景进行打分--->方便后面进行删选出更少的区域处理给第二stage处理

abstact中的说明

CenterNet和CenterNet2笔记

作者与一阶段,传统两阶段,以及自己方法的比较

CenterNet和CenterNet2笔记

作者这里使用的评估也是一步

CenterNet和CenterNet2笔记

总览

CenterNet和CenterNet2笔记

关于损失函数以及实验部分可以查看论文

相关文章:

  • 2022-12-23
  • 2021-10-13
  • 2022-01-04
  • 2021-06-19
  • 2021-11-19
  • 2021-12-02
  • 2021-09-05
猜你喜欢
  • 2022-12-23
  • 2021-11-13
  • 2021-10-09
  • 2021-05-02
  • 2021-09-14
  • 2021-10-18
  • 2022-01-01
相关资源
相似解决方案