yolo v1发表在CVPR2016上,是经典的one-stage检测算法。在没接触yolo之前,我曾经就和师兄争论过,是否能把bounding box的坐标和宽高像分类网络那样预测出来,Yolo v1的出现证明了我的猜测是对的。


论文标题: 《You Only Look Once: Unified, Real-Time Object Detection》
论文地址:https://arxiv.org/pdf/1506.02640.pdf


v1是yolo系列的开山之作,以简洁的网络结构,简单的复现过程(作者给出详细教程)而受到CVer们的追捧。
yolo_v1奠定了yolo系列算法“分而治之”的基调,在yolo_v1上,输入图片被划分为7X7的网格,如下图所示:
YOLO系列之yolo v1
如上图所示,输入图片被划分为7x7个单元格,每个单元格独立作检测。
在这里很容易被误导:每个网格单元的视野有限而且很可能只有局部特征,这样就很难理解yolo为何能检测比grid_cell大很多的物体。其实,yolo的做法并不是把每个单独的网格作为输入feed到模型,在inference的过程中,网格只是物体中心点位置的划分之用,并不是对图片进行切片,不会让网格脱离整体的关系。
可以通过yolo_v1的structure来进一步理解,相比faster r-cnn那种two-stage复杂的网络结构而言,yolo_v1的网络结构显得亲民得多。基本思想是这样:预测框的位置、大小和物体分类都通过CNN暴力predict出来。
YOLO系列之yolo v1
上面是结构图yolo_v1结构图,通过结构图可以轻易知道前向传播的计算过程,是很便于读者理解的。v1的输出是一个7x7x30的张量,7x7表示把输入图片划分位7x7的网格,每一个小单元的另一个维度等于30。30=(2*5+20)。代表能预测2个框的5个参数(x,y,w,h,score)和20个种类

SxSx(B5+C) = 7x7x(2*5 + 20)
SxS表示网格数量,B表示每个网格生成框的个数,C表示能检测识别的种类。

可以看出输出张量的深度影响yolo_v1能检测目标的种类。v1的输出深度只有30,意味着每个单元格只能预测两个框(而且只认识20类物体),这对于密集型目标检测和小物体检测都不能很好适用


训练

正如前面所说的,yolo是端到端训练,对于预测框的位置、size、种类、置信度(score)等信息的预测都通过一个损失函数来训练。
loss = λcoordi=0S2j=0Blijobj[(xixi^)2+(yiyi^)2]+
λcoordi=0S2j=0Blijobj[(wiwi^)2+(hihi^)2]+
i=0S2j=0Blijobj(cici^)2+
λnoobji=0S2j=0Blijnoobj(cici^)2+
i=0S2cclasses(pi(c)pi^(c))2

S2表示网格数,在这里是7x7。B表示每个单元格预测框的个数,这里是2。
第一行就总方误差( sum-squared error)来当作位置预测的损失函数,第二行用根号总方误差来当作宽度和高度的损失函数。第三行和第四行对置信度confidence也用SSE作为损失函数。第五行用SSE作类别概率的损失函数。最后将几个损失函数加到一起,当作yolo v1的损失函数。
lijobj取值为0和1,即单元格内是否有目标。
λcoord = 5
λnoobj = 0.5
从上面公式也可以看得出来,yolo_v1就是选用最简单的SSE作为损失函数(PS:还没交叉熵复杂)。不过,能解决问题是王道。


总结

v1对于整个yolo系列的价值,即v2/v3还保留的特性,可以总结为3点:
1. leaky ReLU,相比普通ReLU,leaky并不会让负数直接为0,而是乘以一个很小的系数(恒定),保留负数输出,但衰减负数输出;公式如下:

y={x,x>00.1x,otherwise

2. 分而治之,用网格来划分图片区域,每块区域独立检测目标;
3. 端到端训练。损失函数的反向传播可以贯穿整个网络,这也是one-stage检测算法的优势。

相关文章:

  • 2021-06-11
  • 2021-07-20
  • 2021-09-15
  • 2022-12-23
  • 2021-08-23
猜你喜欢
  • 2021-10-03
  • 2021-05-15
  • 2022-01-23
  • 2018-08-07
  • 2021-10-29
  • 2021-10-07
相关资源
相似解决方案