预测特征图的属性
- RGB3通道图像被输入到yolov3网络。
- 检测结果在三个不同的尺度下输出,包括目标的坐标位置、目标是正样本还是负样本、目标属于某一类置信度。
- 对于每个比例尺分支,在每个网格单元中预测三个结果(每个比例尺三个锚)。
- 结合三个尺度的结果,进行非最大抑制(NMS),输出最终的测试结果。
如yolov3的输出所述,目标类别有一个概率值,但目标框只有一个位置,没有概率值,即无法从结果预测当前目标帧的可靠性。在此基础上,本文采用高斯模型对网络输出进行建模,在不改变yolov3的结构和计算量的情况下,可以输出每个预测帧的可靠性,使算法的整体性能提高了3个点。地图。
高斯 YOLOv3
Gaussian yolov3通过增加网络的输出和改善网络的损耗函数来实现预测帧可靠性的输出,如下图所示:
拟议算法的预测框中的组件
由此我们可以看出,与原始yolov3在坐标预测中输出4维不同,高斯yolov3在边界框的坐标预测输出中包含8维。
这八个维度相当于预测框的中心坐标和长宽,以及相应预测框的不确定性。以目标盒的位置为高斯分布的均值,相应的不确定度为方差,将手指建模为四个高斯分布。如下面的对准代码所示,高斯yolov3通过预测每个坐标位置的不确定性来提高最终预测prob值的精度。
由于高斯yolov3的输出被调整,相应的损失函数的计算将相应地被调整。与原yolov3相比,只调整了预测帧坐标位置的回归策略。如下面的代码比较所示,当原始yolov3执行box回归时,由于网络预测输出是坐标本身,因此在计算梯度时使用均方误差。由于高斯yolov3输出均值和方差,因此在计算梯度时结合高斯分布策略。
高斯yolov3的损失函数如下:
高斯yolov3算法结果:
在KITTI验证集中的基线和建议算法的检测结果。第一列显示检测YOLOv3的结果,
而第二栏显示高斯YOLOv3的检测结果
BDD测试集中的基线检测结果和建议的算法。 第一和第二行显示检测
YOLOv3和高斯YOLOv3的结果,每种颜色都与特定的对象类相关。
结论
目标检测算法的高精度和实时检测速度对于自动驾驶汽车的安全性和实时控制。与基于摄像头的自动驾驶相关的各种研究虽然已经进行了一些操作,但是基于精度和操作速度之间的权衡,这并不令人满意。对于因此,本文提出了一种目标检测算法,该算法在精度和自动驾驶的速度。通过高斯建模,损失函数重构以及定位不确定性,改进算法精度,提高TP并显着降低FP,同时保持实时功能。与基线相比,建议的高斯YOLOv3算法将KITTI的mAP提高了3.09和3.5和BDD数据集。此外,因为提出的算法具有比以前的研究相似的fps更高的精度,该算法是在精度和检测速度之间的权衡方面表现出色。结果,所提出的算法可以显着改善用于自动驾驶的基于相机的物体检测系统。
相关论文源码下载地址:关注“图像算法”微信公众号 回复“高斯”