1. 前言

PointRCNN是一篇做3D目标检测的CVPR2019的文章。目前位居KITTI目标检测榜首的是PV-RCNN。这个算法的前身就是PointRCNN。它们的作者都是同一个人。考虑到PV-RCNN算法有些复杂,于是我想先从PointRCNN着手。这是我写这篇博客的原因。在分析单阶段目标检测算法SA-SSD时候,已经积累了一些3d目标检测的知识代码储备,希望这次的讨论能够顺利一些。

2. PointRCNN

2.1 总体认识

总体而言,PointRCNN是一个双阶段(Two-Stage)目标检测算法。PointRCNN不需要Anchor。它的输入只有点云。第一阶段任务是生成很多预选3D框(文章称之为3D Proposal)。第二阶段是在预选3D框的基础上,获得更加精细的3D框。PointRCNN的总体框架如下所示:

小白科研笔记:简析PointRCNN的基于Bin的误差机制
图1:PointRCNN的结构框图

在图1中,Botton-up 3D proposal generation可以译为自底向上的3D预选目标框的生成。Canonical是形容词,翻译为“正规的”。Canonical 3D Box按字面意思,似乎要翻译为“正规的3D框”,但是这种翻译结果有点让我摸不着头脑。简单起见,Canonical 3D Box Refinement就译为3D目标框的精细优化吧。

2.2 3D预选目标框的生成流程

从图1可见,原始点云经过一个面向点云的编码器和解码器架构(Point Cloud Encoder-Decoder),获取点云中各个点的特征(Point-wise Feature vector),统称为点云特征。Point-wise是逐点或每个点的意思。后缀wise表示“每个”的含义。在阅读文献的时候,还会碰到类似pixel-wise词,指每个像素。点云特征先经过前景点分割框架(Foreground Point Segmentation)获取前景点,在图1中用蓝色点标出。前景点指属于目标类别的点,而地面点或者灌木点或者房屋点属于背景点。然后,前景点的点云特征经过基于框的3d预目标生成网络(Bin-based 3D Box Generation)获取预目标的3d框。如图1的英文标注所示,每一个前景点都会回归一个3D目标框。

我初次看图1会有一种错觉,会以为Foreground Point SegmentationBin-based 3D Box Generation是同时工作的。其实不是的。先预测前景点,然后根据前景点做3d目标框回归。Bin-based我译为基于框的,可能不是很贴合语境。论文作者指出Point Cloud Encoder-Decoder是基于PointNet++实现的,获取每一个点的特征。同时也保留了每个点的xyz位置信息。前景点分类是一个分类问题。考虑到原始点云中,背景点的数量远远大于前景点数量,即正负样本不均衡,所以分类误差损失函数选择使用交叉熵损失函数的改进版Focal lossFocal指关注焦点,Focal loss的目的是让正样本的误差比重更大一点。有关Focal loss的知识可参考这篇博客Bin-based 3D Box Generation的网络结构比较简单,把每个前景点的特征输入到MLP层中,回归出一个7×17\times 1向量表示3d框(77的原因在2.3节讲解)。假设前景点数目是MM个,那么预选3d框的数目也是MM个。最后对这MM个预选3d框进行非极大值抑制(NMS),得到一批抑制后端预选3d框。Bin-based 3D Box Generation的误差损失函数将在下一节讨论。

2.3 对基于区间的3d框误差函数的理解

一般而言,会使用七个参数刻画一个3d框,即(x,y,z,h,w,l,θ)(x,y,z,h,w,l,\theta)(x,y,z)(x,y,z)表示3d框的中心点在雷达坐标系的位置。(h,w,l)(h,w,l)表示3d框的高度,宽度和长度。θ\theta表示3d框在俯视图下的旋转角度。为了让Bin-based 3D Box Generation回归出精度更高的3d框,作者设计了一个基于Bin的3d框误差函数。我首先来看看作者画的一张描述Bin的示意图,如图2所示。这里把bin译为区间比较合适。在一个雷达坐标系中,xzxz轴组成的平面平行于地面,而yy轴垂直于地面。考虑到3d目标一般是在地上运动,同一类别的目标中心在yy轴上的坐标值不会相差很多。比如轿车,地面到车心的距离大概在1.3米左右。此外,同一类别目标的长宽高也基本上差不多。因此3d框的y,h,w,ly,h,w,l可以很精确地被回归预测。直接使用smooth L1损失函数就足够了。实际情况下,x,z,θx,z,\theta的差异比较大,做回归预测的精度也会差一些。于是,PointRCNN采用一种基于区间的误差函数来跟精确地刻画x,z,θx,z,\theta的误差。来看看图2。

小白科研笔记:简析PointRCNN的基于Bin的误差机制
图2:描述区间的示意图

对于一个预选3d框,蓝色的点表示Foreground Point Segmentation预测的前景点,即目标中的点。紫色点表示特别前景点(interest foreground point),它是预选3d框的中心。对于一个预选3d框(称为proposal),特别前景点的坐标记为(x(p),y(p),z(p))(x^{(p)},y^{(p)},z^{(p)}),而其他前景点坐标(xp,yp,zp)(x^p,y^p,z^p)。这里记号pp表示proposal的含义。

A. 先考虑参数x,zx,z的损失函数。

把一个3d预选框对应的前景点投影在xzxz轴组成的平面上,预测的框中心的坐标是(x(p),z(p))(x^{(p)},z^{(p)}),而其他前景点的坐标则是(xp,zp)(x^p,z^p)。记这个3d预选框的中心真值坐标是(x~(p),z~(p))(\widetilde{x}^{(p)}, \widetilde{z}^{(p)})。对一般的目标检测算法,关于x,zx,z的损失函数可能直接设计为:

Lu{x,z}=pPrsmooth_L1(u(p)u~(p))L_{u\in \{x,z\}} =\sum_{p}^{Pr} smooth\_L1(u^{(p)} - \widetilde{u}^{(p)})

其中PrPr表示所有的3d预选框。但是作者认为实践过程中平滑L1L1范数还是对点云噪声比较敏感。作者借鉴了F-PointNet中回归问题转换为分类问题的思想。什么是回归问题转换为多分类问题?举个例子,比方说我需要回归参数ww,目标物体的宽度,考虑到这个物体可能是人也可能是车,w[0.4m,1.4m]w\in [0.4m, 1.4m]。如果使用误差函数westw1\vert w_{est}-w\vert_1效果很差,可以把ww分成若干个区间(bin),比如(0.4m,0.5m),(0.5m,0.6m),...,(1.3m,1.4m)(0.4m,0.5m),(0.5m,0.6m),...,(1.3m,1.4m),回归ww就变为预测ww在哪一个区间的问题,即一个分类问题。一般使用one_hot向量对分类问题编码,然后使用交叉熵(cross-entropy)表示分类问题的损失函数。但是这样做,即便分类对了,ww的误差还是在0.1m0.1m以内。在F-PointNet中,混合使用了平滑L1L1误差和交叉熵误差函数(这种混合式的做法也逐渐成为主流,交叉熵误差函数用于估计一个大概的区间,而平滑L1L1误差做更加细致的误差分析):

Lw=Smooth_L1(west,w)+Entropy(oh(wres),oh(w))L_w = Smooth\_L1(w_{est},w) + Entropy(oh(w_{res}),oh(w))

其中Entropy()Entropy(\cdot)表示交叉熵函数。oh()oh(\cdot)表示变量的one_hot编码。讲解完回归问题转换为分类问题的思想,再回到PointRCNN的论文中。类比于上述的例子,我想回归xxzz,也可以使用回归问题转换为分类问题的思想。如果把xzxz平面硬生生的划分为很多小方格(500平方米,每个方格0.05平方米,需要一万个小区间呀),再使用one_hot编码会耗费很多的计算空间。

于是作者换了一个角度,以3d预选框的中心点(x(p),z(p))(x^{(p)},z^{(p)})为中心划分小方格。对于一个预选框内的前景点(xp,zp)(x^p,z^p),它到中心点的坐标是(xpx(p),zpz(p))(x^p - x^{(p)},z^p - z^{(p)})。如果(x(p),z(p))(x^{(p)},z^{(p)})越接近于真值(x~(p),z~(p))(\widetilde{x}^{(p)}, \widetilde{z}^{(p)}),那么有

(xpx(p))(xpxˉ(p))0(x^p - x^{(p)}) - (x^p-\bar{x}^{(p)}) \rightarrow 0
(zpz(p))(zpzˉ(p))0(z^p - z^{(p)}) - (z^p-\bar{z}^{(p)}) \rightarrow 0

以3d预选框的中心点(x(p),z(p))(x^{(p)},z^{(p)})为中心划分小方格。设小方格的边长为δ\delta。上式可以推出一个弱结论(Weak Conclusion):

(xpx(p))/δ(xpx~(p))/δ0\lfloor(x^p - x^{(p)})/\delta\rfloor - \lfloor(x^p-\widetilde{x}^{(p)})/\delta\rfloor \rightarrow 0
(zpz(p))/δ(zpz~(p))/δ0\lfloor(z^p - z^{(p)})/\delta\rfloor - \lfloor(z^p-\widetilde{z}^{(p)})/\delta\rfloor \rightarrow 0

其中(xpx(p))/δ\lfloor(x^p - x^{(p)})/\delta\rfloor表示xpx^p在第几个小方格上,或者说是在x(p)x^{(p)}xpx^pxx轴方格索引,记为binx(p)bin_x^{(p)}。符号x\lfloor x \rfloor表示对xx做向下取整,比如3.72=3\lfloor 3.72 \rfloor = 3(使用向下取整是有意义的,它在第3.72个格子上相当于它在第3个格子上)。而(xpxˉ(p))/δ\lfloor(x^p-\bar{x}^{(p)})/\delta\rfloor记为bin~x(p)\widetilde{bin}_x^{(p)}。上式将变为:

binx(p)bin~x(p)0bin_x^{(p)} - \widetilde{bin}_x^{(p)} \rightarrow 0
binz(p)bin~z(p)0bin_z^{(p)} - \widetilde{bin}_z^{(p)} \rightarrow 0

其中binx(p)[N,(N1),...,0,...,N1,N]bin_x^{(p)}\in [-N,-(N-1),...,0,...,N-1,N]。使用binbin后,回归问题变成分类问题。紧接着,作者使用one_hotbinbin进行编码,表示为一个(2N+1)×1(2N+1)\times 1的向量oh(bin)oh(bin)。使用交叉熵,上式将被改写为:

Entropy(oh(binx(p))oh(bin~x(p)))0Entropy(oh(bin_x^{(p)}) - oh(\widetilde{bin}_x^{(p)})) \rightarrow 0
Entropy(oh(binz(p))oh(bin~z(p)))0Entropy(oh(bin_z^{(p)}) - oh(\widetilde{bin}_z^{(p)})) \rightarrow 0

Fcls(binx(p),bin~x(p))=Entropy(oh(binx(p))oh(bin~x(p)))F_{cls}(bin_x^{(p)}, \widetilde{bin}_x^{(p)}) = Entropy(oh(bin_x^{(p)}) - oh(\widetilde{bin}_x^{(p)}))。上式相当于:

u{x,z},Fcls(binu(p),bin~u(p))0u\in\{x,z\},F_{cls}(bin_u^{(p)}, \widetilde{bin}_u^{(p)}) \rightarrow 0

PointRCNN作者想采用F-PointNet的模式,想混合使用了平滑L1L1误差和交叉熵误差函数。交叉熵误差函数就是Fcls(binx(p),bin~x(p))F_{cls}(bin_x^{(p)}, \widetilde{bin}_x^{(p)})。那么平滑L1L1误差函数是怎么定义的呢?我举个例子,比如(xpx(p))/δ=3.72(x^p - x^{(p)})/\delta=3.72,而(xpx~(p))/δ)=3.58(x^p-\widetilde{x}^{(p)})/\delta)=3.58。经过向下取整后,binx(p)=bin~x(p)=3bin_x^{(p)}=\widetilde{bin}_x^{(p)}=3,那么Fcls()=0F_{cls}(\cdot)=0。使用交叉熵误差函数已经不能使xx预测的更加精确了。实际上它们还相差了0.140.14。自然是希望把这一点误差考虑进去:

[(xpx(p))/δbinx(p)][(xpx~(p))/δbin~x(p)]=0.14[(x^p - x^{(p)})/\delta - bin_x^{(p)}] - [(x^p-\widetilde{x}^{(p)})/\delta-\widetilde{bin}_x^{(p)}] = 0.14

希望这个误差尽可能为零:

[(xpx(p))/δbinx(p)][(xpx~(p))/δbin~x(p)]0[(x^p - x^{(p)})/\delta - bin_x^{(p)}] - [(x^p-\widetilde{x}^{(p)})/\delta-\widetilde{bin}_x^{(p)}] \rightarrow 0

对上式做个等价变形:

1C[(xpx(p))(δbinx(p)+12δ)]1C[(xpx~(p))(δbin~x(p)+12δ)]0\frac{1}{C}[(x^p - x^{(p)}) - (\delta \cdot bin_x^{(p)}+\frac{1}{2}\delta)] - \frac{1}{C}[(x^p-\widetilde{x}^{(p)})- (\delta\cdot \widetilde{bin}_x^{(p)} + \frac{1}{2}\delta)] \rightarrow 0

resx(p)=1C[(xpx(p))(δbinx(p)+12δ)]res_x^{(p)}=\frac{1}{C}[(x^p - x^{(p)}) - (\delta \cdot bin_x^{(p)}+\frac{1}{2}\delta)]
res~x(p)=1C[(xpx~(p))(δbin~x(p)+12δ)]\widetilde{res}_x^{(p)}=\frac{1}{C}[(x^p-\widetilde{x}^{(p)})- (\delta\cdot \widetilde{bin}_x^{(p)} + \frac{1}{2}\delta)]

上式简写为:

resx(p)res~x(p)0res_x^{(p)} - \widetilde{res}_x^{(p)} \rightarrow 0

对回归问题会使用平滑L1L1损失函数。于是记Freg(resx(p),res~x(p))=Smooth_L1(resx(p)res~x(p))F_{reg}(res_x^{(p)} , \widetilde{res}_x^{(p)})=Smooth\_L1(res_x^{(p)} - \widetilde{res}_x^{(p)})。因此,对xxzz的回归误差函数是:

u{x,z},Freg(resu(p),res~u(p))0u\in\{x,z\},F_{reg}(res_u^{(p)}, \widetilde{res}_u^{(p)}) \rightarrow 0

为了规范化整数索引(让它们从0,1,...,2N10,1,...,2N-1,而不是N,...,N-N,...,N),给binu(p)bin_u^{(p)}做了修改,添加一个搜索范围标量SS(有关于SS的例子可以看BB部分),这时候binu(p)bin_u^{(p)}的定义如下所示:

u{x,z},binu(p)=(upuˉ(p)+S)/δu\in\{x,z\},bin_u^{(p)}=\lfloor(u^p-\bar{u}^{(p)}+S)/\delta\rfloor

同时对resu(p)res_u^{(p)}做了重新的定义:

u{x,z},resu(p)=1C[(upu(p))+S(δbinu(p)+12δ)]u\in\{x,z\}, res_u^{(p)}=\frac{1}{C}[(u^p - u^{(p)}) + S - (\delta \cdot bin_u^{(p)}+\frac{1}{2}\delta)]

B. 其次考虑参数θ\theta的损失函数

A部分讨论的出发点类似。参数θ\theta的损失函数将分为分类损失函数和回归损失函数。这里的损失函数形式要比上一部分简单很多。举个例子,某一类目标的旋转角θ\theta范围在[12π,12π][-\frac{1}{2}\pi, \frac{1}{2}\pi]内。我可以把θ\theta划分在四个区间[12π,14π],[14π,0],[0,14π],[14π,12π][-\frac{1}{2}\pi, -\frac{1}{4}\pi], [-\frac{1}{4}\pi, 0], [0, \frac{1}{4}\pi], [\frac{1}{4}\pi, \frac{1}{2}\pi]内(分类编号为0,1,2,30,1,2,3)。binθ(p)bin_{\theta}^{(p)}可以简单定义为θ+S/δ\lfloor \theta+S/\delta \rfloor。比如S=12πS=\frac{1}{2}\piδ=14π\delta=\frac{1}{4}\pi

当我预测的θ=25π\theta=\frac{2}{5}\pi时:

binθ(p)=(25π+12π)/14π=3bin_{\theta}^{(p)}=\lfloor (\frac{2}{5}\pi+\frac{1}{2}\pi)/\frac{1}{4}\pi \rfloor = 3

那么,θ=25π\theta=\frac{2}{5}\pi属于第三个区间。

当我预测的θ=25π\theta=-\frac{2}{5}\pi时:

binθ(p)=(25π+12π)/14π=0bin_{\theta}^{(p)}=\lfloor (-\frac{2}{5}\pi+\frac{1}{2}\pi)/\frac{1}{4}\pi \rfloor = 0

那么,θ=25π\theta=-\frac{2}{5}\pi属于第零个区间。

binθ(p)bin_{\theta}^{(p)}进行one_hot编码,然后使用交叉熵损失函数,得到Fcls(binθ(p),bin~θ(p))F_{cls}(bin_{\theta}^{(p)}, \widetilde{bin}_{\theta}^{(p)})

同样,当θ=25π\theta=\frac{2}{5}\pi,真值θ~=35π\widetilde\theta = \frac{3}{5}\pi时,binθ(p)=bin~θ(p)=3bin_{\theta}^{(p)}=\widetilde{bin}_{\theta}^{(p)}=3。这个时候Fcls()=0F_{cls}(\cdot)=0,不能起到指导作用。但是角度误差还差了15π\frac{1}{5}\pi。和A部分讨论的方式一样,构造一个resθ(p)=θδbinθ(p)res_{\theta}^{(p)} = \theta -\delta \cdot bin_{\theta}^{(p)}。同样构造,res~θ(p)=θδbin~θ(p)\widetilde{res}_{\theta}^{(p)} = \theta -\delta \cdot \widetilde{bin}_{\theta}^{(p)}。在这个例子中:

resθ(p)res~θ(p)=15πres_{\theta}^{(p)} - \widetilde{res}_{\theta}^{(p)} = -\frac{1}{5}\pi

自然希望误差尽可能地小:

resθ(p)res~θ(p)0res_{\theta}^{(p)} - \widetilde{res}_{\theta}^{(p)} \rightarrow 0

因此设计了针对角度的回归误差Freg(resθ(p),res~θ(p))=Smooth_L1(resθ(p)res~θ(p))F_{reg}(res_{\theta}^{(p)}, \widetilde{res}_{\theta}^{(p)})=Smooth\_L1(res_{\theta}^{(p)} - \widetilde{res}_{\theta}^{(p)})

C. 最后考虑参数y,w,l,hy,w,l,h的损失函数

在2.3节开头讨论过,对于同一类目标目标而言,参数y,w,l,hy,w,l,h变换范围不大,于是可以设置一个先验值y0,w0,l0,h0y_0,w_0,l_0,h_0。这些参数在先验值附近小范围地波动,于是误差函数可以简单设置为Freg(resu(p),res~u(p))F_{reg}(res_{u}^{(p)}, \widetilde{res}_{u}^{(p)})

u{y,w,l,h},resu(p)=(uu0),res~u(p)=(u~u0)u\in\{y,w,l,h\}, res_{u}^{(p)}=(u-u_0), \widetilde{res}_{u}^{(p)}=(\widetilde{u}-u_0)
Freg(resu(p),res~u(p))=Smooth_L1(resu(p)res~u(p))F_{reg}(res_{u}^{(p)}, \widetilde{res}_{u}^{(p)}) = Smooth\_L1(res_{u}^{(p)} - \widetilde{res}_{u}^{(p)})

这里Freg(resu(p),res~u(p))F_{reg}(res_{u}^{(p)}, \widetilde{res}_{u}^{(p)})只是形式上跟前面的误差函数保持一致罢了。它等价于:

Freg(resu(p),res~u(p))=Smooth_L1(uu~)F_{reg}(res_{u}^{(p)}, \widetilde{res}_{u}^{(p)}) = Smooth\_L1(u-\widetilde u)

D. 总误差损失函数

对于每一个预选3d框(proposal),总误差函数是(公式太多字了,这次我直接截图):

小白科研笔记:简析PointRCNN的基于Bin的误差机制
因为每一个前景点产生一个预选3d框,所以预选3d框的总数等于前景点的数目NposN_{pos}

3. 思考

写到这里基本上对基于Bin的误差机制弄清楚了。对于一个回归问题,先把真值范围划分为若干个区间,使回归问题变成“归属于哪个区间”的分类问题,使用one_hot编码和交叉熵损失函数,回归到一个正确的区间之后,再使用平滑L1L1范数做细粒度的回归。

相关文章:

  • 2021-12-07
  • 2021-09-18
  • 2021-08-06
  • 2022-01-02
  • 2021-12-20
  • 2021-07-06
猜你喜欢
  • 2021-10-28
  • 2021-07-09
  • 2021-10-24
  • 2021-07-01
  • 2021-05-12
  • 2021-09-18
  • 2021-05-09
相关资源
相似解决方案