Adaptive Hierarchical Down-Sampling for Point Cloud Classification
本文介绍一篇cvpr2020里面关于点云分类降采样的文章。
论文
没有开源代码
1. 问题
FPS的时间复杂度太高,类似Samplenet 的方法会产生新的点,随机采样无法保证重要的点被保留下来。所以本文提出了一种不产生新的点的采样方法。
2. 思想
整体思想非常简单,借鉴pointnet中最后的maxpooling操作。将每个feature属性最max的点视为critical points,只保留这些点,从而完成sampling的操作,将其定义为Critical Points Layer。但是我们都知道,在batch 操作中,点的数目必须相同,所以他必须将采样之后点的数目固定,如果不够就进行upsampling。进一步考虑,有的点可能在10个feature channel上都是argmax,如何进一步体现其importance就需要weight。所以作者又提出了加强版Weighted Critical Points Layer,一个point是几个feature channel的argmax就将其重复几次,从而增大在downsampling中被选中的概率。
3. 算法
4 实验结果
从实验结果上看比较一般,这里也有多我疑惑的地方。首先,本文的关键贡献点是CPL而不是CP-Net,那么大部分的实验应该是要展示CPL的优越性。但是全文中没有对比过CPL和随机采样,以及FPS之间的效果、时间复杂度等等。其次,为什么DGCNN的实验精度这么低?
Table 2的实验结果让我觉得困惑,DGCNN加上一个kernel效果变差?看他的引用情况是和【30】对比的,但基本操作EdgeConv是【26】的,为什么不和【26】对比?
总结
文章的语言写的很棒,读起来很舒服。图4做的也是十分漂亮,值得学习。