Main idea

这是把deep learning用于2D图像中进行patch match的research。
L2-Net论文阅读
这个CS Network是这篇文章,主要思想是把一个6464的patch先downsample得到一个3232的低分辨率的patch1,然后在原先6464的patch的中心区域截取3232得到patch2,这两个patch分辨率一个高一个低,相当于中心区域的信息twice,还包含了整体的信息。两个待比较的patch有四个小patch,用4个通道两两一组(组内param是share的)同时进行比较,不仅加快了计算速度还让比较更加有重点(中心区域)。metric function也是learned的。
L2-Net论文阅读
本文改了主体网络,而且不用learned metric,直接concatenation然后用自己的loss function去train(metric是L2)

preprocessing

L2-Net CVPR2017
一种从patch中提取descriptor的网络结构,主要设计了一种data preprocess和
data preprocess
随机选p个值,并选出这p个值的correspondence,组成p*p的矩阵。对角线对应positive,其他都是negative loss function

loss function

1. Descriptor 的距离(相对距离)
match领域的文章喜欢用Hinge loss,但是Hinge loss在gradient的时候会不稳定,主要是由于threshold,你不知道每次迭代是哪些sample在起作用,所以有些文章用hard sample mining强迫所有sample都参与,但是hard sample mining有threshold,有些文章把hinge loss改成softplus。本文直接用相对距离,不用绝对距离这样就不会有threshold(括号里的2可以约掉)
L2-Net论文阅读
L2-Net论文阅读
2. 对feature的每一维去相关
因为overfitting与这个相关性成正相关,不加这一项会有严重的overfitting why???
L2-Net论文阅读
L2-Net论文阅读
3. Intermediate feature 距离
(就是在网络中把某层的feature抽出来进行restriction,这个也是后文中的DIF
从结果来看。。这个加不加都没太大区别,加了好一点点,但是加多了preformance会断崖式下降,因为约束太紧了
L2-Net论文阅读
L2-Net论文阅读

Result

这篇文章我最感兴趣还是为什么Batch norm是不learn的,result里给出了结果,,其实learn不learn。。都差不太多,不learn好一点点
L2-Net论文阅读

相关文章:

  • 2022-01-08
  • 2021-04-19
  • 2022-01-12
  • 2021-11-05
猜你喜欢
  • 2021-09-02
  • 2021-09-07
  • 2021-10-10
  • 2021-11-11
  • 2022-01-03
  • 2021-09-18
  • 2021-11-02
相关资源
相似解决方案