目标:从已知的图像对估计之间的相对位置的方向γij=titjtitj,再来估计全局位置ti的方法。

主要思想:引入了两步法,包括对图像对之间异常匹配点有鲁棒性质的图像对之间的位置方向估计方法,以及对异常方向有鲁棒性质的相机位置估计方法。

Location Estimation
给定(有噪声)的γij,我们首先检查Gt的平行刚度,然后,如果图不是平行刚性,我们提取它的最大平行刚性分量,并估计Gt的最大平行刚性分量来估计相机位置。
假定我们已经得到了γij=titjtitj+ϵijγ,其中ϵijγ是误差,目标是得到ti,并且算法对异常值鲁棒且计算高效。首先改写γij的公式为
Robust Camera Location Estimation by Convex Programming读后感
观察到,方向上的大误差(即大的误差)会引起大的位移误差,我们可以采用位移误差最小化作为位置估计的方向误差最小化的替代。之后,去除非凸约束dij=titj,就可以写成“least unsquared deviations” (LUD)的形式
Robust Camera Location Estimation by Convex Programming读后感
其中约束的第一项和第二项是为了去除平移和尺度模糊度(我们取c = 1)。
在无无差的γij和平行刚性的ti的前提下,LUD和CLS解决器可以很好解决这个约束最小化问题,得到准确且唯一(只相差尺度因子)的ti
我们可以用IRLS解决上述的LUD问题,算法如下:(IRLS的思想就是用2范数来近似替代p范数,这里是1范数)
Robust Camera Location Estimation by Convex Programming读后感
其中ωijr代表-1次的范数,和2范数平衡得到1范数,δ是为了不让ωijr为无穷大。

Robust Pairwise Direction Estimation
对于图像对IiIj,本质矩阵Eij=[tij]×Rij,其中Rij=RiTRjtij=RiT(tjti),本质矩阵满足
Robust Camera Location Estimation by Convex Programming读后感
通过分解本质矩阵可以得到Rijtij,但这种方法会因为错识别点和错匹配点而有大的误差,所以我们不用估计Ri后用γij=Ritij/tij=(tjti)/tij估计γij的方法,而是用迭代方法先估计Ri,再用本质矩阵的极线约束(上面图片的公式)来计算γij
首先改写极线约束为
Robust Camera Location Estimation by Convex Programming读后感
其中ηik表示第i幅图中第k个点的齐次坐标,把Eij=[tij]×RijRij=RiTRjtij=RiT(tjti)三个公式代入即可得到这个点乘公式,这样就避免了直接通过tij来求解titj了。其中Θ是取单位向量的函数。可以看到,当匹配点无误差,Ri和焦距计算也无误差时,如果有两个匹配点,就有两个(11)方程,γij0γij0=±γij,因为方向不定)就是这两个vijk形成平面的垂线,正负号可由3D点在图像前面确定,可直接计算出γij
但是当计算的匹配点,Ri和焦距有误差时,vijk也有误差,那么就解决下面这个最小化问题
Robust Camera Location Estimation by Convex Programming读后感 (12)
这个最小化问题用IRLS解决,最后用3D点在图像前面确定正负号。
整个步骤如下
Robust Camera Location Estimation by Convex Programming读后感

相关文章:

  • 2021-11-17
  • 2022-12-23
  • 2021-06-21
  • 2022-03-05
  • 2021-07-23
  • 2021-10-04
  • 2021-06-18
  • 2021-08-04
猜你喜欢
  • 2021-04-30
  • 2022-12-23
  • 2021-06-29
  • 2021-06-07
  • 2021-11-20
  • 2021-11-11
  • 2021-05-29
相关资源
相似解决方案