Camera DLT与单应估计

Camera DLT与单应估计,camera,computer-vision,camera-calibration,homography,Camera,Computer Vision,Camera Calibration,Homography,我对描述的DLT算法和描述的单应估计之间的差异有点困惑。在这两种技术中,我们都试图通过使用至少4点对应来求解3x3矩阵的条目。在这两种方法中,我们都建立了一个系统,在这个系统中我们有一个“测量”矩阵,我们使用奇异值分解来求解构成H的元素向量。我想知道为什么有两种技术似乎做同样的事情,为什么一种可以用在另一种上。你有左右图像对应关系{p\u I}{p''u I},其中p_i=(x_i,y_i)等 将它们标准化为单位平方意味着计算两个移位m=(mx,my),m'=(mx',my'),和两个尺度s=(

我对描述的DLT算法和描述的单应估计之间的差异有点困惑。在这两种技术中,我们都试图通过使用至少4点对应来求解3x3矩阵的条目。在这两种方法中,我们都建立了一个系统,在这个系统中我们有一个“测量”矩阵,我们使用奇异值分解来求解构成H的元素向量。我想知道为什么有两种技术似乎做同样的事情,为什么一种可以用在另一种上。

你有左右图像对应关系
{p\u I}{p''u I}
,其中
p_i=(x_i,y_i)

将它们标准化为单位平方意味着计算两个移位
m=(mx,my)
m'=(mx',my')
,和两个尺度
s=(sx,sy)
s'=(sx',sy')
,从而
q_i=(p_i-m)/s
q_i'=(p_'-m'/s'
,以及
{q{q{i}/code>
变换后的图像点以
(0,0)
为中心,大约包含在单位边长的平方内。一点数学运算表明,对于m项,一个好的选择是每组图像点中x、y坐标的平均值,对于s项,使用标准偏差(或标准偏差的两倍)乘以1/sqrt(2)

您可以用矩阵形式表示此规范化转换:
q=tp
, 其中
T=[[1/sx,0,-mx/sx],[0,1/sy,-my/sy],[0,0,1]]
,同样
q'=T'p'

然后计算
{q''u i}
{q''u i}
点之间的单应性
K


最后,您将
K
反规范化为原始(未规范化)坐标,因此:
H=inv(T')kt
,而
H
是将
{p}
映射到
{p'}

的所需单应性,它是完全相同的算法,只是不同的符号。您的两个来源都没有提到数据规范化步骤,这对于良好的数据稳定性是绝对必要的谢谢。你所说的标准化是什么意思?对你的特征应用一个变换,使它们以(0,0)为中心,并在单位平方内进行缩放,估计缩放特征上的单应性,然后放大单应性矩阵。你介意提供更多细节吗?“在单位正方形内缩放它们”?用什么来“放大单应矩阵”?可能是你在说把矩阵的所有条目除以条目(3,3)?只是为了澄清一下。这一步只有在我们最小化代数误差时才有必要,对吗?也就是说| |啊| |。如果我们使用迭代优化技术来最小化几何误差,那么这个标准化步骤是必要的吗?根据H&Z的说法,几何误差对相似变换是不变性的,就像你描述的那样,在这种情况下,它仍然有助于数值稳定性。