Computer vision 使用欧几里德距离匹配SIFT描述符的问题是什么?

Computer vision 使用欧几里德距离匹配SIFT描述符的问题是什么?,computer-vision,matching,sift,euclidean-distance,feature-descriptor,Computer Vision,Matching,Sift,Euclidean Distance,Feature Descriptor,我问了这个问题,但我对答案一无所知:使用欧几里德距离匹配SIFT描述符有什么问题?我读过一些关于这种方法不适用于转换图像的文章,但我能理解他关于转换图像的意思以及为什么?当我开始学习机器学习时,我也有同样的问题。通常,SIFT特征由KNNMATCH匹配,默认情况下,KNNMATCH使用L1距离 让我们从定义L1和L2的方程开始。假设你有(a,b)和(c,d) L1距离(曼哈顿距离)=a-c++b-d| L2距离(欧氏距离)=平方根[(a-c)2+(b-d)2] 在这里,您可以看到L2距离中的错误

我问了这个问题,但我对答案一无所知:使用欧几里德距离匹配SIFT描述符有什么问题?我读过一些关于这种方法不适用于转换图像的文章,但我能理解他关于转换图像的意思以及为什么?

当我开始学习机器学习时,我也有同样的问题。通常,SIFT特征由KNNMATCH匹配,默认情况下,KNNMATCH使用L1距离

让我们从定义L1和L2的方程开始。假设你有(a,b)和(c,d)

L1距离(曼哈顿距离)=a-c++b-d|

L2距离(欧氏距离)=平方根[(a-c)2+(b-d)2]

在这里,您可以看到L2距离中的错误率随着平方函数的增加而迅速增加。SIFT特征是一个多维向量,与取绝对值的L1距离相比,欧氏距离将快速增加

欧几里德距离是维数较小的向量的良好度量,而对于维数较大的向量,L1距离是更好的选择


希望这能消除您的疑虑。

您的意思是,对于尺寸较大的向量,距离是更好的选择吗?是的。如果比较两个特征向量(在本例中为筛选特征),则最好使用L1距离,因为误差的增长速度不如L2快。当然,还有其他指标。我举了一个L1和L2的例子,因为用户有兴趣了解欧几里得的缺点。如果我错了,请纠正我。嗯,我同意你的看法。我想指出的是,你的答案中有一个拼写错误,你说
L2是一个更好的选择,尺寸更大。非常感谢。