Python 为什么FAST/ORB不能在图像边缘附近找到关键点
ORB在图像边缘附近找不到关键点,我不明白为什么。更糟糕的是,我和SIFT和SURF的预期正好相反 如果我理解正确,那么SIFT/SURF在测试点周围分别使用16x16和20x20方形块,这样我希望他们不会从边缘找到8和10像素的关键点。FAST/ORB在测试点周围使用了一个直径为7的圆,因此我希望它能找到更靠近边缘的关键点,可能接近4个像素(尽管我认为描述关键点的相关算法,简而言之,使用了一个更大的窗口,这样可以删除一些关键点) 一个实验使我的预言毫无意义。在我的实验中,离边缘的最小距离随正方形的大小和间距而变化,但示例如下Python 为什么FAST/ORB不能在图像边缘附近找到关键点,python,opencv,feature-extraction,keypoint,Python,Opencv,Feature Extraction,Keypoint,ORB在图像边缘附近找不到关键点,我不明白为什么。更糟糕的是,我和SIFT和SURF的预期正好相反 如果我理解正确,那么SIFT/SURF在测试点周围分别使用16x16和20x20方形块,这样我希望他们不会从边缘找到8和10像素的关键点。FAST/ORB在测试点周围使用了一个直径为7的圆,因此我希望它能找到更靠近边缘的关键点,可能接近4个像素(尽管我认为描述关键点的相关算法,简而言之,使用了一个更大的窗口,这样可以删除一些关键点) 一个实验使我的预言毫无意义。在我的实验中,离边缘的最小距离随正方
- 筛选。。5像素
- 冲浪。。15像素
- 圆球。。39像素
import numpy as np
import cv2
size = 501; border = 51; step = 10
image = np.zeros( (size,size), np.uint8 )
# fill with disjoint squares
def drawsquare(img,i,j):
restsize = step//5
cv2.rectangle(img,(i-restsize,j-restsize),(i+restsize,j+restsize),255,-1)
for i in range(0,size,step):
for j in range(0,size,step):
drawsquare(image,i,j)
# blank out the middle
image[border:size-border,border:size-border] = 0
# and blur
image = cv2.GaussianBlur(image,(5,5),0)
imgcopy = image.copy()
descriptor = cv2.xfeatures2d.SIFT_create(nfeatures=2000)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SIFT keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,0,255))
cv2.imshow( "SIFT(red)", imgcopy )
cv2.waitKey()
descriptor = cv2.xfeatures2d.SURF_create()
kps, descs = descriptor.detectAndCompute(image,None)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SURF keypoints , min coord is {}".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,255))
cv2.imshow( "SIFT(red)+SURF(yellow)", imgcopy )
cv2.waitKey()
descriptor = cv2.ORB_create(nfeatures=800)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} ORB keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,0))
cv2.imshow( "SIFT(red)+SURF(yellow)+ORB-detect(green)", imgcopy )
cv2.waitKey()
kps, descs = descriptor.compute(image,kps)
minpt = min([k.pt[0] for k in kps]+[k.pt[1] for k in kps])
print("#{} ORB described keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(255,0,0))
cv2.imshow( "SIFT(red)+SURF(yelow)+ORB-compute(blue)", imgcopy )
cv2.waitKey()
cv2.imwrite("/tmp/grid-with-keypoints.png",imgcopy)
程序输出为
#2000 SIFT keypoints, min coord is 5.140756607055664
#1780 SURF keypoints , min coord is 15.0
#592 ORB keypoints, min coord is 39.60000228881836
#592 ORB described keypoints, min coord is 39.60000228881836
图像是
附录
Grillteller回答了我的问题,并在ORB探测器的创建代码中给了我一个额外的参数。如果我写
descriptor = cv2.ORB_create(nfeatures=800,edgeThreshold=0)
然后我得到输出
#950 ORB keypoints, min coord is 9.953282356262207
通常,图像边缘的关键点对于大多数应用程序都不有用。例如,考虑飞行器或飞机的空中图像。图像边框上的点在下一帧中通常不可见。在计算对象的三维重建时,大多数情况下,感兴趣的对象位于图像的中心。另外,您提到的事实是,大多数特征检测器与像素周围的感兴趣区域一起工作非常重要,因为这些区域可能会在图像边界处产生不必要的效果 进入OpenCV(848-849)的源代码,使用一个带有
edgeThreshold
的函数,该函数可以使用cv::ORB::create()
定义,并设置为默认值31像素。“这是未检测到功能的边框大小。它应大致与patchSize参数匹配。”
该功能定义为:
void KeyPointsFilter::runByImageBorder( std::vector<KeyPoint>& keypoints, Size imageSize, int borderSize )
{
if( borderSize > 0)
{
if (imageSize.height <= borderSize * 2 || imageSize.width <= borderSize * 2)
keypoints.clear();
else
keypoints.erase( std::remove_if(keypoints.begin(), keypoints.end(),
RoiPredicate(Rect(Point(borderSize, borderSize),
Point(imageSize.width - borderSize, imageSize.height - borderSize)))),
keypoints.end() );
}
}
我假设SURF使用了类似的参数(=15?),但据我所知,SIFT和SURF中的这些参数不能简单地在ORB之类的函数调用中更改。谢谢你;这很有趣。在我的应用程序中,我试图检测图像中的视差,因此想要强制在任何地方设置关键点,我尝试将原始图像切割成窗格,并检测每个窗格中的关键点,但困惑地发现一组矩形的点簇,它们之间有清晰而大的走廊。我正在尝试重叠窗格,但这是一个正在进行的项目。
void KeyPointsFilter::runByImageBorder( std::vector<KeyPoint>& keypoints, Size imageSize, int borderSize )
{
if( borderSize > 0)
{
if (imageSize.height <= borderSize * 2 || imageSize.width <= borderSize * 2)
keypoints.clear();
else
keypoints.erase( std::remove_if(keypoints.begin(), keypoints.end(),
RoiPredicate(Rect(Point(borderSize, borderSize),
Point(imageSize.width - borderSize, imageSize.height - borderSize)))),
keypoints.end() );
}
}
// width of border in which to ignore keypoints
static const int SIFT_IMG_BORDER = 5;