Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 2.7 Python//如何使用OpenCV中SIFT提取的特征获取目标对象周围的矩形_Python 2.7_Opencv_Image Processing_Sift_Homography - Fatal编程技术网

Python 2.7 Python//如何使用OpenCV中SIFT提取的特征获取目标对象周围的矩形

Python 2.7 Python//如何使用OpenCV中SIFT提取的特征获取目标对象周围的矩形,python-2.7,opencv,image-processing,sift,homography,Python 2.7,Opencv,Image Processing,Sift,Homography,这是我的密码: import numpy as np import cv2 from matplotlib import pyplot as plt from scipy import misc import matplotlib.pyplot as plt MIN_MATCH_COUNT = 10 img1 = cv2.imread('Screenshot_2.png',0) img2 = cv2.imread('Screenshot_12.png',0) # Ini

这是我的密码:

import numpy as np
import cv2
from matplotlib import pyplot as plt
from scipy import misc
import matplotlib.pyplot as plt

MIN_MATCH_COUNT = 10

img1 = cv2.imread('Screenshot_2.png',0)          
img2 = cv2.imread('Screenshot_12.png',0)

# Initiate SIFT detector
sift = cv2.xfeatures2d.SIFT_create()

# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)

FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks = 50)

flann = cv2.FlannBasedMatcher(index_params, search_params)

matches = flann.knnMatch(des1,des2,k=2)


good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        good.append(m)
print good
if len(good)>MIN_MATCH_COUNT:
    src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
    dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)

    M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0)
    matchesMask = mask.ravel().tolist()

    h,w = img1.shape
    pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
    dst = cv2.perspectiveTransform(pts,M)

    img2 = cv2.polylines(img2,[np.int32(dst)],True,255,3, cv2.LINE_AA)

else:
    print "Not enough matches are found - %d/%d" % (len(good),MIN_MATCH_COUNT)
    matchesMask = None

draw_params = dict(matchColor = (0,255,0), # draw matches in green color
                   singlePointColor = None,
                   matchesMask = matchesMask, # draw only inliers
                   flags = 2)

img3 = cv2.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)

plt.imshow(img3, 'gray'),plt.show()
将numpy导入为np
进口cv2
从matplotlib导入pyplot作为plt
从scipy导入杂项
将matplotlib.pyplot作为plt导入
最小匹配计数=10
img1=cv2.imread('Screenshot_2.png',0)
img2=cv2.imread('Screenshot_12.png',0)
#启动筛分检测器
sift=cv2.xfeature2d.sift_create()
#使用SIFT查找关键点和描述符
kp1,des1=筛选、检测和计算(img1,无)
kp2,des2=筛选、检测和计算(img2,无)
法兰索引KDTREE=0
索引参数=dict(算法=FLANN\u索引树,树=5)
搜索参数=dict(检查=50)
flann=cv2.FlannBasedMatcher(索引参数、搜索参数)
匹配=法兰N.knnMatch(des1、des2、k=2)
好的=[]
对于匹配中的m,n:
如果m.距离<0.7*n.距离:
好。追加(m)
印刷品
如果长度(良好)>最小匹配计数:
src_pts=np.float32([kp1[m.queryIdx].pt代表m处于良好状态])。重塑(-1,1,2)
dst_pts=np.float32([kp2[m.trainIdx].pt代表m处于良好状态])。重塑(-1,1,2)
M、 掩模=cv2.findHomography(src_pts,dst_pts,cv2.RANSAC,5.0)
matchesMask=mask.ravel().tolist()
h、 w=img1.1形状
pts=np.float32([[0,0],[0,h-1],[w-1,h-1],[w-1,0]])。重塑(-1,1,2)
dst=cv2.透视变换(pts,M)
img2=cv2.多段线(img2[np.int32(dst)],真,255,3,cv2.线_AA)
其他:
打印“未找到足够的匹配-%d/%d”%(长度(良好),最小匹配计数)
matchesMask=None
绘制参数=dict(匹配颜色=(0255,0),#绘制绿色的匹配
singlePointColor=无,
matchesMask=matchesMask,#只绘制内线
旗帜=2)
img3=cv2.绘图匹配(img1、kp1、img2、kp2、良好、无、**绘图参数)
plt.imshow(img3,‘灰色’),plt.show()
我想用这个方法用OpenCV跟踪我检测到的对象的一个矩形,但我不知道如何开始得到我想要的

我找不到任何地方可以用Python解决我的问题


你有什么建议让我执行我的项目吗?:(

只需获取src_pts,其中mask==1,并在源图像上找到矩形的min_X,min_Y,max_X,max_Y

下面是我尝试过的代码

pts = src_pts[mask==1]
min_x, min_y = np.int32(pts.min(axis=0))
max_x, max_y = np.int32(pts.max(axis=0))
在这里,您得到了左上点为(min_x,min_y)和右下点为(max_x,max_y)。下面的代码用于在原始图像上绘制边界框

cv2.rectangle(originalImage,(min_x, min_y), (max_x,max_y), 255,2)
plt.imshow(originalImage, cmap='gray')

只需获取src_pts,其中mask==1,并在源图像上找到矩形的min_X、min_Y、max_X、max_Y

下面是我尝试过的代码

pts = src_pts[mask==1]
min_x, min_y = np.int32(pts.min(axis=0))
max_x, max_y = np.int32(pts.max(axis=0))
在这里,您得到了左上点为(min_x,min_y)和右下点为(max_x,max_y)。下面的代码用于在原始图像上绘制边界框

cv2.rectangle(originalImage,(min_x, min_y), (max_x,max_y), 255,2)
plt.imshow(originalImage, cmap='gray')

好的,谢谢:)我提取每个关键点的坐标x,y,然后我使用cv2.contourArea(contour[,oriented]),对吗?我认为你不需要计算轮廓面积,你只需传递坐标数组,基本上你所做的就是找到包含所有点的最小x和最大y值。你可以自己做这件事,但是有一个方便的方法,我刚刚测试过,但它并没有真正框定整个相关对象。。我不知道像他这样的一些人是如何达到他们的目标的;;不幸的是,我对C++的理解不够,无法理解它们在对象外部的点被检测为对象内部的点,有时候你可以把你的矩形放大10%,因为大部分时间点都在对象内部,所以你的边界矩形不能围绕整个对象。你要找的是好的,谢谢:)我提取每个关键点的坐标x,y,然后我使用cv2.contourArea(轮廓[,定向]),是吗?我认为你不需要计算轮廓面积,你只需要传递坐标数组,基本上你所做的就是找到包含所有点的最小x和最大y值。你可以自己做这件事,但是有一个方便的方法,我刚刚测试过,但它并没有真正框定整个相关对象。。我不知道像他这样的一些人是如何达到他们的目标的;;不幸的是,我对C++的理解还不够透彻,它们在对象外部有点被检测为对象内部的点,有时你可以把你的矩形放大10%,因为大部分时间点都在对象内部,所以你的边界矩形不能环绕整个对象