python cv2法兰匹配更精确的结果
我试图从截图上匹配部族“建筑”的冲突 考虑到一些建筑物会四处移动,我认为直接匹配模板不起作用(如果我错了,请纠正我) 考虑下图: 当针对以下情况使用时,它将不起作用: 正如你所知,图像确实在那里,但大炮面对的是另一个方向 在另一个例子中,我能够在几个不同的地方获得一场相同的防空比赛: 以下是我正在使用的代码:python cv2法兰匹配更精确的结果,python,python-3.x,opencv,python-3.6,opencv3.3,Python,Python 3.x,Opencv,Python 3.6,Opencv3.3,我试图从截图上匹配部族“建筑”的冲突 考虑到一些建筑物会四处移动,我认为直接匹配模板不起作用(如果我错了,请纠正我) 考虑下图: 当针对以下情况使用时,它将不起作用: 正如你所知,图像确实在那里,但大炮面对的是另一个方向 在另一个例子中,我能够在几个不同的地方获得一场相同的防空比赛: 以下是我正在使用的代码: import numpy as np import cv2 from matplotlib import pyplot as plt imageToMatch='' train
import numpy as np
import cv2
from matplotlib import pyplot as plt
imageToMatch=''
trainImage=''
MIN_MATCH_COUNT = 4
img1 = cv2.imread(imageToMatch)
img2 = cv2.imread(trainImage) # trainImage
# Initiate SIFT detector
sift = cv2.xfeatures2d.SIFT_create()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
search_params = dict(checks=50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
matches = flann.knnMatch(des1, des2, k=2)
# store all the good matches as per Lowe's ratio test.
good = []
#print(matches)
for m, n in matches:
if m.distance < 0.7 * n.distance:
#print(m.distance)
#print(0.69 * n.distance)
good.append(m)
if len(good) > MIN_MATCH_COUNT:
src_pts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1, 1, 2)
dst_pts = np.float32([kp2[m.trainIdx].pt for m in good]).reshape(-1, 1, 2)
M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
matchesMask = mask.ravel().tolist()
h, w = img1.shape
pts = np.float32([[0, 0], [0, h - 1], [w - 1, h - 1], [w - 1, 0]]).reshape(-1, 1, 2)
dst = cv2.perspectiveTransform(pts, M)
img2 = cv2.polylines(img2, [np.int32(dst)], True, 255, 3, cv2.LINE_AA)
else:
print("Not enough matches are found - %d/%d" % (len(good), MIN_MATCH_COUNT))
matchesMask = None
draw_params = dict(matchColor=(0, 255, 0), # draw matches in green color
singlePointColor=None,
matchesMask=matchesMask, # draw only inliers
flags=2)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, good, None, **draw_params)
plt.imshow(img3, 'gray'), plt.show()
将numpy导入为np
进口cv2
从matplotlib导入pyplot作为plt
imageToMatch=“”
列车图像=“”
最小匹配计数=4
img1=cv2.imread(imageToMatch)
img2=cv2.imread(列车图像)#列车图像
#启动筛分检测器
sift=cv2.xfeature2d.sift_create()
#使用SIFT查找关键点和描述符
kp1,des1=筛选、检测和计算(img1,无)
kp2,des2=筛选、检测和计算(img2,无)
法兰索引KDTREE=0
索引参数=dict(算法=FLANN\u索引树,树=5)
搜索参数=dict(检查=50)
flann=cv2.FlannBasedMatcher(索引参数、搜索参数)
匹配=法兰N.knnMatch(des1、des2、k=2)
#根据Lowe比率测试存储所有良好匹配项。
好的=[]
#打印(匹配)
对于匹配中的m,n:
如果m.距离<0.7*n.距离:
#打印(m.距离)
#打印(0.69*n.距离)
好。追加(m)
如果长度(良好)>最小匹配计数:
src_pts=np.float32([kp1[m.queryIdx].pt代表m处于良好状态])。重塑(-1,1,2)
dst_pts=np.float32([kp2[m.trainIdx].pt代表m处于良好状态])。重塑(-1,1,2)
M、 掩模=cv2.findHomography(src_pts,dst_pts,cv2.RANSAC,5.0)
matchesMask=mask.ravel().tolist()
h、 w=img1.1形状
pts=np.float32([[0,0],[0,h-1],[w-1,h-1],[w-1,0]])。重塑(-1,1,2)
dst=cv2.透视变换(pts,M)
img2=cv2.多段线(img2[np.int32(dst)],真,255,3,cv2.线_AA)
其他:
打印(“未找到足够的匹配项-%d/%d”%(长度(良好),最小匹配数))
matchesMask=None
draw_params=dict(matchColor=(0,255,0),#以绿色绘制匹配
singlePointColor=无,
matchesMask=matchesMask,#只绘制内线
旗帜=2)
img3=cv2.绘图匹配(img1、kp1、img2、kp2、良好、无、**绘图参数)
plt.imshow(img3,‘灰色’),plt.show()
我的问题是:
我的环境:Python 3.6、OpenCV 3.3.0、OSX 有多少种可能的方向?如果有一个固定的数量(比如4),那么您可以使用四个不同的模板。如果有更高的数量,你可能想尝试一些不同的选择。继续模板匹配,您可以只使用固定数量的方向(例如4),您可能会“足够接近”进行检测。但也可能有类似的图标,让你错误的检测。我会先尝试一下,因为这是一个简单的解决方案。你可以通过将模板中最近的方向匹配到一个尽可能远离它的佳能(同时仍然与该模板更紧密地对齐)来创建一个阈值,并检查模板匹配的结果。然后把它放大一点,在地图上试一下。有多少种可能的方向?如果有一个固定的数量(比如4),那么您可以使用四个不同的模板。如果有更高的数量,你可能想尝试一些不同的选择。继续模板匹配,您可以只使用固定数量的方向(例如4),您可能会“足够接近”进行检测。但也可能有类似的图标,让你错误的检测。我会先尝试一下,因为这是一个简单的解决方案。你可以通过将模板中最近的方向匹配到一个尽可能远离它的佳能(同时仍然与该模板更紧密地对齐)来创建一个阈值,并检查模板匹配的结果。然后把它长一点,在地图上试一下。