Android Opencv特性匹配+;单应

Android Opencv特性匹配+;单应,android,python,opencv3.0,opencv4android,homography,Android,Python,Opencv3.0,Opencv4android,Homography,我正在使用OpenCV进行对象检测演示。我使用Python遵循了OpenCV最初的文档“featurematching 2d+单应性”。我在代码中将“SIFT”改为“ORB” 当我得到单应坐标后,我应用了getPerspectiveTransform&warpPerspective来根据源图像裁剪和旋转图像 下面是我的透视python代码- size = img1.shape perspectiveM = cv2.getPerspectiveTransform(np.float32(dst),

我正在使用OpenCV进行对象检测演示。我使用Python遵循了OpenCV最初的文档“featurematching 2d+单应性”。我在代码中将“SIFT”改为“ORB”

当我得到单应坐标后,我应用了getPerspectiveTransform&warpPerspective来根据源图像裁剪和旋转图像

下面是我的透视python代码-

size = img1.shape

perspectiveM = cv2.getPerspectiveTransform(np.float32(dst),pts)

img_dst = cv2.warpPerspective(img2,perspectiveM,size)

plt.imshow(img3, 'gray'),plt.show()
它工作得很完美,但在某些情况下,它无法与它的确切来源保持一致。下面是源图像和场景图像-

这是我的实际“单应”输出-

我在移动平台(android)上使用python进行测试。我不明白我该怎么解决这个问题。我谷歌它,我发现我必须考虑相机校准,失真或分解单应性。 我读过这篇文章,不知怎么地理解了上面的概念。但是,我不知道如何实施这些措施/以获得准确的结果

我的python代码使用orb-

import numpy as np
import cv2
from matplotlib import pyplot as plt

FLANN_INDEX_LSH = 6

MIN_MATCH_COUNT = 6

img1 = cv2.imread('homo images/source.jpg',0)          # queryImage
img2 = cv2.imread('homo images/scene.jpg',0)          # trainImage

# Initiate ORB detector
sift = cv2.ORB_create()

# find the keypoints and descriptors with ORB
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)

# FLANN parameters
FLANN_INDEX_KDTREE = 0
index_params= dict(algorithm = FLANN_INDEX_LSH,
                   table_number = 6, # 12
                   key_size = 12,     # 20
                   multi_probe_level = 1) #2

search_params = dict(checks=100)   # or pass empty dictionary

flann = cv2.FlannBasedMatcher(index_params,search_params)

matches = flann.knnMatch(des1,des2,k=2)

# store all the good matches as per Lowe's ratio test.
good = []

# Need to draw only good matches, so create a mask
#matchesMask = [[0,0] for i in xrange(len(matches))]

# ratio test as per Lowe's paper
for m_n in matches:
    if len(m_n) != 2:
        continue
    (m,n) = m_n
    if m.distance < 0.9*n.distance:
        #matchesMask[i]=[1,0]
        good.append(m)

if len(good)>MIN_MATCH_COUNT:
    src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
    dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)

    M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0)
    matchesMask = mask.ravel().tolist()

    h,w = img1.shape
    pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
    dst = cv2.perspectiveTransform(pts,M)

    img2 = cv2.polylines(img2,[np.int32(dst)],True,255,3, cv2.LINE_AA)

else:
    print "Not enough matches are found - %d/%d" % (len(good),MIN_MATCH_COUNT)
    matchesMask = None

draw_params = dict(matchColor = (0,255,0),
                   singlePointColor = None,
                   matchesMask = matchesMask,
                   flags = 0)

img3 = cv2.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)

size = img1.shape

perspectiveM = cv2.getPerspectiveTransform(np.float32(dst),pts)

img_dst = cv2.warpPerspective(img2,perspectiveM,size)

plt.imshow(img3, 'gray'),plt.show()
将numpy导入为np
进口cv2
从matplotlib导入pyplot作为plt
法兰指数=6
最小匹配计数=6
img1=cv2.imread('homo images/source.jpg',0)#查询图像
img2=cv2.imread('homo images/scene.jpg',0)#trainImage
#启动球形探测器
sift=cv2.ORB_create()
#使用ORB查找关键点和描述符
kp1,des1=筛选、检测和计算(img1,无)
kp2,des2=筛选、检测和计算(img2,无)
#法兰参数
法兰索引KDTREE=0
索引参数=dict(算法=法兰索引),
表#编号=6,#12
钥匙尺寸=12,#20
多探头(水平=1)2
搜索参数=dict(checks=100)#或传递空字典
flann=cv2.FlannBasedMatcher(索引参数、搜索参数)
匹配=法兰N.knnMatch(des1、des2、k=2)
#根据Lowe比率测试存储所有良好匹配项。
好的=[]
#只需要绘制好的匹配,所以创建一个掩码
#matchesMask=[[0,0]表示xrange中的i(len(matches))]
#根据Lowe的论文进行比率测试
对于匹配中的m_n:
如果len(m_n)!=2:
持续
(m,n)=m_n
如果m.距离<0.9*n.距离:
#匹配任务[i]=[1,0]
好。追加(m)
如果长度(良好)>最小匹配计数:
src_pts=np.float32([kp1[m.queryIdx].pt代表m处于良好状态])。重塑(-1,1,2)
dst_pts=np.float32([kp2[m.trainIdx].pt代表m处于良好状态])。重塑(-1,1,2)
M、 掩模=cv2.findHomography(src_pts,dst_pts,cv2.RANSAC,5.0)
matchesMask=mask.ravel().tolist()
h、 w=img1.1形状
pts=np.float32([[0,0],[0,h-1],[w-1,h-1],[w-1,0]])。重塑(-1,1,2)
dst=cv2.透视变换(pts,M)
img2=cv2.多段线(img2[np.int32(dst)],真,255,3,cv2.线_AA)
其他:
打印“未找到足够的匹配-%d/%d”%(长度(良好),最小匹配计数)
matchesMask=None
绘制参数=dict(匹配颜色=(0255,0),
singlePointColor=无,
matchesMask=matchesMask,
标志=0)
img3=cv2.绘图匹配(img1、kp1、img2、kp2、良好、无、**绘图参数)
大小=img1.1形状
perspectiveM=cv2.getPerspectiveTransform(np.float32(dst),pts)
img_dst=cv2.透视图(img2,透视图,尺寸)
plt.imshow(img3,‘灰色’),plt.show()
您能否发布好(预期)/坏输出的示例?