C++ OpenCV-消除凸性缺陷(Python到C+;+;)
我把代码从Python的一个答案移植到C++,希望有人能帮我做,同时也澄清了这个过程的一部分。 我说的答案是- 我正处于对质心进行排序的步骤(在最后一个质心之前)。问题代码执行这个任务,但我不确定如何在不使代码长的情况下使用C++来获得相同的结果。C++ OpenCV-消除凸性缺陷(Python到C+;+;),c++,python,opencv,computer-vision,sudoku,C++,Python,Opencv,Computer Vision,Sudoku,我把代码从Python的一个答案移植到C++,希望有人能帮我做,同时也澄清了这个过程的一部分。 我说的答案是- 我正处于对质心进行排序的步骤(在最后一个质心之前)。问题代码执行这个任务,但我不确定如何在不使代码长的情况下使用C++来获得相同的结果。 centroids = np.array(centroids,dtype = np.float32) c = centroids.reshape((100,2)) c2 = c[np.argsort(c[:,1])] b = np.vstack([
centroids = np.array(centroids,dtype = np.float32)
c = centroids.reshape((100,2))
c2 = c[np.argsort(c[:,1])]
b = np.vstack([c2[i*10:(i+1)*10][np.argsort(c2[i*10:(i+1)*10,0])] for i in xrange(10)])
bm = b.reshape((10,10,2))
我希望实现这一目标的方法是:
- 初始质心数组已按某种方式排序(y值最高的点的索引为0,最低的点的索引为99),因此我想将其反转,使数组从上到下排序
- 之后,只需对行进行排序(按x轴对10行10列进行排序)
output = np.zeros((450,450,3),np.uint8)
for i,j in enumerate(b):
ri = i/10
ci = i%10
if ci != 9 and ri!=9:
src = bm[ri:ri+2, ci:ci+2 , :].reshape((4,2))
dst = np.array( [ [ci*50,ri*50],[(ci+1)*50-1,ri*50],[ci*50,(ri+1)*50-1],[(ci+1)*50-1,(ri+1)*50-1] ], np.float32)
retval = cv2.getPerspectiveTransform(src,dst)
warp = cv2.warpPerspective(res2,retval,(450,450))
output[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1] = warp[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1].copy()
我只是学习OpenCV和C++,我知道这可能是微不足道的,所以我希望有人能腾出时间,提供一些基本的答案。
编辑
根据要求,这是代码。我已经处理了第一部分,仍然不确定这是否是正确的方法
#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);
for (int i = 0; i < contours.size(); i++) {
vector<cv::Point> contour = contours.at(i);
Moments mom = moments(contour);
cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
centroids.push_back(center);
}
std::reverse(centroids.begin(), centroids.end());
struct {
bool operator()(const cv::Point p1, const cv::Point p2) {
return p1.x < p2.x;
}
} pointXGreater;
for (int i = 0; i < 10; i++) {
std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}
Mat b(centroids);
Mat bm = b.reshape(10, 10);
#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i
在用索引在图像上绘制质心后,似乎它们是正确的
现在,我被困在试图破译Python代码的最后一部分,而不是真正了解它的功能。到目前为止,我得到了这个:
Mat output = Mat::zeros(450, 450, CV_8U);
for (int i = 0; i < centroids.size(); i++) {
cv::Point j = centroids.at(i);
int ri = i / 10;
int ci = i % 10;
if (ci != 9 && ri != 9) {
Mat src = ??
Mat dst = ??
Mat retval = getPerspectiveTransform(src, dst);
Mat warp;
warpPerspective(res2, warp, retval, (450, 450));
Mat output = ??
}
}
Mat输出=Mat::零(450450,CV_8U);
对于(int i=0;i
我将继续尝试理解它,但我非常感谢您的帮助,因为这种Python语法不是很友好,特别是当您不知道正在做什么时。经过一段时间的讨论后,我想到了这一点(似乎有效)
#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i
经过一段时间的头痛之后,我想到了这个(似乎有效)
#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);
for (int i = 0; i < contours.size(); i++) {
vector<cv::Point> contour = contours.at(i);
Moments mom = moments(contour);
cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
centroids.push_back(center);
}
std::reverse(centroids.begin(), centroids.end());
struct {
bool operator()(const cv::Point p1, const cv::Point p2) {
return p1.x < p2.x;
}
} pointXGreater;
for (int i = 0; i < 10; i++) {
std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}
Mat bm = Mat(centroids);
bm = bm.reshape(2, 10);
Mat output(450, 450, CV_8UC3, CV_RGB(1, 1, 1));
for (int i = 0; i < centroids.size(); i++) {
int ri = i / 10;
int ci = i % 10;
if (ci != 9 && ri != 9) {
cv::Point2f src[4];
src[0] = cv::Point2f(bm.at<cv::Point>(ri, ci).x, bm.at<cv::Point>(ri, ci).y);
src[1] = cv::Point2f(bm.at<cv::Point>(ri, ci + 1).x, bm.at<cv::Point>(ri, ci + 1).y);
src[2] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci).x, bm.at<cv::Point>(ri + 1, ci).y);
src[3] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci + 1).x, bm.at<cv::Point>(ri + 1, ci + 1).y);
cv::Point2f dst[4];
dst[0] = cv::Point2f(ci * 50, ri * 50);
dst[1] = cv::Point2f((ci + 1) * 50 - 1, ri * 50);
dst[2] = cv::Point2f(ci * 50, (ri + 1) * 50 - 1);
dst[3] = cv::Point2f((ci + 1) * 50 - 1, (ri + 1) * 50 - 1);
Mat retval = getPerspectiveTransform(src, dst);
Mat warp;
warpPerspective(res2, warp, retval, cv::Size(450, 450));
for (int j = ri * 50; j < (ri + 1) * 50 - 1; j++) {
for (int k = ci * 50; k < (ci + 1) * 50 - 1; k++) {
output.at<Vec3b>(j, k) = warp.at<Vec3b>(j, k);
}
}
}
}