C++ OpenCV-消除凸性缺陷(Python到C+;+;)

C++ OpenCV-消除凸性缺陷(Python到C+;+;),c++,python,opencv,computer-vision,sudoku,C++,Python,Opencv,Computer Vision,Sudoku,我把代码从Python的一个答案移植到C++,希望有人能帮我做,同时也澄清了这个过程的一部分。 我说的答案是- 我正处于对质心进行排序的步骤(在最后一个质心之前)。问题代码执行这个任务,但我不确定如何在不使代码长的情况下使用C++来获得相同的结果。 centroids = np.array(centroids,dtype = np.float32) c = centroids.reshape((100,2)) c2 = c[np.argsort(c[:,1])] b = np.vstack([

我把代码从Python的一个答案移植到C++,希望有人能帮我做,同时也澄清了这个过程的一部分。 我说的答案是-

我正处于对质心进行排序的步骤(在最后一个质心之前)。问题代码执行这个任务,但我不确定如何在不使代码长的情况下使用C++来获得相同的结果。
centroids = np.array(centroids,dtype = np.float32)
c = centroids.reshape((100,2))
c2 = c[np.argsort(c[:,1])]

b = np.vstack([c2[i*10:(i+1)*10][np.argsort(c2[i*10:(i+1)*10,0])] for i in xrange(10)])
bm = b.reshape((10,10,2))
我希望实现这一目标的方法是:

  • 初始质心数组已按某种方式排序(y值最高的点的索引为0,最低的点的索引为99),因此我想将其反转,使数组从上到下排序

  • 之后,只需对行进行排序(按x轴对10行10列进行排序)

我相信这就是所有必须要做的事情,但我找不到一种优雅的方式来编写代码(不使用vector和手动排序)

我也不太理解最后一个步骤,图像被扭曲了(很难移植),所以如果有人能提供一些关于这部分的内容和可能的C++的见解,我会很感激。
output = np.zeros((450,450,3),np.uint8)
for i,j in enumerate(b):
    ri = i/10
    ci = i%10
    if ci != 9 and ri!=9:
        src = bm[ri:ri+2, ci:ci+2 , :].reshape((4,2))
        dst = np.array( [ [ci*50,ri*50],[(ci+1)*50-1,ri*50],[ci*50,(ri+1)*50-1],[(ci+1)*50-1,(ri+1)*50-1] ], np.float32)
        retval = cv2.getPerspectiveTransform(src,dst)
        warp = cv2.warpPerspective(res2,retval,(450,450))
        output[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1] = warp[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1].copy()
我只是学习OpenCV和C++,我知道这可能是微不足道的,所以我希望有人能腾出时间,提供一些基本的答案。 编辑

根据要求,这是代码。我已经处理了第一部分,仍然不确定这是否是正确的方法

#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);

for (int i = 0; i < contours.size(); i++) {
    vector<cv::Point> contour = contours.at(i);
    Moments mom = moments(contour);
    cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
    centroids.push_back(center);
}

std::reverse(centroids.begin(), centroids.end());

struct {
    bool operator()(const cv::Point p1, const cv::Point p2) {
        return p1.x < p2.x;
    }
} pointXGreater;

for (int i = 0; i < 10; i++) {
    std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}

Mat b(centroids);
Mat bm = b.reshape(10, 10);
#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i
在用索引在图像上绘制质心后,似乎它们是正确的

现在,我被困在试图破译Python代码的最后一部分,而不是真正了解它的功能。到目前为止,我得到了这个:

Mat output = Mat::zeros(450, 450, CV_8U);

for (int i = 0; i < centroids.size(); i++) {
    cv::Point j = centroids.at(i);

    int ri = i / 10;
    int ci = i % 10;

    if (ci != 9 && ri != 9) {
        Mat src = ??
        Mat dst = ??
        Mat retval = getPerspectiveTransform(src, dst);
        Mat warp;
        warpPerspective(res2, warp, retval, (450, 450));
        Mat output = ??
    }
}
Mat输出=Mat::零(450450,CV_8U);
对于(int i=0;i

我将继续尝试理解它,但我非常感谢您的帮助,因为这种Python语法不是很友好,特别是当您不知道正在做什么时。

经过一段时间的讨论后,我想到了这一点(似乎有效)

#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i
经过一段时间的头痛之后,我想到了这个(似乎有效)

#pragma标记纠正缺陷
findContours(分辨率、等高线、重建列表、链近似值和简单值);
矢量质心;
质心保留区(100);
对于(int i=0;i#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);

for (int i = 0; i < contours.size(); i++) {
    vector<cv::Point> contour = contours.at(i);
    Moments mom = moments(contour);
    cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
    centroids.push_back(center);
}

std::reverse(centroids.begin(), centroids.end());

struct {
    bool operator()(const cv::Point p1, const cv::Point p2) {
        return p1.x < p2.x;
    }
} pointXGreater;

for (int i = 0; i < 10; i++) {
    std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}

Mat bm = Mat(centroids);
bm = bm.reshape(2, 10);

Mat output(450, 450, CV_8UC3, CV_RGB(1, 1, 1));

for (int i = 0; i < centroids.size(); i++) {
    int ri = i / 10;
    int ci = i % 10;

    if (ci != 9 && ri != 9) {
        cv::Point2f src[4];
        src[0] = cv::Point2f(bm.at<cv::Point>(ri, ci).x, bm.at<cv::Point>(ri, ci).y);
        src[1] = cv::Point2f(bm.at<cv::Point>(ri, ci + 1).x, bm.at<cv::Point>(ri, ci + 1).y);
        src[2] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci).x, bm.at<cv::Point>(ri + 1, ci).y);
        src[3] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci + 1).x, bm.at<cv::Point>(ri + 1, ci + 1).y);

        cv::Point2f dst[4];
        dst[0] = cv::Point2f(ci * 50, ri * 50);
        dst[1] = cv::Point2f((ci + 1) * 50 - 1, ri * 50);
        dst[2] = cv::Point2f(ci * 50, (ri + 1) * 50 - 1);
        dst[3] = cv::Point2f((ci + 1) * 50 - 1, (ri + 1) * 50 - 1);

        Mat retval = getPerspectiveTransform(src, dst);
        Mat warp;
        warpPerspective(res2, warp, retval, cv::Size(450, 450));

        for (int j = ri * 50; j < (ri + 1) * 50 - 1; j++) {
            for (int k = ci * 50; k < (ci + 1) * 50 - 1; k++) {
                output.at<Vec3b>(j, k) = warp.at<Vec3b>(j, k);
            }
        }
    }
}