为什么MATLAB和C++代码产生不同的结果? +,我尝试在C++中实现一个Matlab算法。p>

为什么MATLAB和C++代码产生不同的结果? +,我尝试在C++中实现一个Matlab算法。p>,c++,matlab,opencv,C++,Matlab,Opencv,这是matlab代码: p = 3; K = [3 4 5; 4 5 6; 7 8 9]; e = ones(p,1); K2 = K - (1/p)*K*ones(p) - 1/p + (1/p^2)*sum(K(:)) [V_K,D_K] = eig(K2); 这是使用opencv:的类似C++代码。 float data[] = {3, 4, 5, 4, 5, 6, 7, 8, 9}; cv::Mat m(3, 3, CV_

这是matlab代码:

p = 3;
K = [3 4 5; 4 5 6; 7 8 9];
e = ones(p,1);
K2 = K - (1/p)*K*ones(p) - 1/p + (1/p^2)*sum(K(:))
[V_K,D_K] = eig(K2);

这是使用opencv:

的类似C++代码。
float data[] = {3, 4, 5,
                4, 5, 6,
                7, 8, 9};
cv::Mat m(3, 3, CV_32F, data);
float p = K.rows;
cv::Mat CK = K - (1/p)*K*cv::Mat::ones(p,p,CV_32F) - 1/p + (1/std::pow(p,2))*cv::sum(K)[0];
cv::Mat eigenvalues(1,p,CK.type()), eigenvectors(p,p,CK.type());
cv::eigen(CK,eigenvalues,eigenvectors);
matlab代码打印:

CK =

4.3333    5.3333    6.3333
4.3333    5.3333    6.3333
4.3333    5.3333    6.3333

0.5774    0.6100   -0.1960
0.5774   -0.7604   -0.6799
0.5774    0.2230    0.7066

16.0000         0         0
      0   -0.0000         0
      0         0    0.0000
当C++代码产生:

CK=[4.3333335, 5.3333335, 6.3333335;
 4.3333335, 5.3333335, 6.3333335;
 4.333333, 5.333333, 6.333333]

eigenvectors=[0.53452265, 0.56521076, 0.62834883;
 -0.41672006, 0.8230716, -0.38587254;
 0.73527533, 0.05558794, -0.67548501]

eigenvalues=[17.417906;
 -0.33612049;
 -1.0817847]
如您所见,即使是CK!的值也完全不同!。为什么会发生这种情况,我如何避免

注意,我不能完全确定我的C++实现是正确的! 我发现和问题有关,但它们似乎有轻微的差异,而这里的错误是巨大的

更新:

我试着在评论和回答中遵循建议。不幸的是,提出的任何解决方案都没有解决这个问题。首先,我尝试使用具有浮点精度的特征库。这是使用Eigen::Map结构的代码,如下所述:

最后,我尝试使用cv2eigen函数,我认为Eigen::Map可能是错误的,如下所述:

正如你所注意到的:

它们都与Matlab结果不符:' 使用double和float是有区别的 使用Eigen::Map和cv2eigen之间没有区别 请注意,我不是Eigen方面的专家,我可能以错误的方式使用Eigen::EigenSolver

更新2:

这开始一团糟了!这是使用Amradillo的代码。请注意,A在C++中具有相同的K2 CK值:

说真的,这些图书馆怎么了?他们甚至不完全一致

输入矩阵是对称的,而你的不是。这就是为什么存在差异

我相信openCV不支持非对称矩阵的特征向量,您可能需要使用另一个库

更新:PCA主成分分析是一种特征向量分解,所以你可以这样做,但最好是使用一些特定的数学库,如EIGEN或ARMADILLO。

cv::EIGEN,输入矩阵是对称的,而你的不是。这就是为什么存在差异

我相信openCV不支持非对称矩阵的特征向量,您可能需要使用另一个库


更新:PCA主成分分析是一种特征向量分解,因此您可能可以这样做,但最好使用一些特定的数学库,如特征或犰狳。

您尝试过切换到双精度吗?看起来它可能是一个精确或舍入错误。我不确定你的C++实现是否正确,可能存在估计错误。哪个库是正确的?首先看特征值。@Bathsheba matlab代码是原始代码,所以它是正确的one@justHelloWorld-犰狳的回答是正确的+1.600e+01等于16。小特征值,如-4.010e-17、+3.435e-16,基本上为零。与零特征值对应的任何特征向量通常都是垃圾。垃圾取决于每个特征分解算法的性质。您是否尝试过切换到double?看起来它可能是一个精确或舍入错误。我不确定你的C++实现是否正确,可能存在估计错误。哪个库是正确的?首先看特征值。@Bathsheba matlab代码是原始代码,所以它是正确的one@justHelloWorld-犰狳的回答是正确的+1.600e+01等于16。小特征值,如-4.010e-17、+3.435e-16,基本上为零。与零特征值对应的任何特征向量通常都是垃圾。垃圾取决于每个特征分解算法的性质。另请参见犰狳中的和函数。eig_gen函数处理一般的非对称矩阵,而eig_sym则针对对称矩阵进行了优化。@justHelloWorldUpdated@justHelloWorld让我看得更远一点,但结果非常接近,因为你的特征值都很好,“有些特征向量是不同的。”AnderBiguri hbrerkere在问题评论中建议忽略与接近零的特征值相关的特征向量,因为它们是垃圾。在这种情况下,本征值和犰狳库的结果都是相同的,即使在某些奇怪的情况下,本征值的顺序是不同的。你同意吗?@justHelloWorld噢,该死,现在太早了。事实上,几乎为零的特征值的特征向量是垃圾。Armadillo和Eigen的结果都是正确的。另请参见Armadillo中的和函数。eig_gen函数处理一般的非对称矩阵,而eig_sym则针对对称矩阵进行了优化。@justHelloWorldUpdated@justHelloWorld让我看得更远一点,但结果非常接近,因为你的特征值都很好,“有些特征向量是不同的。”AnderBiguri hbrerkere在问题评论中建议忽略与接近零的特征值相关的特征向量,因为它们是垃圾。在这种情况下,即使是在
对于某些奇怪的情况,特征值的顺序是不同的。你同意吗?@justHelloWorld噢,该死,现在太早了。事实上,几乎为零的特征值的特征向量是垃圾。你在犰狳和艾根身上得到的结果都是正确的。
//in order to map OpenCV matrices to Eigen, they need to be continous
assert(CK.isContinuous());
Eigen::Map<Eigen::Matrix<float, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor>> CKEigenMapped (CK.ptr<float>(), CK.rows, CK.cols);
Eigen::Matrix<float, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor> CKEigen = CKEigenMapped;
Eigen::EigenSolver<Eigen::Matrix<float, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor>> es (CKEigen,true);
std::cout<<"Eigenvalues:"<<std::endl<< es.eigenvalues() << std::endl;
std::cout<<"Eigenvectors:"<<std::endl<< es.eigenvectors() << std::endl;
//Double precision
CK.convertTo(CK, CV_64F);
Eigen::Map<Eigen::Matrix<double, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor>> CKEigenMappedD (CK.ptr<double>(), CK.rows, CK.cols);
Eigen::Matrix<double, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor> CKEigenD = CKEigenMappedD;
Eigen::EigenSolver<Eigen::Matrix<double, Eigen::Dynamic, Eigen::Dynamic, Eigen::RowMajor>> esD (CKEigenD,true);
std::cout<<"Eigenvalues:"<<std::endl<< esD.eigenvalues() << std::endl;
std::cout<<"Eigenvectors:"<<std::endl<< esD.eigenvectors() << std::endl;
//Double precision, cv2eigen
Eigen::MatrixXd X=Eigen::MatrixXd(CK.rows,CK.cols);
cv2eigen(CK,X);
Eigen::EigenSolver<Eigen::MatrixXd> esDD (X,true);
std::cout<<"Eigenvalues:"<<std::endl<< esDD.eigenvalues() << std::endl;
std::cout<<"Eigenvectors:"<<std::endl<< esDD.eigenvectors() << std::endl;
Eigenvalues:
(-4.17233e-07,0)
          (16,0)
(-3.37175e-07,0)
Eigenvectors:
(-0.885296,0)   (0.57735,0)  (-0.88566,0)
 (0.328824,0)   (0.57735,0)  (0.277518,0)
 (0.328824,0)   (0.57735,0)  (0.372278,0)
Eigenvalues:
          (16,0)
  (8.9407e-08,0)
(-1.88417e-16,0)
Eigenvectors:
  (0.57735,0)  (0.480589,0)  (0.408248,0)
  (0.57735,0)  (0.480589,0) (-0.816497,0)
  (0.57735,0) (-0.733531,0)  (0.408248,0)
Eigenvalues:
          (16,0)
  (8.9407e-08,0)
(-1.88417e-16,0)
Eigenvectors:
  (0.57735,0)  (0.480589,0)  (0.408248,0)
  (0.57735,0)  (0.480589,0) (-0.816497,0)
  (0.57735,0) (-0.733531,0)  (0.408248,0)
arma::mat A(3,3);
A   << 4.333333333333333 << 5.333333333333333 << 6.333333333333333 <<arma::endr
    << 4.333333333333333 << 5.333333333333333 << 6.333333333333333 <<arma::endr
    << 4.333333333333333 << 5.333333333333333 << 6.333333333333333 <<arma::endr;
arma::cx_vec eigval;
arma::cx_mat eigvec;
eig_gen(eigval,eigvec,A);
std::cout<<"eigval="<<std::endl<<eigval<<std::endl<<"eigvec="<<std::endl<<eigvec<<std::endl;
eigval=
    (+1.600e+01,+0.000e+00)
    (-4.010e-17,+3.435e-16)
    (-4.010e-17,-3.435e-16)

eigvec=
    (+5.774e-01,+0.000e+00)    (-5.836e-02,+3.338e-01)    (-5.836e-02,-3.338e-01)
    (+5.774e-01,+0.000e+00)    (+7.174e-01,+0.000e+00)    (+7.174e-01,-0.000e+00)
    (+5.774e-01,+0.000e+00)    (-5.642e-01,-2.284e-01)    (-5.642e-01,+2.284e-01)