Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/image-processing/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
基于OpenCV的特征向量计算_C_Image Processing_Opencv_Eigenvector - Fatal编程技术网

基于OpenCV的特征向量计算

基于OpenCV的特征向量计算,c,image-processing,opencv,eigenvector,C,Image Processing,Opencv,Eigenvector,我有一个矩阵A,表示图像像素强度的相似性。例如:考虑 10×10 < /代码>图像。在这种情况下,矩阵A的尺寸为100 x 100,元素A(i,j)的值在0到1之间,表示像素i到j在强度方面的相似性 我使用OpenCV进行图像处理,开发环境是Linux上的C 目标是计算矩阵A的特征向量,我使用了以下方法: static CvMat mat, *eigenVec, *eigenVal; static double A[100][100]={}, Ain1D[10000]={}; int cnt=0

我有一个矩阵A,表示图像像素强度的相似性。例如:考虑<代码> 10×10 < /代码>图像。在这种情况下,矩阵A的尺寸为100 x 100,元素A(i,j)的值在0到1之间,表示像素i到j在强度方面的相似性

我使用OpenCV进行图像处理,开发环境是Linux上的C

目标是计算矩阵A的特征向量,我使用了以下方法:

static CvMat mat, *eigenVec, *eigenVal;
static double A[100][100]={}, Ain1D[10000]={};
int cnt=0;

//Converting matrix A into a one dimensional array
//Reason: That is how cvMat requires it
for(i = 0;i < affnDim;i++){
  for(j = 0;j < affnDim;j++){
 Ain1D[cnt++] = A[i][j];
  }
}

mat = cvMat(100, 100, CV_32FC1, Ain1D); 

cvEigenVV(&mat, eigenVec, eigenVal, 1e-300);

for(i=0;i < 100;i++){
  val1 = cvmGet(eigenVal,i,0); //Fetching Eigen Value

  for(j=0;j < 100;j++){   
 matX[i][j] = cvmGet(eigenVec,i,j); //Fetching each component of Eigenvector i    
  }
}
我现在正在考虑使用它执行实浮点矩阵的奇异值分解,并可能产生特征向量。但在此之前,我想在这里问一下。我目前的做法有什么荒谬之处吗?我是否使用了正确的API,即正确的输入矩阵(我的矩阵A是浮点矩阵)

干杯

读者注意:这篇文章起初似乎与主题无关,但请参考上面评论中的讨论

下面是我尝试实现应用于中的图像像素的算法。我完全遵循了@Andriyev提到的:

Andrew Ng、Michael Jordan和Yair Weiss(2002年)。 关于谱聚类:分析和算法。 在T.Dieterich、S.Becker和Z.Ghahramani(编辑)中, 神经信息处理系统的进展14。麻省理工学院出版社

守则:

%# parameters to tune
SIGMA = 2e-3;       %# controls Gaussian kernel width
NUM_CLUSTERS = 4;   %# specify number of clusters

%% Loading and preparing a sample image
%# read RGB image, and make it smaller for fast processing
I0 = im2double(imread('house.png'));
I0 = imresize(I0, 0.1);
[r,c,~] = size(I0);

%# reshape into one row per-pixel: r*c-by-3
%# (with pixels traversed in columwise-order)
I = reshape(I0, [r*c 3]);

%% 1) Compute affinity matrix
%# for each pair of pixels, apply a Gaussian kernel
%# to obtain a measure of similarity
A = exp(-SIGMA * squareform(pdist(I,'euclidean')).^2);

%# and we plot the matrix obtained
imagesc(A)
axis xy; colorbar; colormap(hot)

%% 2) Compute the Laplacian matrix L
D = diag( 1 ./ sqrt(sum(A,2)) );
L = D*A*D;

%% 3) perform an eigen decomposition of the laplacian marix L
[V,d] = eig(L);

%# Sort the eigenvalues and the eigenvectors in descending order.
[d,order] = sort(real(diag(d)), 'descend');
V = V(:,order);

%# kepp only the largest k eigenvectors
%# In this case 4 vectors are enough to explain 99.999% of the variance
NUM_VECTORS = sum(cumsum(d)./sum(d) < 0.99999) + 1;
V = V(:, 1:NUM_VECTORS);

%% 4) renormalize rows of V to unit length
VV = bsxfun(@rdivide, V, sqrt(sum(V.^2,2)));

%% 5) cluster rows of VV using K-Means
opts = statset('MaxIter',100, 'Display','iter');
[clustIDX,clusters] = kmeans(VV, NUM_CLUSTERS, 'options',opts, ...
    'distance','sqEuclidean', 'EmptyAction','singleton');

%% 6) assign pixels to cluster and show the results
%# assign for each pixel the color of the cluster it belongs to
clr = lines(NUM_CLUSTERS);
J = reshape(clr(clustIDX,:), [r c 3]);

%# show results
figure('Name',sprintf('Clustering into K=%d clusters',NUM_CLUSTERS))
subplot(121), imshow(I0), title('original image')
subplot(122), imshow(J), title({'clustered pixels' '(color-coded classes)'})
以及相应的特征向量[长度为r*c=400的列]:

-0.0500    0.0572   -0.0112   -0.0200
-0.0500    0.0553    0.0275    0.0135
-0.0500    0.0560    0.0130    0.0009
-0.0500    0.0572   -0.0122   -0.0209
-0.0500    0.0570   -0.0101   -0.0191
-0.0500    0.0562   -0.0094   -0.0184
......

请注意,您在问题中没有提到上面执行的步骤(拉普拉斯矩阵,并规范化其行)

我建议这样做。作者实现了特征脸的人脸识别。在第4页,您可以看到他使用CVCalceiGenoObjects从图像生成特征向量。文中给出了计算所需的整个预处理步骤

这里有一个不是很有用的答案:

理论(或涂在纸上的数学)告诉你特征向量应该是什么?大约

另一个库告诉你特征向量应该是什么?理想情况下,像Mathematica或Maple这样的系统(可以被说服以任意精度计算)告诉你特征向量应该是什么?如果不是针对生产问题,至少针对测试规模的问题

我不是一个图像处理专家,所以我帮不了多少忙,但我花了很多时间和科学家在一起,经验告诉我,通过先做一些数学运算,在想为什么你会得到满地0之前,对应该得到的结果形成预期,可以避免很多眼泪和愤怒。当然,这可能是算法实现中的错误,也可能是精度损失或其他数值问题。但你还不知道,也不应该跟进这些调查

问候


Mark

在openCV中没有真正使用eig/svd,但是返回的特征值是否应该排序?是的,这是正确的。我刚刚列出了返回的前5个特征值,按大小排列(从大到小)。就符号而言,它们不是。但符号只是表示向量的方向,所以我认为特征值是可以的。只是关心特征向量。哦,忘了符号!根据文档,ε值为1e-15就足够了(您使用的是eps=1e-300)。这会导致问题吗?我们通常可以预期只有前几个最大的特征向量才能解释数据的大部分方差,这不是真的吗?嗯,我很想这么做,但显然我不懂MATLAB。我用高斯核来计算相似度,并参考Andrew Ng的谱聚类算法。请在这里找到。第2页有算法。算法的第1步提到了用于计算两个像素之间相似性的高斯核。我使用了Si、Sj的像素强度和分母的标准偏差,即sigma^2。在计算sigma时,我排除了像素I和j的强度。我对openCV一无所知,但看起来您正在将两个未初始化的指针(eigenVec和eigenVal)传递给cvEigenVV()。但也许你跳过了init代码,因为它太短了,看起来太棒了。是的,我只是跳过了问题中的拉普拉斯函数和规范化步骤,只是为了切中要害。好吧,现在也许我有一个很好的理由学习MATLAB。感谢您的指导和努力。事实上,我自己也在读关于内核PCA的主题,这个主题非常相似,我发现这是一个通过编码更好地理解它的机会。。这就是我喜欢MATLAB的原因之一;您可以相当快地实现这样的算法,而且只需几行代码!(与C语言编码相比)亲爱的Janusz,我目前正在从事一个类似的项目,在阅读了您的答案后,我查找了CVCalceiGenoObjects的文档。然而,当同时搜索openCV参考手册和O'Reilly-Learning openCV时,该函数不在其中。你知道它是否过时了吗?
1.0000
0.0014
0.0004
0.0002
-0.0500    0.0572   -0.0112   -0.0200
-0.0500    0.0553    0.0275    0.0135
-0.0500    0.0560    0.0130    0.0009
-0.0500    0.0572   -0.0122   -0.0209
-0.0500    0.0570   -0.0101   -0.0191
-0.0500    0.0562   -0.0094   -0.0184
......