C++ C+;的内存不足错误+;可执行
我试图调试一个奇怪的内存不足异常。我有一个C++可执行文件,除其他之外,使用OpenCV并检查两个图像的结构相似性。 代码: } 我的矩阵很大-3500 x 2500。我有一个32位RHEL5和4GB内存。 当我从命令行运行此可执行文件时,它运行良好。 但当我通过apache commons Executor()从Java程序中调用这个可执行文件时,作为一个异步进程,它抛出了一个内存不足异常。我还试着在valgrind下运行这个程序,它抛出了同样的内存不足异常 这个函数被调用了相当多的次数(大约2000次)。在valgrind下运行并同时使用top监视内存使用情况时,我发现每次执行此函数后,占用的物理内存不断增加,最终导致OutOfMemory异常。但在正常运行时,每次执行此函数后,内存消耗都会恢复正常。这几乎让我得出结论,不知何故,当在valgrind下运行时,函数堆栈仍然存在,而没有得到正确的释放 是什么导致了这种行为C++ C+;的内存不足错误+;可执行,c++,opencv,out-of-memory,valgrind,C++,Opencv,Out Of Memory,Valgrind,我试图调试一个奇怪的内存不足异常。我有一个C++可执行文件,除其他之外,使用OpenCV并检查两个图像的结构相似性。 代码: } 我的矩阵很大-3500 x 2500。我有一个32位RHEL5和4GB内存。 当我从命令行运行此可执行文件时,它运行良好。 但当我通过apache commons Executor()从Java程序中调用这个可执行文件时,作为一个异步进程,它抛出了一个内存不足异常。我还试着在valgrind下运行这个程序,它抛出了同样的内存不足异常 这个函数被调用了相当多的次数(大约
更新:Valgrind 3.9.0版不会抛出OutOfMemory异常。只有Valgrind 3.5.0版才有
Mat
是你自己的职业吗?如果是,您可以添加它吗?(这里有内存泄漏吗?)32位?听起来像是地址空间耗尽了。在这两种情况下,顶级内存使用量都在不断增加吗?我尝试将函数中的所有Mat对象更改为指针,并在函数结束时将其删除。当我这样做时,内存会在每次函数调用结束时被正确地取消分配。您不需要将cv::Mat
结构转换为指针,因为cv::Mat
会在超出范围时自动处理内存取消分配。既然我们已经澄清了这一点,也许你可以看看@fge的评论。我同意这一点,我认为这可能也是一个地址空间问题。嗯
Scalar getMSSIM( const Mat& i1, const Mat& i2)
{
const double C1 = 6.5025, C2 = 58.5225;
/***************************** INITS **********************************/
int d = CV_32F;
Mat I1, I2;
i1.convertTo(I1, d); // cannot calculate on one byte large values
i2.convertTo(I2, d);
Mat I2_2 = I2.mul(I2); // I2^2
Mat I1_2 = I1.mul(I1); // I1^2
Mat I1_I2 = I1.mul(I2); // I1 * I2
/*************************** END INITS **********************************/
Mat mu1, mu2; // PRELIMINARY COMPUTING
GaussianBlur(I1, mu1, Size(11, 11), 1.5);
GaussianBlur(I2, mu2, Size(11, 11), 1.5);
Mat mu1_2 = mu1.mul(mu1);
Mat mu2_2 = mu2.mul(mu2);
Mat mu1_mu2 = mu1.mul(mu2);
Mat sigma1_2, sigma2_2, sigma12;
GaussianBlur(I1_2, sigma1_2, Size(11, 11), 1.5);
sigma1_2 -= mu1_2;
GaussianBlur(I2_2, sigma2_2, Size(11, 11), 1.5);
sigma2_2 -= mu2_2;
GaussianBlur(I1_I2, sigma12, Size(11, 11), 1.5);
sigma12 -= mu1_mu2;
///////////////////////////////// FORMULA ////////////////////////////////
Mat t1, t2, t3;
t1 = 2 * mu1_mu2 + C1;
t2 = 2 * sigma12 + C2;
t3 = t1.mul(t2); // t3 = ((2*mu1_mu2 + C1).*(2*sigma12 + C2))
t1 = mu1_2 + mu2_2 + C1;
t2 = sigma1_2 + sigma2_2 + C2;
t1 = t1.mul(t2); // t1 =((mu1_2 + mu2_2 + C1).*(sigma1_2 + sigma2_2 + C2))
Mat ssim_map;
divide(t3, t1, ssim_map); // ssim_map = t3./t1;
Scalar mssim = mean( ssim_map ); // mssim = average of ssim map
return mssim;