Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/clojure/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java hadoop 2.x中的openCV应用程序错误(OutOfMemoryError)_Java_Opencv_Hadoop_Amazon Web Services_Hipi - Fatal编程技术网

Java hadoop 2.x中的openCV应用程序错误(OutOfMemoryError)

Java hadoop 2.x中的openCV应用程序错误(OutOfMemoryError),java,opencv,hadoop,amazon-web-services,hipi,Java,Opencv,Hadoop,Amazon Web Services,Hipi,我想制作一个在hadoop上使用模板匹配的程序。我用hipi 但是我运行我的程序,我得到了错误“OutOfMemoryError”,如下所示 CvException[org.opencv.core.CvException:cv::Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: 错误:(-4)未能在函数中分配67737604字节 OutOfMemoryError] 如果我用少量图片进行测试,它在

我想制作一个在hadoop上使用模板匹配的程序。我用hipi

但是我运行我的程序,我得到了错误“OutOfMemoryError”,如下所示

CvException[org.opencv.core.CvException:cv::Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: 错误:(-4)未能在函数中分配67737604字节 OutOfMemoryError]

如果我用少量图片进行测试,它在本地pc和服务器pc上都能正常工作。如果我在本地pc上进行测试,它是为hadoop单机版安装的,有300张图片(大约300MB),它也能正常工作

但若我在服务器上测试了300张图片,它可以正常工作大约10~11张图片,然后调用类似的错误

如果您想查看我的代码,可以在github中查看我的代码


你能帮我一下吗?

我在用hadoop测试opencv时遇到问题。关于如何在hadoop程序中添加opencv本机库,您能帮助我吗。这是我的问题:我在用hadoop测试opencv时遇到了问题。关于如何在hadoop程序中添加opencv本机库,您能帮助我吗。这是我的问题: