Java hadoop 2.x中的openCV应用程序错误(OutOfMemoryError)
我想制作一个在hadoop上使用模板匹配的程序。我用hipi 但是我运行我的程序,我得到了错误“OutOfMemoryError”,如下所示 CvException[org.opencv.core.CvException:cv::Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: 错误:(-4)未能在函数中分配67737604字节 OutOfMemoryError] 如果我用少量图片进行测试,它在本地pc和服务器pc上都能正常工作。如果我在本地pc上进行测试,它是为hadoop单机版安装的,有300张图片(大约300MB),它也能正常工作 但若我在服务器上测试了300张图片,它可以正常工作大约10~11张图片,然后调用类似的错误 如果您想查看我的代码,可以在github中查看我的代码Java hadoop 2.x中的openCV应用程序错误(OutOfMemoryError),java,opencv,hadoop,amazon-web-services,hipi,Java,Opencv,Hadoop,Amazon Web Services,Hipi,我想制作一个在hadoop上使用模板匹配的程序。我用hipi 但是我运行我的程序,我得到了错误“OutOfMemoryError”,如下所示 CvException[org.opencv.core.CvException:cv::Exception: /home/ubuntu/opencv/opencv-2.4.11/modules/core/src/alloc.cpp:52: 错误:(-4)未能在函数中分配67737604字节 OutOfMemoryError] 如果我用少量图片进行测试,它在
你能帮我一下吗?我在用hadoop测试opencv时遇到问题。关于如何在hadoop程序中添加opencv本机库,您能帮助我吗。这是我的问题:我在用hadoop测试opencv时遇到了问题。关于如何在hadoop程序中添加opencv本机库,您能帮助我吗。这是我的问题: