Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/rest/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 由于内存不足异常,Unirest获取大文件失败_Java_Rest_Unirest - Fatal编程技术网

Java 由于内存不足异常,Unirest获取大文件失败

Java 由于内存不足异常,Unirest获取大文件失败,java,rest,unirest,Java,Rest,Unirest,我正在使用unirest从服务器执行get操作。我的问题是,当下载一个大文件时,操作失败,出现内存不足异常 HttpResponse<InputStream> responseGet = Unirest.get("http://localhost:8080/BigDataTEst") .header("content-type", "*/*") .asBinary(); HttpResponse responseGet=Unirest.get

我正在使用unirest从服务器执行get操作。我的问题是,当下载一个大文件时,操作失败,出现内存不足异常

HttpResponse<InputStream> responseGet = Unirest.get("http://localhost:8080/BigDataTEst")
        .header("content-type", "*/*")
        .asBinary();    
HttpResponse responseGet=Unirest.get(“http://localhost:8080/BigDataTEst")
.header(“内容类型”,“*/*”)
.asBinary();

有没有办法使用unirest解决此问题?

在哪个JRE版本上运行应用程序

当我使用Unirest时,对于大文件(超过100MB),我也遇到了同样的问题(堆空间/内存不足错误)。问题在于Apache Http组件库(它正是Apache Http组件在后台使用的Arrays.copyOf方法)

当我开始在JRE 8 x64上测试它时,问题就消失了(我怀疑copyOf的实现已经改变了或者类似的东西)

因此,我建议尝试不同的JRE,或者您可以始终使用Apache Commons IO和
FileUtils.copyURLToFile