在spark中执行sbt包时出现Java内存问题

在spark中执行sbt包时出现Java内存问题,java,sbt,apache-spark,Java,Sbt,Apache Spark,你能为我提供以下问题的解决方案吗 hduser@hduser-VirtualBox:/usr/local/spark1/project$sbt包 OpenJDK 64位服务器VM警告:信息:os::提交_内存(0x00000000A8000001073741824,0)失败;错误=“无法分配内存”(errno=12) # 内存不足,Java运行时环境无法继续。 本机内存分配(malloc)无法分配1073741824字节以提交保留内存。 包含详细信息的错误报告文件另存为: /usr/local/

你能为我提供以下问题的解决方案吗

hduser@hduser-VirtualBox:/usr/local/spark1/project$sbt包 OpenJDK 64位服务器VM警告:信息:os::提交_内存(0x00000000A8000001073741824,0)失败;错误=“无法分配内存”(errno=12) #

内存不足,Java运行时环境无法继续。 本机内存分配(malloc)无法分配1073741824字节以提交保留内存。 包含详细信息的错误报告文件另存为: /usr/local/spark-1.1.0-bin-hadoop1/project/hs\u err\u pid26824.log hduser@hduser-VirtualBox:/usr/local/spark1/project$java-version java版本“1.7.0_65” OpenJDK运行时环境(IcedTea 2.5.3)(7u71-2.5.3-0ubuntu0.14.04.1)
OpenJDK 64位服务器VM(构建24.65-b04,混合模式)

看起来您正在尝试使用相当大的Java堆大小(1GB)运行。我会从减少这个开始。如果你真的需要这么多,你可能会遇到麻烦:看起来你的机器没有足够的内存来分配给你