Java 构建spark时内存问题
我已经在Ubuntu12.o4客户端操作系统上安装了Scala、sbt和Hadoop1.0.3。参考link-,我尝试构建Spark,但得到了与保留空间相关的错误 以下是我尝试运行的内容:Java 构建spark时内存问题,java,scala,sbt,apache-spark,Java,Scala,Sbt,Apache Spark,我已经在Ubuntu12.o4客户端操作系统上安装了Scala、sbt和Hadoop1.0.3。参考link-,我尝试构建Spark,但得到了与保留空间相关的错误 以下是我尝试运行的内容: hduser@vignesh-desktop:/usr/local/spark-1.1.0$ SPARK_HADOOP_VERSION=1.1.0 sbt/sbt assembly 输出时出现以下错误: Using /usr/lib/jvm/java-6-openjdk-i386/ as default J
hduser@vignesh-desktop:/usr/local/spark-1.1.0$ SPARK_HADOOP_VERSION=1.1.0 sbt/sbt assembly
输出时出现以下错误:
Using /usr/lib/jvm/java-6-openjdk-i386/ as default JAVA_HOME.
Note, this will be overridden by -java-home if it is set.
Error occurred during initialization of VM
Could not reserve enough space for object heap
Could not create the Java virtual machine.
我通过使用下面给出的sbt命令传递mem属性来解决这个问题(对于4gbram系统)
谢谢,您在终端中传递的确切命令是什么?您可以在-mem参数之后传递可用RAM的大小。(这正是命令)
SPARK_HADOOP_VERSION=1.1.0 sbt/sbt assembly -mem 1024