Maven sbt程序集错误-内存不足
我的最终目标是与spark一起运行iPython。我有一个Mac(El Capitan)和Anaconda、Spark 1.6.0、py4j 0.9和jdk 1.8.073 当我运行Maven sbt程序集错误-内存不足,maven,sbt,sbt-assembly,Maven,Sbt,Sbt Assembly,我的最终目标是与spark一起运行iPython。我有一个Mac(El Capitan)和Anaconda、Spark 1.6.0、py4j 0.9和jdk 1.8.073 当我运行sbt assembly时,我得到一个内存不足的错误。我试着设置SBT\u选项,但没有效果 $ echo $SBT_OPTS -Xmx2G -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:PermSize=256M -XX:MaxPermSize=
sbt assembly
时,我得到一个内存不足的错误。我试着设置SBT\u选项
,但没有效果
$ echo $SBT_OPTS
-Xmx2G -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:PermSize=256M -XX:MaxPermSize=1024M`
因此,我尝试使用maven进行安装
./make-distribution.sh --name custom-spark --tgz -Psparkr -Phadoop-2.4 -Phive -Phive-thriftserver -Pyarn
这对我也不起作用。我得到以下错误
[INFO] Spark Project Unsafe ............................... SUCCESS [ 9.739 s]
[INFO] Spark Project Core ................................. FAILURE [01:13 min]
.
.
.
[INFO] BUILD FAILURE
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 01:54 min
[INFO] Finished at: 2016-02-12T01:05:51-08:00
[INFO] Final Memory: 55M/685M
[INFO] ------------------------------------------------------------------------
[ERROR] Failed to execute goal org.codehaus.mojo:exec-maven-plugin:1.4.0:exec (sparkr-pkg) on project spark-core_2.10: Command execution failed. Process exited with an error: 127 (Exit value: 127) -> [Help 1]
我试图搜索错误127,但没有找到任何解决问题的方法。我想知道我是否有某种防火墙设置(一直在使用家庭网络)
任何帮助/指示都将不胜感激 我通过制作.sbt_config文件解决了这个问题,该文件包含
SBT_OPTS="-Xmx2G -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=2G -Xss2M"
我通过制作.sbt_配置文件解决了这个问题,该文件包含
SBT_OPTS="-Xmx2G -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=2G -Xss2M"