Java Mahout spark shell初始作业未接受任何资源
我只是在Mahout和Spark中启动,并尝试在Mahout的页面上运行此链接的示例: 一切似乎都启动了,但当我尝试运行follow命令时,它返回以下错误:Java Mahout spark shell初始作业未接受任何资源,java,scala,apache-spark,mahout,Java,Scala,Apache Spark,Mahout,我只是在Mahout和Spark中启动,并尝试在Mahout的页面上运行此链接的示例: 一切似乎都启动了,但当我尝试运行follow命令时,它返回以下错误: val y = drmData.collect(::, 4) [第0阶段:>(0) +0)/2]15/09/26 18:38:09警告TaskSchedulerImpl:初始作业未接受任何资源;检查集群UI以确保 工人已登记并拥有足够的资源 有人能帮我吗 我的环境是: export JAVA_HOME=/usr/lib/jvm/java
val y = drmData.collect(::, 4)
[第0阶段:>(0)
+0)/2]15/09/26 18:38:09警告TaskSchedulerImpl:初始作业未接受任何资源;检查集群UI以确保
工人已登记并拥有足够的资源
有人能帮我吗
我的环境是:
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64
export MAHOUT_HOME=/home/celso/Downloads/mahout/mahout
export SPARK_HOME=/home/celso/Downloads/spark-1.4.1
export MASTER=spark://celso-VirtualBox:7077
我也尝试将MAHOUT_LOCAL设置为true。MAHOUT 0.11.x Spark外壳尚未与Spark 1.4.1兼容 最新版本Mahout 0.11.0需要Spark 1.3.x
Mahout 0.10.2与Spark 1.2.x及更早版本兼容 Mahout 0.11.x Spark外壳尚未与Spark 1.4.1兼容 最新版本Mahout 0.11.0需要Spark 1.3.x
Mahout 0.10.2与Spark 1.2.x及更早版本兼容 我只是让这个例子起作用了 我刚刚将环境变量
MASTER
设置为local
:
export MASTER=local
intead of
export MASTER=spark://hadoopvm:7077
这个例子奏效了 我只是让这个例子起作用了 我刚刚将环境变量
MASTER
设置为local
:
export MASTER=local
intead of
export MASTER=spark://hadoopvm:7077
这个例子奏效了 你是如何启动你的shell的?我确实遵循了链接上的教程,首先在spark_主页上使用sbin/start-all.sh启动spark,然后在mahout的主页上运行sbin/mahout-spark-shell你是如何启动你的shell的?我确实遵循了链接上的教程,首先在spark_主页上使用sbin/start-all.sh启动spark,然后在mahout的家中,我运行了sbin/mahout spark shellI,我用mahout-0.11和spark 1.3.1再次设置了我的环境,但没有成功。还有其他提示吗?您已将SPARK_HOME变量更改为指向SPARK 1.3.1安装,对吗?你现在犯了什么错误?顺便提一下我想你指的是当地人而不是当地人。。。你可以取消设置。我更正了帖子,变量名是MAHOUT_LOCAL。我在第一篇文章中得到的错误是相同的,初始作业没有接受任何资源。这可能与linux上的可用内存有关吗?这个环境是在Ubuntu下运行的,内存为2Gb。我用mahout-0.11和spark 1.3.1再次设置了我的环境,但没有成功。还有其他提示吗?您已将SPARK_HOME变量更改为指向SPARK 1.3.1安装,对吗?你现在犯了什么错误?顺便提一下我想你指的是当地人而不是当地人。。。你可以取消设置。我更正了帖子,变量名是MAHOUT_LOCAL。我在第一篇文章中得到的错误是相同的,初始作业没有接受任何资源。这可能与linux上的可用内存有关吗?该环境在Ubuntu下运行,内存为2Gb。