Java Mahout spark shell初始作业未接受任何资源

Java Mahout spark shell初始作业未接受任何资源,java,scala,apache-spark,mahout,Java,Scala,Apache Spark,Mahout,我只是在Mahout和Spark中启动,并尝试在Mahout的页面上运行此链接的示例: 一切似乎都启动了,但当我尝试运行follow命令时,它返回以下错误: val y = drmData.collect(::, 4) [第0阶段:>(0) +0)/2]15/09/26 18:38:09警告TaskSchedulerImpl:初始作业未接受任何资源;检查集群UI以确保 工人已登记并拥有足够的资源 有人能帮我吗 我的环境是: export JAVA_HOME=/usr/lib/jvm/java

我只是在Mahout和Spark中启动,并尝试在Mahout的页面上运行此链接的示例:

一切似乎都启动了,但当我尝试运行follow命令时,它返回以下错误:

val y = drmData.collect(::, 4)
[第0阶段:>(0) +0)/2]15/09/26 18:38:09警告TaskSchedulerImpl:初始作业未接受任何资源;检查集群UI以确保 工人已登记并拥有足够的资源

有人能帮我吗

我的环境是:

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64
export MAHOUT_HOME=/home/celso/Downloads/mahout/mahout
export SPARK_HOME=/home/celso/Downloads/spark-1.4.1
export MASTER=spark://celso-VirtualBox:7077

我也尝试将MAHOUT_LOCAL设置为true。

MAHOUT 0.11.x Spark外壳尚未与Spark 1.4.1兼容

最新版本Mahout 0.11.0需要Spark 1.3.x


Mahout 0.10.2与Spark 1.2.x及更早版本兼容

Mahout 0.11.x Spark外壳尚未与Spark 1.4.1兼容

最新版本Mahout 0.11.0需要Spark 1.3.x


Mahout 0.10.2与Spark 1.2.x及更早版本兼容

我只是让这个例子起作用了

我刚刚将环境变量
MASTER
设置为
local

export MASTER=local 
intead of

export MASTER=spark://hadoopvm:7077

这个例子奏效了

我只是让这个例子起作用了

我刚刚将环境变量
MASTER
设置为
local

export MASTER=local 
intead of

export MASTER=spark://hadoopvm:7077

这个例子奏效了

你是如何启动你的shell的?我确实遵循了链接上的教程,首先在spark_主页上使用sbin/start-all.sh启动spark,然后在mahout的主页上运行sbin/mahout-spark-shell你是如何启动你的shell的?我确实遵循了链接上的教程,首先在spark_主页上使用sbin/start-all.sh启动spark,然后在mahout的家中,我运行了sbin/mahout spark shellI,我用mahout-0.11和spark 1.3.1再次设置了我的环境,但没有成功。还有其他提示吗?您已将SPARK_HOME变量更改为指向SPARK 1.3.1安装,对吗?你现在犯了什么错误?顺便提一下我想你指的是当地人而不是当地人。。。你可以取消设置。我更正了帖子,变量名是MAHOUT_LOCAL。我在第一篇文章中得到的错误是相同的,初始作业没有接受任何资源。这可能与linux上的可用内存有关吗?这个环境是在Ubuntu下运行的,内存为2Gb。我用mahout-0.11和spark 1.3.1再次设置了我的环境,但没有成功。还有其他提示吗?您已将SPARK_HOME变量更改为指向SPARK 1.3.1安装,对吗?你现在犯了什么错误?顺便提一下我想你指的是当地人而不是当地人。。。你可以取消设置。我更正了帖子,变量名是MAHOUT_LOCAL。我在第一篇文章中得到的错误是相同的,初始作业没有接受任何资源。这可能与linux上的可用内存有关吗?该环境在Ubuntu下运行,内存为2Gb。