Java 错误Livy Spark Server 3.9

Java 错误Livy Spark Server 3.9,java,hadoop,apache-spark,bigdata,hue,Java,Hadoop,Apache Spark,Bigdata,Hue,我用HDP2.3在一个由5台主机组成的集群上安装了hue 3.9。我的Ambari版本是2.1.2 问题在于色调初始设置屏幕显示: Spark如果没有正在运行的Livy Spark服务器,应用程序将无法运行 早些时候出现了几个问题,但我必须解决它们 遵循此线程和此web,我尝试了几种方法,但当我使用root用户启动livy spark时,我得到以下错误: [root@m1 bin]# /usr/local/hue/build/env/bin/hue livy_server SLF4J: Clas

我用HDP2.3在一个由5台主机组成的集群上安装了hue 3.9。我的Ambari版本是2.1.2

问题在于色调初始设置屏幕显示:

Spark如果没有正在运行的Livy Spark服务器,应用程序将无法运行

早些时候出现了几个问题,但我必须解决它们

遵循此线程和此web,我尝试了几种方法,但当我使用root用户启动livy spark时,我得到以下错误:

[root@m1 bin]# /usr/local/hue/build/env/bin/hue livy_server
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hue/apps/spark/java-lib/livy-assembly.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/2.3.2.0-2950/hadoop/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
Failed to run spark-submit executable: java.io.IOException: Unable to determing spark-submit version [1]:
如果我执行
spark submit
to/usr/local/hue/build/env/bin/,似乎没有错误,它会显示命令的选项。并且
spark submit--version
命令正确显示spark的版本(1.4.1)。 有人能帮我吗


感谢您并问候

您是否尝试过将路径更新为指向/usr/local/hue/build/env/bin/?比如

# export PATH="$PATH:/usr/local/hue/build/env/bin/"
# /usr/local/hue/build/env/bin/hue livy_server

您是否尝试过将路径更新为指向/usr/local/hue/build/env/bin/?比如

# export PATH="$PATH:/usr/local/hue/build/env/bin/"
# /usr/local/hue/build/env/bin/hue livy_server

谢谢你的回复。是的,我已经设置了该目录的路径,但是没有工作。谢谢你的回复。是的,我已设置了该目录的路径,但不起作用。您找到解决方案了吗?找到解决方案了吗?