Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/28.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux 带有Spark的Apache齐柏林飞艇配置_Linux_Ubuntu_Apache Spark_Apache Zeppelin - Fatal编程技术网

Linux 带有Spark的Apache齐柏林飞艇配置

Linux 带有Spark的Apache齐柏林飞艇配置,linux,ubuntu,apache-spark,apache-zeppelin,Linux,Ubuntu,Apache Spark,Apache Zeppelin,我一直在尝试用Spark 2.0配置ApacheZeppeling。我设法在linux操作系统上安装了它们,我在8080端口上设置了spark,在8082端口上设置了zeppelin服务器 在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为SPARK文件夹的位置 但是,当我尝试创建一个新节点时,没有任何东西能够正确编译。看起来我没有配置解释器,因为主页选项卡中缺少解释器选项卡 任何帮助都将不胜感激 编辑:即,当我试图运行齐柏林飞艇教程时,“将数据加载到

我一直在尝试用Spark 2.0配置ApacheZeppeling。我设法在linux操作系统上安装了它们,我在8080端口上设置了spark,在8082端口上设置了zeppelin服务器

在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为SPARK文件夹的位置

但是,当我尝试创建一个新节点时,没有任何东西能够正确编译。看起来我没有配置解释器,因为主页选项卡中缺少解释器选项卡

任何帮助都将不胜感激

编辑:即,当我试图运行齐柏林飞艇教程时,“将数据加载到表中”过程收到以下错误:

java.lang.ClassNotFoundException: org.apache.spark.repl.SparkCommandLine位于 java.net.URLClassLoader.findClass(URLClassLoader.java:381)位于 loadClass(ClassLoader.java:424)位于 sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)位于 loadClass(ClassLoader.java:357)位于 org.apache.zeppelin.spark.sparkinterpeter.open(sparkinterpeter.java:400) 在 org.apache.zeppelin.explorer.lazyopenexplorer.open(lazyopenexplorer.java:69) 在 org.apache.zeppelin.explorer.lazyOpenExplorer.explor(lazyOpenExplorer.java:93) 在 org.apache.zeppelin.explorer.remote.remoteexplorerserver$interpretajob.jobRun(remoteexplorerserver.java:341) 位于org.apache.zeppelin.scheduler.Job.run(Job.java:176) org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) 在 Executors$RunnableAdapter.call(Executors.java:511) 在java.util.concurrent.FutureTask.run(FutureTask.java:266)处 java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) 在 java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) 在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 运行(Thread.java:745)


我认为,如果不从中构建,就不可能使用spark 2.0 源代码,因为此版本发生了一些相对较大的更改

您可以克隆齐柏林飞艇git repo,并使用github自述文件中提到的spark 2.0配置文件进行构建


我试过了,效果很好。

它没有丢失。在右上角“匿名”下。另外,spark 2.7不存在。很抱歉,它是spark 2.0和hadoop 2.7。我知道你可以从anonymus下访问解释器选项卡,但我担心的是,如果它没有出现在主主页上,那就意味着在配置过程中出现了一些错误,比如在scala、spark中编译任何代码时,java等,它给出了一个错误。我尝试了你的方法,但目前我从源npm WARN Unmeted dependency(版本2.2.1)构建它时出现以下错误,而我当前的工作版本是3.5.1
rm-rf node_modules
inside
zeppelin web
应该可以解决npm问题