Linux 带有Spark的Apache齐柏林飞艇配置
我一直在尝试用Spark 2.0配置ApacheZeppeling。我设法在linux操作系统上安装了它们,我在8080端口上设置了spark,在8082端口上设置了zeppelin服务器 在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为SPARK文件夹的位置 但是,当我尝试创建一个新节点时,没有任何东西能够正确编译。看起来我没有配置解释器,因为主页选项卡中缺少解释器选项卡 任何帮助都将不胜感激 编辑:即,当我试图运行齐柏林飞艇教程时,“将数据加载到表中”过程收到以下错误: java.lang.ClassNotFoundException: org.apache.spark.repl.SparkCommandLine位于 java.net.URLClassLoader.findClass(URLClassLoader.java:381)位于 loadClass(ClassLoader.java:424)位于 sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)位于 loadClass(ClassLoader.java:357)位于 org.apache.zeppelin.spark.sparkinterpeter.open(sparkinterpeter.java:400) 在 org.apache.zeppelin.explorer.lazyopenexplorer.open(lazyopenexplorer.java:69) 在 org.apache.zeppelin.explorer.lazyOpenExplorer.explor(lazyOpenExplorer.java:93) 在 org.apache.zeppelin.explorer.remote.remoteexplorerserver$interpretajob.jobRun(remoteexplorerserver.java:341) 位于org.apache.zeppelin.scheduler.Job.run(Job.java:176) org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) 在 Executors$RunnableAdapter.call(Executors.java:511) 在java.util.concurrent.FutureTask.run(FutureTask.java:266)处 java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) 在 java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) 在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 运行(Thread.java:745)Linux 带有Spark的Apache齐柏林飞艇配置,linux,ubuntu,apache-spark,apache-zeppelin,Linux,Ubuntu,Apache Spark,Apache Zeppelin,我一直在尝试用Spark 2.0配置ApacheZeppeling。我设法在linux操作系统上安装了它们,我在8080端口上设置了spark,在8082端口上设置了zeppelin服务器 在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为SPARK文件夹的位置 但是,当我尝试创建一个新节点时,没有任何东西能够正确编译。看起来我没有配置解释器,因为主页选项卡中缺少解释器选项卡 任何帮助都将不胜感激 编辑:即,当我试图运行齐柏林飞艇教程时,“将数据加载到
我认为,如果不从中构建,就不可能使用spark 2.0 源代码,因为此版本发生了一些相对较大的更改 您可以克隆齐柏林飞艇git repo,并使用github自述文件中提到的spark 2.0配置文件进行构建
我试过了,效果很好。它没有丢失。在右上角“匿名”下。另外,spark 2.7不存在。很抱歉,它是spark 2.0和hadoop 2.7。我知道你可以从anonymus下访问解释器选项卡,但我担心的是,如果它没有出现在主主页上,那就意味着在配置过程中出现了一些错误,比如在scala、spark中编译任何代码时,java等,它给出了一个错误。我尝试了你的方法,但目前我从源npm WARN Unmeted dependency(版本2.2.1)构建它时出现以下错误,而我当前的工作版本是3.5.1
rm-rf node_modules
insidezeppelin web
应该可以解决npm问题