Apache spark 如何正确安装齐柏林飞艇和装载PySpark?

Apache spark 如何正确安装齐柏林飞艇和装载PySpark?,apache-spark,pyspark,apache-zeppelin,Apache Spark,Pyspark,Apache Zeppelin,首先,下载并解压缩.tgz tar xvf zeppelin-0.7.3-bin-all.tgz 第二,修改主变量 vi ~/.bashrc 添加 导出SPARK_HOME=/HOME/miguel/SPARK-2.3.0-bin-hadoop2.7/ 第三,cmd上的飞艇午餐 bin/zeppelin-daemon.sh start 第四,尝试执行pyspark %pyspark print("Hello") 我得到了这个错误: java.lang.ClassNotFoundExcep

首先,下载并解压缩.tgz

tar xvf zeppelin-0.7.3-bin-all.tgz
第二,修改主变量

vi ~/.bashrc
添加

导出SPARK_HOME=/HOME/miguel/SPARK-2.3.0-bin-hadoop2.7/

第三,cmd上的飞艇午餐

bin/zeppelin-daemon.sh start
第四,尝试执行pyspark

%pyspark
print("Hello")
我得到了这个错误:

java.lang.ClassNotFoundException: org.apache.spark.ui.jobs.JobProgressListener
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    at org.apache.zeppelin.spark.SparkInterpreter.setupListeners(SparkInterpreter.java:170)
    at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:148)
    at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:843)
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70)
    at org.apache.zeppelin.spark.PySparkInterpreter.getSparkInterpreter(PySparkInterpreter.java:565)
    at org.apache.zeppelin.spark.PySparkInterpreter.createGatewayServerAndStartScript(PySparkInterpreter.java:209)
    at org.apache.zeppelin.spark.PySparkInterpreter.open(PySparkInterpreter.java:162)
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70)
    at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:491)
    at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
    at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    at java.lang.Thread.run(Thread.java:748)

齐柏林飞艇0.7.3不支持spark 2.3。spark 2.3由即将发布的齐柏林飞艇0.8支持

齐柏林飞艇0.7.3不支持spark 2.3。spark 2.3由齐柏林飞艇0.8支持,即将发布

谢谢!我不知道我以为齐柏林飞艇在它$Spark_的家里会使用任何Spark版本,不管它的本地Spark版本是什么?明白了:奇怪。亚马逊的EMR正在使用齐柏林飞艇0.7.3和Spark版本2.3.2。谢谢!我不知道我以为齐柏林飞艇在它$Spark_的家里会使用任何Spark版本,不管它的本地Spark版本是什么?明白了:奇怪。亚马逊的EMR正在使用齐柏林飞艇0.7.3和Spark版本2.3.2。