Apache spark 齐柏林飞艇空指针异常

Apache spark 齐柏林飞艇空指针异常,apache-spark,apache-zeppelin,Apache Spark,Apache Zeppelin,我在齐柏林飞艇笔记本上写下了这个简单的代码 import org.apache.spark.sql.SQLContext val sqlConext = new SQLContext(sc) val df = sqlContext.read.format("csv").option("header", "true").load("hdfs:///user/admin/foo/2018.csv") df.printSchema() 早些时候,它无法找到spark csv。所以我把它作为一个依赖项

我在齐柏林飞艇笔记本上写下了这个简单的代码

import org.apache.spark.sql.SQLContext
val sqlConext = new SQLContext(sc)
val df = sqlContext.read.format("csv").option("header", "true").load("hdfs:///user/admin/foo/2018.csv")
df.printSchema()
早些时候,它无法找到spark csv。所以我把它作为一个依赖项添加到spark1和spark2解释器中。但是当我运行这段代码时,我得到了一个错误

java.lang.NullPointerException
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
    at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
    at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:614)
    at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:69)
    at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:493)
    at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
    at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)

这个文件只有300行。所以我认为这不会导致任何内存问题。我有一个4节点的集群,因此如何确定日志文件在哪里,更详细的错误可能驻留在哪里

好的。我解决了。齐柏林飞艇似乎使用了Scala 2.10,我为2.11版添加了Scala csv的依赖项,这导致了空指针错误


我将依赖项更改为2.10并重新启动了解释器,现在它工作正常。

如果使用齐柏林飞艇0.8,您可以获得更清晰的错误消息