Apache spark 齐柏林飞艇笔记本;错误:未找到:值%quot;

Apache spark 齐柏林飞艇笔记本;错误:未找到:值%quot;,apache-spark,apache-zeppelin,Apache Spark,Apache Zeppelin,据我所知,我应该使用%dep加载csv jar,但我得到错误:未找到:value%有人知道我缺少什么吗 %spark val a = 1 %dep z.reset() z.addRepo("Spark Packages Repo").url("http://dl.bintray.com/spark-packages/maven") z.load("com.databricks:spark-csv_2.10:1.2.0") a: Int = 1 <console>:28: err

据我所知,我应该使用
%dep
加载csv jar,但我得到
错误:未找到:value%
有人知道我缺少什么吗

%spark

val a = 1

%dep
z.reset()
z.addRepo("Spark Packages Repo").url("http://dl.bintray.com/spark-packages/maven")
z.load("com.databricks:spark-csv_2.10:1.2.0")

a: Int = 1
<console>:28: error: not found: value %
              %dep
              ^

每个单元可以容纳一种类型的解释器。因此,为了使用
%dep
%spark
,您应该在重新启动spark解释器后,将它们分成两个单元格,以
%dep
开头,以便将其考虑在内。e、 g:

在第一个单元格中:

%dep
z.reset()
z.addRepo("Spark Packages Repo").url("http://dl.bintray.com/spark-packages/maven")
z.load("com.databricks:spark-csv_2.10:1.2.0")
现在已加载依赖项,您可以在不同的单元格中访问spark解释器:

%spark
val a = 1

PS:默认情况下,单元格使用spark解释器运行,因此您无需显式使用
%spark

如果不为每个解释器使用单独的单元格,通常会触发此错误。根据文档,在
%spark
%pyspark
%sql
之前应使用
%dep
解释器。
%spark
val a = 1