Apache spark 使用HDI Jupyter Spark(Scala)笔记本配置外部JAR

Apache spark 使用HDI Jupyter Spark(Scala)笔记本配置外部JAR,apache-spark,jupyter-notebook,azure-hdinsight,livy,Apache Spark,Jupyter Notebook,Azure Hdinsight,Livy,我有一个外部自定义jar,我想与Azure HDInsight Jupyter笔记本一起使用;HDI中的Jupyter笔记本使用Spark Magic和Livy 在笔记本的第一个单元格中,我尝试使用jars配置: %%configure -f {"jars": ["wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar"]} 但我收到的错误消息是: Starting Spark applicatio

我有一个外部自定义jar,我想与Azure HDInsight Jupyter笔记本一起使用;HDI中的Jupyter笔记本使用Spark Magic和Livy

在笔记本的第一个单元格中,我尝试使用
jars
配置:

%%configure -f
{"jars": ["wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar"]}
但我收到的错误消息是:

Starting Spark application
The code failed because of a fatal error:
    Status 'shutting_down' not supported by session..

Some things to try:
a) Make sure Spark has enough available resources for Jupyter to create a Spark context. For instructions on how to assign resources see http://go.microsoft.com/fwlink/?LinkId=717038
b) Contact your cluster administrator to make sure the Spark magics library is configured correctly.
Current session configs: {u'jars': [u'wasb://$container$@$account#.blob.core.windows.net/folder/my-custom-jar.jar'], u'kind': 'spark'}
An error was encountered:
Status 'shutting_down' not supported by session.
我想知道我是否只是不理解Livy在这种情况下是如何工作的,因为我能够在同一集群上成功地包括一个spark包(GraphFrames):

%%configure -f
{ "conf": {"spark.jars.packages": "graphframes:graphframes:0.3.0-spark2.0-s_2.11" }}
一些额外的参考资料可能很方便(以防我遗漏了什么):


哦,我想起来了,忘了更新我的问题。如果您将jar放入HDI集群的默认存储帐户中,这就可以工作


以防有人来这里在EMR上添加罐子

%%configure -f
{"name": "sparkTest", "conf": {"spark.jars": "s3://somebucket/artifacts/jars/spark-avro_2.11-2.4.4.jar"}}

与此相反,直接使用
jars
是不起作用的。

有什么动作吗?我在
h2o
pysparkling
中遇到了同样的问题。