Scala/Spark/Databricks:如何从用户创建的JAR导入代码?
我有一个用intellij和sbt创建的JAR,它定义了一个case类和对象。我已经将它上传到我的databricks工作区,并将其作为库附加到集群 我如何从它导入代码/在笔记本中引用它?到目前为止,我所能想到的就是去尝试Scala/Spark/Databricks:如何从用户创建的JAR导入代码?,scala,apache-spark,jar,databricks,Scala,Apache Spark,Jar,Databricks,我有一个用intellij和sbt创建的JAR,它定义了一个case类和对象。我已经将它上传到我的databricks工作区,并将其作为库附加到集群 我如何从它导入代码/在笔记本中引用它?到目前为止,我所能想到的就是去尝试 import NameOfJar._ 给 java.lang.NoClassDefFoundError: DataFrameComparison$ 我是否需要以不同的方式构建罐子?(Package语句还是什么?您应该导入导入packageName.\u,导入语句中不使用j
import NameOfJar._
给
java.lang.NoClassDefFoundError: DataFrameComparison$
我是否需要以不同的方式构建罐子?(Package语句还是什么?您应该导入
导入packageName.\u
,导入语句中不使用jar名称。它的工作原理应该与通常的本地java/scala代码相同
有关详细信息,请查看本文-
顺便说一句,当您尝试使用jar中存在的类时,您的笔记本是否在导入自身时失败?因此,最初我在源文件中没有package语句。(我可能犯了很多愚蠢的错误,我根本不习惯使用构建系统)现在它做了一些奇怪的事情——它导入,但当我尝试调用方法时,我得到了
java.lang.NoClassDefFoundError
。它清楚地看到了类(我可以导入packageName.className
,但不能导入packageName.mispelledClassName
)