同时使用Python和Scala的定制Spark包

同时使用Python和Scala的定制Spark包,scala,maven,apache-spark,pyspark,databricks,Scala,Maven,Apache Spark,Pyspark,Databricks,我可以成功地为Python和Scala(wheel和Jar)独立创建包,然后将它们上传到Databricks。但是,我想创建一个同时使用Python和Scala的包。我注意到Databricks中的一些maven软件包能够做到这一点,这怎么可能呢 我假设包中有一个标准结构,将Python和Scala风格的代码分开 我试着在网上找到一些例子,但毫无乐趣

我可以成功地为Python和Scala(wheel和Jar)独立创建包,然后将它们上传到Databricks。但是,我想创建一个同时使用Python和Scala的包。我注意到Databricks中的一些maven软件包能够做到这一点,这怎么可能呢

我假设包中有一个标准结构,将Python和Scala风格的代码分开

我试着在网上找到一些例子,但毫无乐趣