Apache spark 是否可以在没有主函数的情况下将Spark代码打包到库中

Apache spark 是否可以在没有主函数的情况下将Spark代码打包到库中,apache-spark,Apache Spark,到目前为止,我只使用Spark编写应用程序,其中包含主函数。但我现在想做的是创建基于Spark的库(使用RDD/Dataframe操作等),然后可以从其他应用程序调用这些库。可能吗?如果是这样,怎么做?是的,当然这是可能的。例如,看看或任何图书馆在

到目前为止,我只使用Spark编写应用程序,其中包含主函数。但我现在想做的是创建基于Spark的库(使用RDD/Dataframe操作等),然后可以从其他应用程序调用这些库。可能吗?如果是这样,怎么做?

是的,当然这是可能的。例如,看看或任何图书馆在