Python pyspark脚本是否需要sbt scala软件包生成器?

Python pyspark脚本是否需要sbt scala软件包生成器?,python,scala,apache-spark,sbt,Python,Scala,Apache Spark,Sbt,如果我想在python中使用spark而不是scala,那么我需要sbt scala构建工具来组装jar文件,以便在python脚本中使用这些包,还是需要其他工具?我对java几乎一无所知,所以进入spark有点复杂 谢谢 SBT是Scala构建工具。如果使用PySpark,则不需要SBT SBT(和maven)是编译和打包scala和java应用程序的构建工具 pyspark的python脚本不能使用jar文件。您可以直接提交.py、.zip或.egg文件

如果我想在python中使用spark而不是scala,那么我需要sbt scala构建工具来组装jar文件,以便在python脚本中使用这些包,还是需要其他工具?我对java几乎一无所知,所以进入spark有点复杂


谢谢

SBT是Scala构建工具。如果使用PySpark,则不需要SBT

SBT(和maven)是编译和打包scala和java应用程序的构建工具

pyspark的python脚本不能使用jar文件。您可以直接提交.py、.zip或.egg文件