Python 查找Spark中已安装的软件包
我已经尝试了一段时间,尝试了一切 我需要了解我的办公集群的spark安装中是否包含包GraphFrames。我正在使用Spark 1.5.0版Python 查找Spark中已安装的软件包,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我已经尝试了一段时间,尝试了一切 我需要了解我的办公集群的spark安装中是否包含包GraphFrames。我正在使用Spark 1.5.0版 是否有办法列出Spark中所有已安装的软件包?无论如何都要包括该软件包,以确保如通过spak提交: $SPARK_HOME/bin/SPARK shell--包graphframes:graphframes:0.1.0-spark1.6导入包并查看测试作业是否成功?查找相关的.jar文件?
是否有办法列出Spark中所有已安装的软件包?无论如何都要包括该软件包,以确保如通过spak提交:
$SPARK_HOME/bin/SPARK shell--包graphframes:graphframes:0.1.0-spark1.6导入包并查看测试作业是否成功?查找相关的.jar文件?