Apache spark 有没有办法通过PyCharm添加spark.driver.extraClassPath?
我试图在本地机器上运行Spark作业,将一些数据写入postgres db 您可以通过设置Apache spark 有没有办法通过PyCharm添加spark.driver.extraClassPath?,apache-spark,pycharm,Apache Spark,Pycharm,我试图在本地机器上运行Spark作业,将一些数据写入postgres db 您可以通过设置 无论PyCharm、pyspark、spark shell,还是任何其他调用spark的方法,都适用相同的方法。谢谢!我做到了,现在我又犯了其他错误。所以我必须找出我的错误所在。
无论PyCharm、
pyspark
、spark shell
,还是任何其他调用spark的方法,都适用相同的方法。谢谢!我做到了,现在我又犯了其他错误。所以我必须找出我的错误所在。