Mongodb 为gcloud dataproc作业传递属性参数submit pyspark

Mongodb 为gcloud dataproc作业传递属性参数submit pyspark,mongodb,pyspark,google-cloud-platform,google-cloud-dataproc,Mongodb,Pyspark,Google Cloud Platform,Google Cloud Dataproc,我正试图通过命令行向GoogleCloudDataProc提交pyspark作业 这是我的论点 gcloud dataproc jobs submit pyspark --cluster mongo-load --properties org.mongodb.spark:mongo-spark-connector_2.11:2.2.0 mongo_load.py 我经常遇到一个例外 --properties: Bad syntax for dict arg: [org.mongodb.spar

我正试图通过命令行向GoogleCloudDataProc提交pyspark作业 这是我的论点

gcloud dataproc jobs submit pyspark --cluster mongo-load --properties org.mongodb.spark:mongo-spark-connector_2.11:2.2.0 mongo_load.py
我经常遇到一个例外

--properties: Bad syntax for dict arg: [org.mongodb.spark:mongo-spark-connector_2.11:2.2.0]

我尝试了谷歌展示的一些转义选项,但似乎没有任何效果。

发现我只需要通过

spark.jars.packages=org.mongodb.spark:mongo-spark-connector_2.11:2.2.0

我想我只是需要通过考试

spark.jars.packages=org.mongodb.spark:mongo-spark-connector_2.11:2.2.0

除了@Marlon Gray给出的答案外,如果您需要传递多个包,则需要避开
spark.jars.packages
字符串,如

--properties=^#^spark.jars.packages=mavencoordinate1,mavencoordinate2

请查看更多详细信息。

除了@Marlon Gray的答案之外,如果您需要传递多个包,则需要避开
spark.jars.packages
字符串,如

--properties=^#^spark.jars.packages=mavencoordinate1,mavencoordinate2
请查看更多详细信息