Apache spark Can';t使用pySpark从Datatricks在Cosmos DB/documentDB中写入数据帧

Apache spark Can';t使用pySpark从Datatricks在Cosmos DB/documentDB中写入数据帧,apache-spark,pyspark,azure-cosmosdb,azure-databricks,Apache Spark,Pyspark,Azure Cosmosdb,Azure Databricks,在尝试将我一直在处理的数据帧保存到documentDB集合时,出现了一个我不理解的错误 堆栈上的其他类似问题指出为数据库或集合提供的名称不正确或区分大小写,但我检查了这些名称。。。还有什么其他的解释呢?分区键?地区 另一方面,我无法找到一个完整的文档,在该文档上,选项最终将提供给行df.write.format(“com.microsoft.azure.cosmosdb.spark”).mode('overwrite')。选项(**ddbconfig)。save() Databricks上Spa

在尝试将我一直在处理的数据帧保存到documentDB集合时,出现了一个我不理解的错误

堆栈上的其他类似问题指出为数据库或集合提供的名称不正确或区分大小写,但我检查了这些名称。。。还有什么其他的解释呢?分区键?地区

另一方面,我无法找到一个完整的文档,在该文档上,选项最终将提供给行
df.write.format(“com.microsoft.azure.cosmosdb.spark”).mode('overwrite')。选项(**ddbconfig)。save()

Databricks上Spark给出的错误为:

com.microsoft.azure.documentdb.DocumentClientException: Message: {'Errors':['Owner resource does not exist']}
StackTrace给了那些

Py4JJavaError: 
  An error occurred while calling o646.save. :
    com.microsoft.azure.documentdb.DocumentClientException: 
      Message: {"Errors":["Owner resource does not exist"]}
storereadresult中给出了响应

LSN: 623, GlobalCommittedLsn: 623, PartitionKeyRangeId: , IsValid: True, StatusCode: 404, IsGone: False, IsNotFound: True, IsInvalidPartition: False, RequestCharge: 1, ItemLSN: -1, SessionToken: -1#623, ResourceType: Collection, OperationType: Read

编辑:与类似链接帖子不同的情况。尝试在新的空集合中写入数据时发生此错误。不读取现有数据。在我的问题中,我已经澄清,我已经探索了在类似帖子中发现的每一条路径(主要是收藏/数据库名称不匹配)。

进一步调查后,这是我使用的库版本中的一个缺陷

通过从azure-cosmosdb-spark_2.3.0_2.11-1.2.2-uber.jar切换到azure-cosmosdb-spark_2.3.0_2.11-1.2.7-uber.jar解决

正如在github上看到的

可能重复的“否”不是重复的。您链接的问题(我在之前的邮件中已经查看过)涉及一个类似的错误消息,但情况确实不同。这是一个阅读错误,我的是一个书写错误。另外,在我的问题中,我注意到我检查了数据库和集合名称和大小写中可能存在的任何不匹配