Python Cosmos批量插入太慢

Python Cosmos批量插入太慢,python,azure-cosmosdb,Python,Azure Cosmosdb,我正在尽可能快地插入200万条记录。现在这样做大约需要一天,这是不可接受的。我使用存储过程和python来执行大容量插入,但我发现这是一个糟糕的选项,因为文档大小和存储过程运行时都有限制。关于如何加快速度有什么建议吗?批量是指通过存储过程调用发送大量文档?为什么要使用存储过程而不是点操作?对于真正的批量支持,在和中有替代方案,但还没有Python支持。请确保将永远不会查询的属性放在索引策略的ExcludedPath中。您也可以尝试关闭索引,接收所有数据,然后重新打开。您提到了文档大小的限制。文档

我正在尽可能快地插入200万条记录。现在这样做大约需要一天,这是不可接受的。我使用存储过程和python来执行大容量插入,但我发现这是一个糟糕的选项,因为文档大小和存储过程运行时都有限制。关于如何加快速度有什么建议吗?

批量是指通过存储过程调用发送大量文档?为什么要使用存储过程而不是点操作?对于真正的批量支持,在和中有替代方案,但还没有Python支持。请确保将永远不会查询的属性放在索引策略的ExcludedPath中。您也可以尝试关闭索引,接收所有数据,然后重新打开。您提到了文档大小的限制。文档限制为2MB,无论您是通过离散调用直接插入文档,还是通过存储过程中的批量操作插入文档。也许你可以详细说明一下?例如,您是否在谈论可以向存储过程发送多少数据的限制?还有:源数据来自哪里:另一个数据库?结构化文件(如CSV)?其他地方?请编辑您的问题以提供更具体的详细信息,包括如何构建存储过程。没有细节,很难找出瓶颈。