Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/apache-flex/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Azure cosmosdb 如何存储大型json数组_Azure Cosmosdb - Fatal编程技术网

Azure cosmosdb 如何存储大型json数组

Azure cosmosdb 如何存储大型json数组,azure-cosmosdb,Azure Cosmosdb,目前,我的系统正在生成一个大型数据集。它看起来像这样: [ { "OrderId": "1", "A":, "value1A", "B":, "value1B" }, { "OrderId": "2", "A":, "value2A", "B":, "value2B" } ] 这确实是一个非常简单的列表,但它非常大,并且远远超过了单个文档的2MB大小限制。对所有这些订单进行切分/链接的最佳做法是什么,以便将它们作为一个相关列表进行查询 有什么内在的东西来处理这个问题吗?或者

目前,我的系统正在生成一个大型数据集。它看起来像这样:

[
 {
 "OrderId": "1",
 "A":, "value1A",
 "B":, "value1B"
 },
 {
 "OrderId": "2",
 "A":, "value2A",
 "B":, "value2B"
 }
]
这确实是一个非常简单的列表,但它非常大,并且远远超过了单个文档的2MB大小限制。对所有这些订单进行切分/链接的最佳做法是什么,以便将它们作为一个相关列表进行查询

有什么内在的东西来处理这个问题吗?或者我必须修改模式并向每个订单添加某种跟踪ID,并将每个订单存储为它们自己的文档

切分/链接所有这些订单的最佳做法是什么 很容易将它们作为一个相关列表进行查询

<> P>这都是关于数据结构的。当我们的文档大于文档DB <代码> 2MB < /Cult>限制时,我们必须考虑拆分文档。如果您对这些订单有明确的分类规则,那么我强烈建议您拆分这些
订单
,并向其添加分区键

例如:

{
 "Type" : "AAA", 
"OrderId": "1",
 "A":, "value1A",
 "B":, "value1B"
 },
 {
 "Type" : "AAA",
 "OrderId": "2",
 "A":, "value2A",
 "B":, "value2B"
 },
{
"Type" : "BBB",
 "OrderId": "1",
 "A":, "value1A",
 "B":, "value1B"
 },
 {
"Type" : "BBB",
 "OrderId": "2",
 "A":, "value2A",
 "B":, "value2B"
 }
因此,您可以根据分区键方便地检索它们

不必担心数据模式的更改,您可以用于批量导出和导入文档数据库的数据


希望能对你有所帮助。

嗨,我的回答对你有帮助吗?