Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/ruby-on-rails-3/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Azure cosmosdb DocumentDB分区收集最大10GB?_Azure Cosmosdb - Fatal编程技术网

Azure cosmosdb DocumentDB分区收集最大10GB?

Azure cosmosdb DocumentDB分区收集最大10GB?,azure-cosmosdb,Azure Cosmosdb,我最初有一个配置了400RU/s的非分区集合,最大容量为10GBs。我使用Document DB迁移工具将其移动到分区集合,但根据metrics explorer的测试,最大容量仍然是10GB。容量是否会根据需要自动扩展 我使用文档数据库迁移工具将其转移到分区集合,但根据metrics explorer,最大容量仍然是10GB。容量是否会根据需要自动扩展 据我所知,它只允许我们在创建集合后调整吞吐量级别。如果要调整默认存储容量(集合的最大存储大小),可以在Azure portal上创建支持请求。

我最初有一个配置了400RU/s的非分区集合,最大容量为10GBs。我使用Document DB迁移工具将其移动到分区集合,但根据metrics explorer的测试,最大容量仍然是10GB。容量是否会根据需要自动扩展

我使用文档数据库迁移工具将其转移到分区集合,但根据metrics explorer,最大容量仍然是10GB。容量是否会根据需要自动扩展


据我所知,它只允许我们在创建集合后调整吞吐量级别。如果要调整默认存储容量(集合的最大存储大小),可以在Azure portal上创建支持请求。此外,您可以将数据从目标集合迁移到另一个具有更大数据存储(>10GB)的分区集合。

正如我所说,我最初使用的迁移工具为我创建了一个新集合。没有设置工具将创建的集合的存储大小的选项,因此我不确定如何迁移它。是的,DocumentDB数据迁移工具没有设置集合最大存储大小的选项,您可以在Azure portal上进行。此外,还演示了如何使用DocumentDB数据迁移工具从各种来源将数据导入Azure DocumentDB,请参阅。