Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cocoa/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用ExecuteExtAsync查询Azure DocumentDB返回的值小于MaxItemCount_Azure_Azure Cosmosdb - Fatal编程技术网

使用ExecuteExtAsync查询Azure DocumentDB返回的值小于MaxItemCount

使用ExecuteExtAsync查询Azure DocumentDB返回的值小于MaxItemCount,azure,azure-cosmosdb,Azure,Azure Cosmosdb,我正在使用FeedOption MaxItemCount查询Azure DocumentDB集合以设置“页面”大小,并且IDocumentQuery::ExecuteExtAsync()。当使用较小的值调用时,比如说,查询在DocumentDB上执行的时间是有限制的。这些限制包括查询的资源消耗(您可以大致估计这个值,即配置的RU/秒*5秒+未公开的缓冲区)、响应大小(1mb)和超时(5秒)。如果达到这些限制,则可能会返回部分结果集。在DocumentDB上执行查询的时间有限制。这些限制包括查询的

我正在使用FeedOption MaxItemCount查询Azure DocumentDB集合以设置“页面”大小,并且
IDocumentQuery::ExecuteExtAsync()
。当使用较小的值调用时,比如说,查询在DocumentDB上执行的时间是有限制的。这些限制包括查询的资源消耗(您可以大致估计这个值,即配置的RU/秒*5秒+未公开的缓冲区)、响应大小(1mb)和超时(5秒)。如果达到这些限制,则可能会返回部分结果集。

在DocumentDB上执行查询的时间有限制。这些限制包括查询的资源消耗(您可以大致估计这个值,即配置的RU/秒*5秒+未公开的缓冲区)、响应大小(1mb)和超时(5秒)。如果达到这些限制,则可能会返回部分结果集。

在DocumentDB上执行查询的时间有限制。这些限制包括查询的资源消耗(您可以大致估计这个值,即配置的RU/秒*5秒+未公开的缓冲区)、响应大小(1mb)和超时(5秒)。如果达到这些限制,则可能会返回部分结果集。

在DocumentDB上执行查询的时间有限制。这些限制包括查询的资源消耗(您可以大致估计这个值,即配置的RU/秒*5秒+未公开的缓冲区)、响应大小(1mb)和超时(5秒)。如果达到这些限制,则可能会返回部分结果集。

能否提供一个复制问题的最小示例?限制结果的因素有三个:(1)最大响应大小为1 MB。如果达到该值,则批次(2)中不再包含更多结果,即收集的吞吐量。如果您达到基于S1/S2/S3的配置限制(使用一些缓冲区),则可能会得到比批处理更少的数据(3)如果you@LarryMaccherone不容易。这对于服务来说是非常基本的。创建一个集合。把你喜欢的任何东西都放进去——有很多属性的文档。要1000页,少拿一页。将查询限制为少于所有字段,获取更多行。最终,您可以将查询限制为获得全部1000行。@Aravin和(3)???我们确实怀疑1MB限制(尽管我在任何地方都找不到记录),但是至少有一次我们得到了一个12MB的响应,这让我们有点担心…达到5秒的时间限制-如果您的查询是扫描,例如如果您有财产,这可能会发生!=价值就像Larry提到的那样,如果您能提供更多详细信息,我们就可以准确地告诉您具体的场景是什么。您能提供一个复制问题的最小示例吗?有三个因素会限制结果:(1)最大响应大小为1MB。如果达到该值,则批次(2)中不再包含更多结果,即收集的吞吐量。如果您达到基于S1/S2/S3的配置限制(使用一些缓冲区),则可能会得到比批处理更少的数据(3)如果you@LarryMaccherone不容易。这对于服务来说是非常基本的。创建一个集合。把你喜欢的任何东西都放进去——有很多属性的文档。要1000页,少拿一页。将查询限制为少于所有字段,获取更多行。最终,您可以将查询限制为获得全部1000行。@Aravin和(3)???我们确实怀疑1MB限制(尽管我在任何地方都找不到记录),但是至少有一次我们得到了一个12MB的响应,这让我们有点担心…达到5秒的时间限制-如果您的查询是扫描,例如如果您有财产,这可能会发生!=价值就像Larry提到的那样,如果您能提供更多详细信息,我们就可以准确地告诉您具体的场景是什么。您能提供一个复制问题的最小示例吗?有三个因素会限制结果:(1)最大响应大小为1MB。如果达到该值,则批次(2)中不再包含更多结果,即收集的吞吐量。如果您达到基于S1/S2/S3的配置限制(使用一些缓冲区),则可能会得到比批处理更少的数据(3)如果you@LarryMaccherone不容易。这对于服务来说是非常基本的。创建一个集合。把你喜欢的任何东西都放进去——有很多属性的文档。要1000页,少拿一页。将查询限制为少于所有字段,获取更多行。最终,您可以将查询限制为获得全部1000行。@Aravin和(3)???我们确实怀疑1MB限制(尽管我在任何地方都找不到记录),但是至少有一次我们得到了一个12MB的响应,这让我们有点担心…达到5秒的时间限制-如果您的查询是扫描,例如如果您有财产,这可能会发生!=价值就像Larry提到的那样,如果您能提供更多详细信息,我们就可以准确地告诉您具体的场景是什么。您能提供一个复制问题的最小示例吗?有三个因素会限制结果:(1)最大响应大小为1MB。如果达到该值,则批次(2)中不再包含更多结果,即收集的吞吐量。如果您达到基于S1/S2/S3的配置限制(使用一些缓冲区),则可能会得到比批处理更少的数据(3)如果you@LarryMaccherone不容易。这对于服务来说是非常基本的。创建一个集合。把你喜欢的任何东西都放进去——有很多属性的文档。要1000页,少拿一页。将查询限制为少于所有字段,获取更多行。最终,您可以将查询限制为获得全部1000行。@Aravin和(3)???我们确实怀疑1MB限制(尽管我在任何地方都找不到记录),但是至少有一次我们得到了12MB的响应,这让我们有点担心……达到5秒的时间限制-如果您的查询是扫描,则可能发生这种情况,f