Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/powershell/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Couchdb 我们如何/可以申请“a”;“限制”;当我们在Cloudant中使用复制时?_Couchdb_Database Replication_Cloudant - Fatal编程技术网

Couchdb 我们如何/可以申请“a”;“限制”;当我们在Cloudant中使用复制时?

Couchdb 我们如何/可以申请“a”;“限制”;当我们在Cloudant中使用复制时?,couchdb,database-replication,cloudant,Couchdb,Database Replication,Cloudant,我正在将一个名为“foo”的数据库复制到一个名为“bar”的数据库。foo中有10个文档。其中5份文件的“flag”字段设置为“true”。 我正在为复制使用一个过滤器,如果“flag”为“true”,它将返回true 现在,正如我正在为复制设置“filter”参数一样,我还想设置一个“limit”参数,以便只复制2个文档。 我知道我们可以为其他端点设置“limit”参数,如“\u all\u docs”、“\u changes”和其他端点,但它似乎不适用于复制。cloudant文档中也没有关于

我正在将一个名为“foo”的数据库复制到一个名为“bar”的数据库。foo中有10个文档。其中5份文件的“flag”字段设置为“true”。 我正在为复制使用一个过滤器,如果“flag”为“true”,它将返回true

现在,正如我正在为复制设置“filter”参数一样,我还想设置一个“limit”参数,以便只复制2个文档。 我知道我们可以为其他端点设置“limit”参数,如“\u all\u docs”、“\u changes”和其他端点,但它似乎不适用于复制。cloudant文档中也没有关于复制设置限制的内容

我们甚至可以为复制设置一个“限制”参数吗?如果是,我该怎么做?
非常感谢。

您可以在复制时筛选文档,以选择具有特定功能的文档(例如,仅复制x>1的文档,或仅复制未删除的文档),这是正确的


但不能将复制作业限制为多个文档;它将持续到完成,或者在连续复制的情况下,随着数据的更改,它将继续将“foo”中的新/更新/删除文档复制到“bar”。

非常感谢。这也是我在阅读了所有文档之后得出的结论。谢谢你的确认。干杯我也在想同样的事情。我希望进行实时复制,但仅限于有限数量的文档(因此,我始终拥有100个最新文档),以减少负载。我的文件是按时间顺序排列的。对我来说,精确到100并不重要,但要有一个总的限制。因此,我考虑在复制之前首先手动获取第100个文档;然后使用它的时间戳只过滤较新的文档。本地数据库的增长当然会超过100个,但至少不会超过100万左右你为你的案例找到解决方案了吗?首先,就像我发现的和@GlynnBird说的,我们不能限制复制。随着我对复制的阅读和实验越来越多,它变得越来越不有趣。这是一个很好的特性,但肯定有很多局限性。突出的一点是,很多时候,复制所需的时间很长。而且,如果你问我,如果你不是在连续模式下使用复制,那么用一种方式复制实际上没有什么真正的优势。当然,这只是我个人的观点,基于我对用例的经验。当然,我可能错了。所以我所做的是使用复制进行推送,使用搜索索引进行拉取。我觉得搜索索引绝对精彩。它们只为我们感兴趣的领域提供了极大的灵活性。当然,还有一些限制和书签功能,可以用于分页。因此,对于您的问题,您可以尝试使用搜索索引。干杯