Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/solr/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/oop/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
ApacheNifiQuerySolr处理器达到启动参数的上限_Solr_Apache Nifi_Data Ingestion - Fatal编程技术网

ApacheNifiQuerySolr处理器达到启动参数的上限

ApacheNifiQuerySolr处理器达到启动参数的上限,solr,apache-nifi,data-ingestion,Solr,Apache Nifi,Data Ingestion,我在ApacheNIFI中使用QuerySolr处理器来检索超过10000的文档列表(这是QuerySolr处理器[1]中定义的上限)。在QuerySolr processor中是否有办法绕过此限制,或者是否有办法检索比定义的上限更多的Solr文档 [1] 尝试了不同的方法,似乎除非修改QuerySolr处理器代码的上限\u START \u参数,否则对于超过10000个文档的索引,这是无法避免的。为什么需要更改它?据我所知,代码使用的是游标,它应该有助于检索所有文档,只是在这几个批次中size

我在ApacheNIFI中使用QuerySolr处理器来检索超过10000的文档列表(这是QuerySolr处理器[1]中定义的上限)。在QuerySolr processor中是否有办法绕过此限制,或者是否有办法检索比定义的上限更多的Solr文档


[1]

尝试了不同的方法,似乎除非修改QuerySolr处理器代码的上限\u START \u参数,否则对于超过10000个文档的索引,这是无法避免的。

为什么需要更改它?据我所知,代码使用的是游标,它应该有助于检索所有文档,只是在这几个批次中size@Mysterion,如果索引中要检索的文档超过10000个,则将其限制为10000个文档。在我的例子中,它的40000个文档将以小批量迭代方式检索。它检索的文档不超过10000个。这是代码本身定义的硬限制。