Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/solr/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance 从另一个solr导入数据的速度非常慢_Performance_Solr - Fatal编程技术网

Performance 从另一个solr导入数据的速度非常慢

Performance 从另一个solr导入数据的速度非常慢,performance,solr,Performance,Solr,我使用SolrEntityProcessor从另一个solr导入数据。它正在工作,但速度只有30个文档/秒,比我从SQL Server导入的文档(7000个文档/秒)还轻 我想知道我是否错过了什么,是否有任何方法可以提高速度 关于我的solr云的一些信息。我在三个不同的服务器上有3个碎片,它们都在同一个域中 提前感谢。引用 SolrEntityProcessor适用于少量数据,但对于如此大的索引却没有用处。问题在于搜索结果中的深度分页代价高昂。随着查询的“开始”值的增加,查询的成本也随之增加。您

我使用SolrEntityProcessor从另一个solr导入数据。它正在工作,但速度只有30个文档/秒,比我从SQL Server导入的文档(7000个文档/秒)还轻

我想知道我是否错过了什么,是否有任何方法可以提高速度

关于我的solr云的一些信息。我在三个不同的服务器上有3个碎片,它们都在同一个域中

提前感谢。

引用

SolrEntityProcessor适用于少量数据,但对于如此大的索引却没有用处。问题在于搜索结果中的深度分页代价高昂。随着查询的“开始”值的增加,查询的成本也随之增加。您最好只是重新索引数据

要解决这个问题:

处理此问题的常用方法是对 将在每个查询(作为创建日期字段)和每个 查询更改此字段范围。对于您可能需要的数据导入用例 要使用不同的实体生成data-import.xml,每个实体 另一个创建日期范围。因此,不需要深度分页