Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/279.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java Solr自动提交和自动优化?_Java_Php_Mysql_Database_Solr - Fatal编程技术网

Java Solr自动提交和自动优化?

Java Solr自动提交和自动优化?,java,php,mysql,database,solr,Java,Php,Mysql,Database,Solr,我将很快将我的网站上传到VPS。这是一个分类广告网站,使用与MySql集成的Solr 每当放置或删除新分类时,Solr都会更新 我需要一种方法使commit()和optimize()自动化,例如每3小时左右一次 我该怎么做?(详情请参阅) 什么时候进行优化比较理想 感谢您可以设置一个cron任务,定期执行对Solr REST接口的远程调用,例如: curl 'http://<SOLR_INSTANCE_URL>/update?optimize=true' 谢谢你的回答。下面是一个后

我将很快将我的网站上传到VPS。这是一个分类广告网站,使用与MySql集成的Solr

每当放置或删除新分类时,Solr都会更新

我需要一种方法使
commit()
optimize()
自动化,例如每3小时左右一次

我该怎么做?(详情请参阅) 什么时候进行优化比较理想


感谢您可以设置一个cron任务,定期执行对Solr REST接口的远程调用,例如:

curl 'http://<SOLR_INSTANCE_URL>/update?optimize=true'

谢谢你的回答。下面是一个后续问题,optimize是否也执行提交?那么,当只进行优化时,它还会提交吗?谢谢,optimize执行提交,并将所有索引段合并为一个段(在打开新写入程序和写入程序提交或关闭时创建一个新段)。
<autoCommit>
      <maxDocs>10000</maxDocs> <!-- maximum uncommited docs before autocommit triggered -->
      <maxTime>86000</maxTime> <!-- maximum time (in MS) after adding a doc before an autocommit is triggered -->
</autoCommit>