Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/solr/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Solr中的自动索引_Solr_Cron_Indexing_Dataimporthandler_Solr4 - Fatal编程技术网

Solr中的自动索引

Solr中的自动索引,solr,cron,indexing,dataimporthandler,solr4,Solr,Cron,Indexing,Dataimporthandler,Solr4,Hi Im使用Solr 4的数据导入实用程序为Oracle 10g XE数据库编制索引。 Im使用完全导入和增量导入。我希望这些过程是自动的。(例如:导入过程可以计时,也可以在数据库中的任何数据被修改后立即执行)。 我在网上搜索了同样的内容,我听到人们谈论CRON和脚本。然而,我不知道如何实现它。你能提供一个像教程一样的解释吗? 请提前参考 < P> >请参阅前面的问题:或者可以考虑使用WGET命令建立和使用 < P> CRON调度器中概述的DATA Apple调度器,以实现数据导入过程的自动化

Hi Im使用Solr 4的数据导入实用程序为Oracle 10g XE数据库编制索引。 Im使用完全导入和增量导入。我希望这些过程是自动的。(例如:导入过程可以计时,也可以在数据库中的任何数据被修改后立即执行)。 我在网上搜索了同样的内容,我听到人们谈论CRON和脚本。然而,我不知道如何实现它。你能提供一个像教程一样的解释吗?
请提前参考

< P> >请参阅前面的问题:或者可以考虑使用WGET命令建立和使用

< P> CRON调度器中概述的DATA Apple调度器,以实现数据导入过程的自动化。在最新的solr版本中,“?command=”参数不适用于get方法,因此使用post方法,如下所示

wget http://server-url:port/solr/collection-name/dataimport" --post-data 'command=full-import&clean=true&commit=true&wt=json&indent=true&verbose=false&optimize=false&debug=false'
由于cron作业的执行时间间隔最短为1分钟,如果希望执行时间少于1分钟,可以准备一个带有无限循环的bash脚本

#!/bin/bash

while true 
do
    wget "http://server-url:port/solr/collection-name/dataimport" --post-data 'command=full-import&clean=true&commit=true&wt=json&indent=true&verbose=false&optimize=false&debug=false' &> /dev/null
    sleep 5
done