Performance Lucene和如何度量索引碎片
我们使用的是Lucene 2.9.2(计划升级到3.x),众所周知,随着时间的推移,搜索查询变得越来越慢。通常我们执行完全重新索引。我已经阅读了这个问题及其答案,现在就回答它:我们不使用optimize(),因为在运行它时,性能不再是可接受的 碎片化? 我想知道以下几点:衡量现有索引碎片化的最佳实践是什么?你能帮我吗 如果能听到您对这个分析主题的想法,那将是非常有趣的 关于我们索引的更多信息:Performance Lucene和如何度量索引碎片,performance,lucene,Performance,Lucene,我们使用的是Lucene 2.9.2(计划升级到3.x),众所周知,随着时间的推移,搜索查询变得越来越慢。通常我们执行完全重新索引。我已经阅读了这个问题及其答案,现在就回答它:我们不使用optimize(),因为在运行它时,性能不再是可接受的 碎片化? 我想知道以下几点:衡量现有索引碎片化的最佳实践是什么?你能帮我吗 如果能听到您对这个分析主题的想法,那将是非常有趣的 关于我们索引的更多信息: 我们已经索引了40万份文件 我们大量使用每个文档的属性 对于每个请求,我们创建一个新的searche
- 我们已经索引了40万份文件
- 我们大量使用每个文档的属性
- 对于每个请求,我们创建一个新的searcher对象(因为我们希望更改立即出现在搜索结果中)
- 查询性能介于30毫秒(重复相同的搜索)和10秒(复杂)之间
- 索引由44个文件(15.del文件,24个cfs文件)组成,大小为1GB