如何合并Lucene(Solr)中的段

如何合并Lucene(Solr)中的段,solr,lucene,solr4,Solr,Lucene,Solr4,我有一个场景需要在线合并solr索引。 我有一个100 Gb的主solr索引,它为最终用户服务,一刻也不能离线。每天单独生成新的lucene索引(2GB) 我试过了 甚至我也尝试了IndexWriter API。但是没有运气 它将创建一个新的核心或新文件夹。这意味着它将每次复制100Gb到一个新文件夹 有没有办法进行段级合并 您的问题是关于合并两个核心 我将为solr5负责 你可以。 您可以从solr与lucene outsite合并,然后 如果您使用SolrCloud,您可以通过或将文档从新核

我有一个场景需要在线合并solr索引。 我有一个100 Gb的主solr索引,它为最终用户服务,一刻也不能离线。每天单独生成新的lucene索引(2GB)

我试过了

甚至我也尝试了IndexWriter API。但是没有运气

它将创建一个新的核心或新文件夹。这意味着它将每次复制100Gb到一个新文件夹


有没有办法进行段级合并

您的问题是关于合并两个核心

我将为solr5负责

你可以。 您可以从solr与lucene outsite合并,然后


如果您使用SolrCloud,您可以通过或
将文档从新核心迁移到中心核心来使用核心列表进行收集。

而不是将新数据合并到主索引中。主索引将为最终用户提供服务,每天都会添加500多个文档。我没有直接索引到主服务器的带宽,因为我的最终用户正受到影响。这就是我从另一台机器生成lucene索引并试图与primary合并的原因。我的方案有什么解决办法吗?可能您无法实时索引文档,因为您的用户受到影响。但您可以收集这些信息,然后在下班时间(午夜)立即加载。你有没有考虑过,但不是邮寄要求。我试图在不降低solr的情况下执行索引合并。有没有解决办法。谢谢你的帮助。我知道你正在合并索引,请不要生气。我的意思是,你可以把每天收集的数据编入索引,作为日常索引工作。您是否还在使用固定段数对索引执行
optimize
命令?