Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance 带别名的Elasticsearch性能索引_Performance_Indexing_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Alias - Fatal编程技术网 elasticsearch,alias,Performance,Indexing,elasticsearch,Alias" /> elasticsearch,alias,Performance,Indexing,elasticsearch,Alias" />

Performance 带别名的Elasticsearch性能索引

Performance 带别名的Elasticsearch性能索引,performance,indexing,elasticsearch,alias,Performance,Indexing,elasticsearch,Alias,我想使用Elasticsearch,我认为设置这样的索引是个好主意:。我希望每个索引使用一个碎片,并在所有年份中进行查询。我创建了一个别名,并将每个客户每个月的所有新索引放入其中。 我只对每个索引使用一个碎片,因为它们每个月的数据可能在~1GB到10-50+GB之间 我的问题:我的计划是好还是坏?有什么建议吗? 例如,我收集了两年多的数据,并使用别名进行搜索,ES必须通过24个索引。这会导致性能问题吗?我可以每年索引一次,但是我需要为每个客户制作更多的碎片,其中一些碎片可能非常小(对于许多碎片来

我想使用Elasticsearch,我认为设置这样的索引是个好主意:。我希望每个索引使用一个碎片,并在所有年份中进行查询。我创建了一个别名,并将每个客户每个月的所有新索引放入其中。 我只对每个索引使用一个碎片,因为它们每个月的数据可能在~1GB到10-50+GB之间

我的问题:我的计划是好还是坏?有什么建议吗? 例如,我收集了两年多的数据,并使用别名进行搜索,ES必须通过24个索引。这会导致性能问题吗?我可以每年索引一次,但是我需要为每个客户制作更多的碎片,其中一些碎片可能非常小(对于许多碎片来说只有几GB),而另一些则非常大(例如,10个碎片和每个碎片超过50 GB,索引非常大)。 提前谢谢