Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/ant/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
<img src="//i.stack.imgur.com/RUiNP.png" height="16" width="18" alt="" class="sponsor tag img">elasticsearch Lucene和Elasticsearch中的碎片管理_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Lucene_Elastic Cloud - Fatal编程技术网 elasticsearch Lucene和Elasticsearch中的碎片管理,elasticsearch,lucene,elastic-cloud,elasticsearch,Lucene,Elastic Cloud" /> elasticsearch Lucene和Elasticsearch中的碎片管理,elasticsearch,lucene,elastic-cloud,elasticsearch,Lucene,Elastic Cloud" />

elasticsearch Lucene和Elasticsearch中的碎片管理

elasticsearch Lucene和Elasticsearch中的碎片管理,elasticsearch,lucene,elastic-cloud,elasticsearch,Lucene,Elastic Cloud,我面临的问题是建立一个生产就绪的elasticsearch集群。 目前我只在elasticsearch中存储测试日志文件 到目前为止还不错,但是因为我们每天有1TB的生产日志 我想知道如何为这个用例正确地设置elasticsearch索引 我们想将这些日志保存30天。群集设置有100TB的磁盘空间。 我想选择副本计数为3,因此使用的磁盘空间应该在90TB左右 但是我应该分配多少碎片呢 Elastic和Lucene段中的碎片有什么不同吗?您应该阅读Val发送的文章。但对于日志,您可以每天创建一个索

我面临的问题是建立一个生产就绪的elasticsearch集群。 目前我只在elasticsearch中存储测试日志文件

到目前为止还不错,但是因为我们每天有1TB的生产日志 我想知道如何为这个用例正确地设置elasticsearch索引

我们想将这些日志保存30天。群集设置有100TB的磁盘空间。 我想选择副本计数为3,因此使用的磁盘空间应该在90TB左右

但是我应该分配多少碎片呢


Elastic和Lucene段中的碎片有什么不同吗?

您应该阅读Val发送的文章。但对于日志,您可以每天创建一个索引,这种策略可以让您尝试不同的配置

副本的数量应取决于elasticsearch节点的数量

您也可以阅读这篇短文:

如果您对复制副本的数量有疑问,此选项也可以帮助您:

每个Elasticsearch碎片都是Lucene索引,但没有Lucene碎片。然后,你应该考虑阅读这篇文章来解释如何调整你的碎片: