Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
<img src="//i.stack.imgur.com/RUiNP.png" height="16" width="18" alt="" class="sponsor tag img">elasticsearch elasticsearch群集中的节点数_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Cluster Computing - Fatal编程技术网 elasticsearch elasticsearch群集中的节点数,elasticsearch,cluster-computing,elasticsearch,Cluster Computing" /> elasticsearch elasticsearch群集中的节点数,elasticsearch,cluster-computing,elasticsearch,Cluster Computing" />

elasticsearch elasticsearch群集中的节点数

elasticsearch elasticsearch群集中的节点数,elasticsearch,cluster-computing,elasticsearch,Cluster Computing,在我们大学,我们有一个elasticsearch集群,有一个节点。现在我们有钱安装更强大的服务器。我们每天生产700-1000万个访问日志 使用以下内容创建群集的最佳方式是: a.3台功能强大的服务器,每台64GB,16个CPU+SSD。 b.拥有14台功能不太强大的服务器,每台32GB和8CPU+SSD 注:a和b的价格相同 c.可能是一些建议 提前谢谢这取决于具体情况。对于日志记录案例,您描述的选项b对我来说似乎更灵活。让我解释一下我的观点: 当您处于日志场景中时,请实现。您将主要编写和阅读

在我们大学,我们有一个elasticsearch集群,有一个节点。现在我们有钱安装更强大的服务器。我们每天生产700-1000万个访问日志

使用以下内容创建群集的最佳方式是:

a.3台功能强大的服务器,每台64GB,16个CPU+SSD。
b.拥有14台功能不太强大的服务器,每台32GB和8CPU+SSD
注:a和b的价格相同

c.可能是一些建议


提前谢谢

这取决于具体情况。对于日志记录案例,您描述的选项b对我来说似乎更灵活。让我解释一下我的观点:

  • 当您处于日志场景中时,请实现。您将主要编写和阅读最近的索引。在少数情况下,您希望访问较旧的数据,并且可能希望缩小旧的索引,甚至关闭较旧的索引

  • 设置至少3个主eligble节点,以防止吐脑问题。将相同的节点配置为协调节点(左11个节点)

  • 安装2个摄取节点以将摄取工作负载移动到专用节点(剩余9个节点)

  • 安装3个热数据节点以存储最新索引(左6个节点)

  • 安装6个热数据节点,用于保存较旧的、收缩的和闭合的索引。(左0个节点)

  • 前面的设置只是一个示例。如果需要,应更改节点编号/角色

  • 如果你需要更多的弹性。然后添加更多主节点,增加索引节点的副本数。这也将减少总容量

  • 您需要的可搜索或保存在已关闭索引中的旧数据越多,您需要的温暖节点就越多。然后根据需要重新平衡热/热节点数。如果可以尽早删除旧数据,则增加热节点数

  • 如果您有XPACK许可证,请考虑安装ML/警报节点。将此角色添加到主节点或减少数据节点计数,以支持ml/alertig

  • 你需要kibana/logstash吗?根据工作负载,专门准备一个/两个节点

  • 假设两个选项中都有相同的主板,那么只需添加更多ram/cpu/存储,您就有更大的潜力快速扩展14个机箱。有3个节点已经在规格上达到最大值,您需要设置新的框,并将它们加入集群以进行扩展。但随着时间的推移,这也会给您机架中提供更多的最新硬件

    请看一下这个:

    如果您需要有关分片配置的一些背景信息,请参阅


    顺便说一句:thomas对堆大小的评论是正确的。如果你想知道背景,请看一下这个:

    这取决于场景。对于日志记录案例,您描述的选项b对我来说似乎更灵活。让我解释一下我的观点:

  • 当您处于日志场景中时,请实现。您将主要编写和阅读最近的索引。在少数情况下,您希望访问较旧的数据,并且可能希望缩小旧的索引,甚至关闭较旧的索引

  • 设置至少3个主eligble节点,以防止吐脑问题。将相同的节点配置为协调节点(左11个节点)

  • 安装2个摄取节点以将摄取工作负载移动到专用节点(剩余9个节点)

  • 安装3个热数据节点以存储最新索引(左6个节点)

  • 安装6个热数据节点,用于保存较旧的、收缩的和闭合的索引。(左0个节点)

  • 前面的设置只是一个示例。如果需要,应更改节点编号/角色

  • 如果你需要更多的弹性。然后添加更多主节点,增加索引节点的副本数。这也将减少总容量

  • 您需要的可搜索或保存在已关闭索引中的旧数据越多,您需要的温暖节点就越多。然后根据需要重新平衡热/热节点数。如果可以尽早删除旧数据,则增加热节点数

  • 如果您有XPACK许可证,请考虑安装ML/警报节点。将此角色添加到主节点或减少数据节点计数,以支持ml/alertig

  • 你需要kibana/logstash吗?根据工作负载,专门准备一个/两个节点

  • 假设两个选项中都有相同的主板,那么只需添加更多ram/cpu/存储,您就有更大的潜力快速扩展14个机箱。有3个节点已经在规格上达到最大值,您需要设置新的框,并将它们加入集群以进行扩展。但随着时间的推移,这也会给您机架中提供更多的最新硬件

    请看一下这个:

    如果您需要有关分片配置的一些背景信息,请参阅


    顺便说一句:thomas对堆大小的评论是正确的。如果您想了解背景信息,请查看此信息:

    据我所知,选项a更好(64gb是建议的最大容量,我有一些建议不超过32GB)。但我不确定这是否非常明确,这取决于您的问题选项A是一个更好的群集配置您可能会在AWS或azure上poc它,将花费您50美元,然后根据我所知道的选项A更好做出决定(64gb是建议的最大值,我有一些建议不超过32GB)。但我不确定这是否非常明确,这取决于您的查询选项A是一个更好的群集配置您可能会在AWS或azure上进行poc,花费50美元,然后根据此做出决定