elasticsearch Elk和filebeat将居住在哪里
我在分布式环境中工作。。我有一台中央机器,需要监控大约100台机器。 所以我需要使用ELK stack并持续监控数据 由于elasticsearch、logstash、kibana和filebeat是独立的软件,我想知道在我的分布式环境中理想的位置应该是哪里 我的方法是将kibana、elasticsearch保留在中心节点,并将logstash和filebeat保留在各个节点 Logstash会将数据发送到中心节点的elasticsearch,kibana会显示数据elasticsearch Elk和filebeat将居住在哪里,elasticsearch,logstash,elastic-stack,filebeat,elasticsearch,Logstash,Elastic Stack,Filebeat,我在分布式环境中工作。。我有一台中央机器,需要监控大约100台机器。 所以我需要使用ELK stack并持续监控数据 由于elasticsearch、logstash、kibana和filebeat是独立的软件,我想知道在我的分布式环境中理想的位置应该是哪里 我的方法是将kibana、elasticsearch保留在中心节点,并将logstash和filebeat保留在各个节点 Logstash会将数据发送到中心节点的elasticsearch,kibana会显示数据 请让我知道这个设计是否正确
请让我知道这个设计是否正确 您的设计没有那么糟糕,但如果您只在一台服务器上安装elasticsearch,随着时间的推移,您将面临可用性问题 您可以这样做:
- 确保将filebeat配置为指向多个logstash服务器。这样,如果一个日志存储失败,filebeat仍然可以将日志发送到另一个服务器
- 还要确保日志存储的配置指向elasticsearch集群的所有
节点.data
output {
elasticsearch{
hosts => ["http://123.456.789.1:9200","http://123.456.789.2:9200"]
index => "indexname"
}
}
您不需要在配置中添加stdout{codec=>rubydebug}
希望这能有所帮助。谢谢您提供的信息。我正在尝试使用两台机器探索elasticsearch集群。我希望我已经做了必要的改变。。请复习同样的内容。这些是我在我的机器上所做的elasticsearch.yml更改。My Machine:(123.456.789.1)cluster.name:ControlElasticSearch node.name:Node1 node.master:true node.data:true network.host:123.456.789.1 discovery.zen.ping.unicast.hosts:[“123.456.789.1”,“123.456.789.2”]其他机器:(123.456.789.2)cluster.name:ControlElasticSearch node.name:Node2 node.master:false node.data:true network.host:…***.2 discovery.zen.ping.unicast.hosts:[“123.456.789.1”,“123.456.789.2”]我能够在这两台机器上执行123.456.789.1:9200 123.456.789.2:9200。我还尝试了命令curl-XGET“我得到o/p以下”cluster\u name:“ControlElasticSearch”,“version”:20,“state_UID”:“6_NZDrKkTMKbCR2Vh4r_9Q”,“master_node”:“7XxnVX8nRa-QLBBxmN7AnQ”,“blocks”:{},“nodes”:{“name”:“Node1”,“临时id”:“Wte2C-KUQVWLKG5ba_wHBA”,“传输地址”:“123.456.789.1:9300”,“属性”:{}},LKhUGAEXTzO-ZCGLRYQ:{“名称”:“节点2”,“短暂id”:“ChRBXvl8Tri8YxffDRgxyA”,“传输地址”:“123.456.789.2:9300”,“属性”:{}},您好,我通过以下链接。最后一段说,作为用户,我们可以与集群中的任何节点交谈,每个节点都知道每个文档的位置,并且可以将我们的请求直接转发给保存我们感兴趣的数据的节点。