elasticsearch 带有Logstash+的自定义日志;logstash转运公司+;基巴纳+;弹性搜索,elasticsearch,logstash,kibana,elasticsearch,Logstash,Kibana" /> elasticsearch 带有Logstash+的自定义日志;logstash转运公司+;基巴纳+;弹性搜索,elasticsearch,logstash,kibana,elasticsearch,Logstash,Kibana" />

elasticsearch 带有Logstash+的自定义日志;logstash转运公司+;基巴纳+;弹性搜索

elasticsearch 带有Logstash+的自定义日志;logstash转运公司+;基巴纳+;弹性搜索,elasticsearch,logstash,kibana,elasticsearch,Logstash,Kibana,我已经配置了Logstash+Logstash转发器+kibana+Elasticsearch。它使用系统日志,如Apache错误日志和系统日志。现在,我有一个应用程序日志,如下所示 发件人:sender@domain.com 创建时间:2014年9月4日星期四02:41:54 收件人:automation@domain.com 如何通过kibana读取上述日志文件。请有人在这方面帮助我。你的帮助很合适 您的日志库应该在将日志推入elasticsearch之前分析日志 我认为目前,你的日志有一

我已经配置了Logstash+Logstash转发器+kibana+Elasticsearch。它使用系统日志,如Apache错误日志和系统日志。现在,我有一个应用程序日志,如下所示

发件人:sender@domain.com 创建时间:2014年9月4日星期四02:41:54 收件人:automation@domain.com


如何通过kibana读取上述日志文件。请有人在这方面帮助我。你的帮助很合适

您的日志库应该在将日志推入elasticsearch之前分析日志

我认为目前,你的日志有一个输入(伐木工人)和一个输出(ES)。您应该至少添加一个grok过滤器(最流行)来提取新的语义字段

然后,您将能够根据这些新字段创建可视化:)


请参见此处:logstash.net/docs/1.4.2/filters/grok

使用logstash转发器导出日志,并[通过伐木工人协议]将日志发送到logstash

在logstash filter插件中,使用apache日志的grok模式使其工作并输出elasticsearch节点

然后,您可以使用kibana从elasticsearch读取数据,并相应地将其可视化


现在,可以在源端使用filebeat来代替它,它可以导出数据,并且不需要在logstash中开发apache日志之类的内容。这将使您能够从filebeat[apache日志]直接将数据发送到elasticsearch,并从kibana进行可视化。

您需要阅读并尝试设置自定义模式来解析这些日志。甚至还有一个测试你的工作。