elasticsearch 如何使用ELK生成关于现有日志转储的报告?,elasticsearch,logstash,kibana,elastic-stack,elasticsearch,Logstash,Kibana,Elastic Stack" /> elasticsearch 如何使用ELK生成关于现有日志转储的报告?,elasticsearch,logstash,kibana,elastic-stack,elasticsearch,Logstash,Kibana,Elastic Stack" />

elasticsearch 如何使用ELK生成关于现有日志转储的报告?

elasticsearch 如何使用ELK生成关于现有日志转储的报告?,elasticsearch,logstash,kibana,elastic-stack,elasticsearch,Logstash,Kibana,Elastic Stack,使用ELK stack,是否可以生成现有日志转储的报告 例如: 我有大约2 GB的Apache访问日志,我希望仪表板报告显示: 所有请求,状态代码为400 所有请求,模式为“GET.*” 感谢,任何例子链接 是的,这是可能的。你应该: 安装和设置麋鹿堆叠 安装filebeat,将其配置为获取日志,并将数据转发到logstash 在logstash中,聆听filebeat输入,使用grok处理/分解数据,并将其转发给ElastichsSearch,如: input { beats {

使用ELK stack,是否可以生成现有日志转储的报告

例如: 我有大约2 GB的Apache访问日志,我希望仪表板报告显示:

  • 所有请求,状态代码为400
  • 所有请求,模式为“GET.*”

  • 感谢,任何例子链接

    是的,这是可能的。你应该:

  • 安装和设置麋鹿堆叠
  • 安装filebeat,将其配置为获取日志,并将数据转发到logstash
  • 在logstash中,聆听filebeat输入,使用grok处理/分解数据,并将其转发给ElastichsSearch,如:

    input {
      beats {
        port => 5044
      }
    }
    
    filter {
            grok {
                match => { "message" => "%{COMMONAPACHELOG}" }
            }
    }
    
    output {
      elasticsearch {
        hosts => ["localhost:9200"]
        index => "filebeat-logstash-%{+YYYY.MM.dd}"
      }
    }
    
  • 在kibana中,设置索引并查询数据,例如

    response: 400
    
    verb: GET AND message: "http://example.com/abc/"