elasticsearch ELK Searh没有解析日志,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat" /> elasticsearch ELK Searh没有解析日志,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat" />

elasticsearch ELK Searh没有解析日志

elasticsearch ELK Searh没有解析日志,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat,我的环境(CentOS 7)中正在运行麋鹿搜索。整个过程似乎都是正确的,但是,filebeat发送的日志没有被logstash解析 # logstash input input { beats { host => ["LogstashIP"] port => 5044 } } 在Kibana discover菜单上,我无法访问geoip、状态响应、请求方法等信息。。。只有完整的消息日志,这样我也不能用这些数据创建仪表板 有人能帮我吗?检查Kibana中邮

我的环境(CentOS 7)中正在运行麋鹿搜索。整个过程似乎都是正确的,但是,filebeat发送的日志没有被logstash解析

# logstash input

input {
  beats {
    host => ["LogstashIP"]
    port => 5044
  }
}

在Kibana discover菜单上,我无法访问geoip、状态响应、请求方法等信息。。。只有完整的消息日志,这样我也不能用这些数据创建仪表板


有人能帮我吗?

检查Kibana中邮件的标签。如果有一个标记_grokparsefailure,这意味着日志不能被你的grok模式解析。此外,您可能还需要刷新字段列表(请参阅)。嗨,日志中不显示“\u grokparsefailure”标记。我也刷新了字段列表,但仍然没有成功。我现在在Centos的CombinedAppachelog过滤器中面临着非常类似的问题。我正在运行3个用于负载平衡的logstash实例版本6.4.1,其中只有一个正在解析消息。请检查Kibana中消息的标记。如果有一个标记_grokparsefailure,这意味着日志不能被你的grok模式解析。此外,您可能还需要刷新字段列表(请参阅)。嗨,日志中不显示“\u grokparsefailure”标记。我也刷新了字段列表,但仍然没有成功。我现在在Centos的CombinedAppachelog过滤器中面临着非常类似的问题。我正在运行3个用于负载平衡的logstash实例版本6.4.1,其中只有一个正在解析消息。
# httpd filter

filter {
  grok {
    match => { "message" => "%{COMBINEDAPACHELOG}" }
  }
}
# logstash output

output {
  elasticsearch {
    hosts => ["elasticSearchIP:9200"]
    manage_template => false
    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
  }
}
# filebeat output

filebeat:
  prospectors:
    -
      paths:
        - /var/log/httpd/application.log*

      input_type: log

      document_type: httpd

  registry_file: /var/lib/filebeat/registry

output:
  logstash:
    hosts: ["LogstashIP:5044"]
    bulk_max_size: 1024

shipper:

logging:
  files:
    rotateeverybytes: 10485760 # = 10MB