elasticsearch ELK Searh没有解析日志
我的环境(CentOS 7)中正在运行麋鹿搜索。整个过程似乎都是正确的,但是,filebeat发送的日志没有被logstash解析elasticsearch ELK Searh没有解析日志,elasticsearch,logstash,kibana,filebeat,elasticsearch,Logstash,Kibana,Filebeat,我的环境(CentOS 7)中正在运行麋鹿搜索。整个过程似乎都是正确的,但是,filebeat发送的日志没有被logstash解析 # logstash input input { beats { host => ["LogstashIP"] port => 5044 } } 在Kibana discover菜单上,我无法访问geoip、状态响应、请求方法等信息。。。只有完整的消息日志,这样我也不能用这些数据创建仪表板 有人能帮我吗?检查Kibana中邮
# logstash input
input {
beats {
host => ["LogstashIP"]
port => 5044
}
}
在Kibana discover菜单上,我无法访问geoip、状态响应、请求方法等信息。。。只有完整的消息日志,这样我也不能用这些数据创建仪表板
有人能帮我吗?检查Kibana中邮件的标签。如果有一个标记_grokparsefailure,这意味着日志不能被你的grok模式解析。此外,您可能还需要刷新字段列表(请参阅)。嗨,日志中不显示“\u grokparsefailure”标记。我也刷新了字段列表,但仍然没有成功。我现在在Centos的CombinedAppachelog过滤器中面临着非常类似的问题。我正在运行3个用于负载平衡的logstash实例版本6.4.1,其中只有一个正在解析消息。请检查Kibana中消息的标记。如果有一个标记_grokparsefailure,这意味着日志不能被你的grok模式解析。此外,您可能还需要刷新字段列表(请参阅)。嗨,日志中不显示“\u grokparsefailure”标记。我也刷新了字段列表,但仍然没有成功。我现在在Centos的CombinedAppachelog过滤器中面临着非常类似的问题。我正在运行3个用于负载平衡的logstash实例版本6.4.1,其中只有一个正在解析消息。
# httpd filter
filter {
grok {
match => { "message" => "%{COMBINEDAPACHELOG}" }
}
}
# logstash output
output {
elasticsearch {
hosts => ["elasticSearchIP:9200"]
manage_template => false
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
}
}
# filebeat output
filebeat:
prospectors:
-
paths:
- /var/log/httpd/application.log*
input_type: log
document_type: httpd
registry_file: /var/lib/filebeat/registry
output:
logstash:
hosts: ["LogstashIP:5044"]
bulk_max_size: 1024
shipper:
logging:
files:
rotateeverybytes: 10485760 # = 10MB