Parsing 日志存储筛选器拆分中断工作流
拆分过滤器打破了我们的过滤链:在手册中我们发现 拆分筛选器用于将多行邮件拆分为单独的邮件 事件 但我们不知道如何编写下一个链 输入->过滤器拆分->过滤器组->输出 只需尝试在同一个过滤器部分中使用split和grok,但它不起作用Parsing 日志存储筛选器拆分中断工作流,parsing,logstash,Parsing,Logstash,拆分过滤器打破了我们的过滤链:在手册中我们发现 拆分筛选器用于将多行邮件拆分为单独的邮件 事件 但我们不知道如何编写下一个链 输入->过滤器拆分->过滤器组->输出 只需尝试在同一个过滤器部分中使用split和grok,但它不起作用 filter { split { } grok { pattern => "%{NGINX}" } } split和grok上的输入、输出和单独使用都很好,但是当我们一起使用split和grok时,s
filter {
split { }
grok {
pattern => "%{NGINX}"
}
}
split和grok上的输入、输出和单独使用都很好,但是当我们一起使用split和grok时,split之后grok不会被调用
请告知我们如何拆分大消息,然后通过grok解析它这是一个bug。看
另请参见指示使用mutate
过滤器的第一条注释:
mutate {
split => ["message", "\n"]
}
请提供日志示例。请发布日志存储配置文件。nginx访问或错误日志?