Logstash 逐行记录输入
如何使用编解码器逐行读取日志存储中的文件? 当我尝试以下配置但不起作用时:Logstash 逐行记录输入,logstash,logstash-file,Logstash,Logstash File,如何使用编解码器逐行读取日志存储中的文件? 当我尝试以下配置但不起作用时: file { path => "C:/DEV/Projects/data/*.csv" start_position => "beginning" codec => line { format => "%{[data]}" } 输出中带有elasticsearch的配置示例: input{ file { path => "C:/DEV/Projects/d
file {
path => "C:/DEV/Projects/data/*.csv"
start_position => "beginning"
codec => line {
format => "%{[data]}"
}
输出中带有elasticsearch的配置示例:
input{
file {
path => "C:/DEV/Projects/data/*.csv"
start_position => beginning
}
}
filter {
csv {
columns => [
"COLUMN_1",
"COLUMN_2",
"COLUMN_3",
.
.
"COLUMN_N"
]
separator => ","
}
mutate {
convert => {
"COLUMN_1" => "float"
"COLUMN_4" => "float"
"COLUMN_6" => "float"
}
}
}
output {
elasticsearch {
hosts => ["localhost:9200"]
action => "index"
index => "test_index"
}
对于过滤器:
你的问题写得不好。什么不起作用?发生了什么(日志、跟踪、输出…)?观察到的行为与预期行为有何不同?如果你想得到任何人的帮助,你必须提供更多的信息。我很确定你不需要线路编解码器,但是因为你没有提供任何信息,我不知道这是否是问题所在。