Logstash 逐行记录输入

Logstash 逐行记录输入,logstash,logstash-file,Logstash,Logstash File,如何使用编解码器逐行读取日志存储中的文件? 当我尝试以下配置但不起作用时: file { path => "C:/DEV/Projects/data/*.csv" start_position => "beginning" codec => line { format => "%{[data]}" } 输出中带有elasticsearch的配置示例: input{ file { path => "C:/DEV/Projects/d

如何使用编解码器逐行读取日志存储中的文件? 当我尝试以下配置但不起作用时:

file {
path => "C:/DEV/Projects/data/*.csv"
start_position => "beginning"
codec => line {
     format => "%{[data]}"
}

输出中带有elasticsearch的配置示例:

input{
    file {
        path => "C:/DEV/Projects/data/*.csv"
        start_position => beginning
    }

}

filter {

csv {

    columns => [
        "COLUMN_1",
        "COLUMN_2",
        "COLUMN_3",
         .
         .
        "COLUMN_N"
    ]
    separator => ","
}

mutate {
        convert => { 
            "COLUMN_1" => "float" 
            "COLUMN_4" => "float" 
            "COLUMN_6" => "float" 
        }
}
}

output {
elasticsearch {

    hosts => ["localhost:9200"]
    action => "index"
    index => "test_index"
}
对于过滤器:

你的问题写得不好。什么不起作用?发生了什么(日志、跟踪、输出…)?观察到的行为与预期行为有何不同?如果你想得到任何人的帮助,你必须提供更多的信息。我很确定你不需要线路编解码器,但是因为你没有提供任何信息,我不知道这是否是问题所在。