Logstash 如何为csv输入文件安排日志存储

Logstash 如何为csv输入文件安排日志存储,logstash,kibana,scheduling,Logstash,Kibana,Scheduling,我有一个每小时更新一次的csv文件。我需要上传到kibana,我想安排logstash,以便它在kibana中每小时更新一次。我搜索了很多论坛,但我找到了关于JDBC输入计划的信息,但不是csv输入。您必须编写自己的logstash pipleline配置。根据如何读取输入,在何处输出数据。Kibana是一种可视化工具。数据通常在ElasticSearch中获取,然后在Kibana仪表板中查看。管道配置在启动后由logstash读取。下面给出了一个示例管道配置,它从卡夫卡主题中读取csv数据,并

我有一个每小时更新一次的csv文件。我需要上传到kibana,我想安排logstash,以便它在kibana中每小时更新一次。我搜索了很多论坛,但我找到了关于JDBC输入计划的信息,但不是csv输入。

您必须编写自己的logstash pipleline配置。根据如何读取输入,在何处输出数据。Kibana是一种可视化工具。数据通常在ElasticSearch中获取,然后在Kibana仪表板中查看。管道配置在启动后由logstash读取。下面给出了一个示例管道配置,它从卡夫卡主题中读取csv数据,并推送到ES

input {

  kafka{
    id => "test_id"
    group_id => "test-consumer-group"
    topics => ["test_metrics"]
    bootstrap_servers => "kafka:9092"
    consumer_threads => 1
    codec => line
  }
}
filter {
  csv {
     separator => ","
     columns => ["timestamp","field1", "field2"]
  }
}
output {
    elasticsearch {
        hosts => [ "elasticsearch:9200" ]
        index => "_my_metrics"
    }
}

请参考下面的链接,通过Logstash和SinceDb将数据从CSV导入Elasticsearch

有关更多CSV过滤器插件配置,请参阅下面的链接

希望有帮助