Logstash 如何为csv输入文件安排日志存储
我有一个每小时更新一次的csv文件。我需要上传到kibana,我想安排logstash,以便它在kibana中每小时更新一次。我搜索了很多论坛,但我找到了关于JDBC输入计划的信息,但不是csv输入。您必须编写自己的logstash pipleline配置。根据如何读取输入,在何处输出数据。Kibana是一种可视化工具。数据通常在ElasticSearch中获取,然后在Kibana仪表板中查看。管道配置在启动后由logstash读取。下面给出了一个示例管道配置,它从卡夫卡主题中读取csv数据,并推送到ESLogstash 如何为csv输入文件安排日志存储,logstash,kibana,scheduling,Logstash,Kibana,Scheduling,我有一个每小时更新一次的csv文件。我需要上传到kibana,我想安排logstash,以便它在kibana中每小时更新一次。我搜索了很多论坛,但我找到了关于JDBC输入计划的信息,但不是csv输入。您必须编写自己的logstash pipleline配置。根据如何读取输入,在何处输出数据。Kibana是一种可视化工具。数据通常在ElasticSearch中获取,然后在Kibana仪表板中查看。管道配置在启动后由logstash读取。下面给出了一个示例管道配置,它从卡夫卡主题中读取csv数据,并
input {
kafka{
id => "test_id"
group_id => "test-consumer-group"
topics => ["test_metrics"]
bootstrap_servers => "kafka:9092"
consumer_threads => 1
codec => line
}
}
filter {
csv {
separator => ","
columns => ["timestamp","field1", "field2"]
}
}
output {
elasticsearch {
hosts => [ "elasticsearch:9200" ]
index => "_my_metrics"
}
}
请参考下面的链接,通过Logstash和SinceDb将数据从CSV导入Elasticsearch 有关更多CSV过滤器插件配置,请参阅下面的链接 希望有帮助