使用logstash导入数据到elasticsearch,速度太慢
全部 我正在使用logstash将一些csv文件导入elasticsearch,我发现速度太慢了 配置为:使用logstash导入数据到elasticsearch,速度太慢,logstash,Logstash,全部 我正在使用logstash将一些csv文件导入elasticsearch,我发现速度太慢了 配置为: input { stdin{} } filter { csv{ columns=>['date','metric1','id','metric2','country_id','metric3','region_id'] separator=>"," } mutate { convert => [ "id", "integer" ] con
input {
stdin{}
}
filter {
csv{
columns=>['date','metric1','id','metric2','country_id','metric3','region_id']
separator=>","
}
mutate {
convert => [ "id", "integer" ]
convert => [ "country_id", "integer" ]
convert => [ "region_id", "float" ]
}
}
output {
elasticsearch {
action => "index"
protocol=>http
host => "10.64.201.***"
index => "csv_test_data_01"
workers => 1
}
stdout {
codec => rubydebug
}
}
10.64.201.***是elasticsearch集群的主ip地址,该集群中有三个节点
csv文件存储在这三个节点之一中
我只是简单地使用命令:bla-f**.config有更好的解决方案吗?或者我做错了什么?应该从隔离问题开始: