Jdbc postgresql问题的logstash输入插件-重复(忽略上次运行状态)

Jdbc postgresql问题的logstash输入插件-重复(忽略上次运行状态),jdbc,postgresql-9.4,logstash-configuration,logstash-jdbc,Jdbc,Postgresql 9.4,Logstash Configuration,Logstash Jdbc,我正在使用jdbc插件从postgresql数据库中获取数据,整个导出过程似乎工作正常,我能够提取数据,但它不是按照保存状态工作的,每次查询所有数据时,都会出现大量重复数据 我上次运行时检查了.logstash\u jdbc\u。元数据状态会根据需要更新,但插件仍会在每次运行时从表中导入整个数据。如果配置中有任何错误 input { jdbc { jdbc_connection_string => "jdbc:postgresql://x.x.x.x:5432/dodb" jdbc_us

我正在使用jdbc插件从postgresql数据库中获取数据,整个导出过程似乎工作正常,我能够提取数据,但它不是按照保存状态工作的,每次查询所有数据时,都会出现大量重复数据

我上次运行时检查了.logstash\u jdbc\u。元数据状态会根据需要更新,但插件仍会在每次运行时从表中导入整个数据。如果配置中有任何错误

input 
{
jdbc {
jdbc_connection_string => "jdbc:postgresql://x.x.x.x:5432/dodb"
jdbc_user => "myuser"
jdbc_password => "passsword"
jdbc_validate_connection => true
jdbc_driver_library => "/opt/postgresql-9.4.1207.jar"
jdbc_driver_class => "org.postgresql.Driver"
statement => "select id,timestamp,distributed_query_id,distributed_query_task_id, "columns"->>'uid' as uid, "columns"->>'name' as name from distributed_query_result;"
schedule => "* * * * *"
use_column_value => true
tracking_column => "id"
tracking_column_type => "numeric"
clean_run => true
}
}
output
{
kafka{
topic_id => "psql-logs"
bootstrap_servers => "x.x.x.x:9092"
codec => "json"
}
}
任何帮助!!提前感谢,我用下面的文件作为参考。

已解决,必须在查询末尾添加sql\u last\u值此处id>:sql\u last\u值(id是我表中的列名)