Kafka Connect JDBC接收器提交

Kafka Connect JDBC接收器提交,jdbc,apache-kafka,kafka-consumer-api,apache-kafka-connect,Jdbc,Apache Kafka,Kafka Consumer Api,Apache Kafka Connect,就JDBC目标而言,我找不到Kafka Connect JDBC接收器的提交策略或参数 是每N行提交一次,还是在达到batch.size时提交?无论N行是什么?批量大小或完成时将有意义。当Kafka Connect worker正在运行接收器任务时,它会从分配给任务的主题分区发送消息:一旦分区被打开进行写入,Connect将开始使用API从Kafka转发记录 JDBC sink connector使用a(其大小可通过连接器的使用者设置控制)写入通过该方法传递的每批消息。对,但是batch.siz

就JDBC目标而言,我找不到Kafka Connect JDBC接收器的提交策略或参数


是每
N
行提交一次,还是在达到
batch.size
时提交?无论
N
行是什么?批量大小或完成时将有意义。

当Kafka Connect worker正在运行接收器任务时,它会从分配给任务的主题分区发送消息:一旦分区被打开进行写入,Connect将开始使用API从Kafka转发记录


JDBC sink connector使用a(其大小可通过连接器的使用者设置控制)写入通过该方法传递的每批消息。

对,但是batch.size的相关性是什么?似乎对源代码、消费类内容都有点不同。你是指生产者
批处理.size
属性吗?是的,的确如此,先生。你完全不用担心生产者或源连接器任务,因为接收器连接器不需要知道它们(只是关于卡夫卡主题)接收器连接器确实关心消费者。*属性。。。例如,您可以设置
consumer.max.poll.records
consumer.auto.offset.reset
cc@theblue这是否回答了您的问题?如果我回答不清楚,我可能会编辑。而且代码是开源的,所以你可以在里面闲逛,做很多其他的事情@板球队