JDBC接收器配置选项batch.size

JDBC接收器配置选项batch.size,jdbc,apache-kafka,apache-kafka-connect,Jdbc,Apache Kafka,Apache Kafka Connect,从 所以,这是从汇合的网站 重要性为中等,默认值为3000。如果我想要卡夫卡呢 每30秒更改一次,即使只有27条卡夫卡消息 关于这个话题?处理发生在服务器上的默认设置是什么 每经过一段时间?我们都知道这是适合的,因为我们可以运行许多示例,只需将1条记录从mySQL传递到SQLServer,但我找不到基于时间的处理的参数值。我能影响它吗 他也注意到了这一点。那里有些有趣的东西。我认为你应该把重点放在“可能的时候”这个词上 consumer.max.poll.records总是能从卡夫卡抓到那么多的

所以,这是从汇合的网站

重要性为中等,默认值为3000。如果我想要卡夫卡呢 每30秒更改一次,即使只有27条卡夫卡消息 关于这个话题?处理发生在服务器上的默认设置是什么 每经过一段时间?我们都知道这是适合的,因为我们可以运行许多示例,只需将1条记录从mySQL传递到SQLServer,但我找不到基于时间的处理的参数值。我能影响它吗


他也注意到了这一点。那里有些有趣的东西。

我认为你应该把重点放在“可能的时候”这个词上


consumer.max.poll.records
总是能从卡夫卡抓到那么多的记录。一旦轮询完成,JDBC接收器将根据需要构建尽可能多的批,直到在
consumer.max.poll.interval.ms

中调用下一个consumer poll。你的意思是,双方似乎都在谈论这个话题。这是有道理的,经验观察也告诉我这一点。我不能让卡夫卡连接接收器每分钟都轮询一次这个话题。我在第二个URL中注意到了500个批量中449个记录的问题。完全错误。消费者的投票频率与普通消费者循环中的一样高。Connect并不是解决批量消耗的解决方案,我们需要接近实时的解决方案,所以我认为这很好。我们有spark kafka数据湖集成,批处理模式。当然,GoldenGate/Debezium是源代码。一旦这些数据进入卡夫卡,你可以用它做任何事情。例如,您可以使用Kafka Streams将传入的CDC记录过滤成适合datalake的格式,然后使用Connect sink以不同的方式将其写出。那么你真的不需要火花束了
Specifies how many records to attempt to batch together for insertion into the destination table, when possible.

Type: int
Default: 3000
Valid Values: [0,…]
Importance: medium