Apache kafka KafkaConsumer不会读取主题中的所有记录

Apache kafka KafkaConsumer不会读取主题中的所有记录,apache-kafka,kafka-consumer-api,kafka-producer-api,Apache Kafka,Kafka Consumer Api,Kafka Producer Api,我想测试一个卡夫卡的例子,制作人: objectproducerapp扩展应用程序{ val topic=“topicTest” val props=新属性() props.put(“bootstrap.servers”,“localhost:9092”) props.put(ConsumerConfig.GROUP\u ID\u CONFIG,“消费者”) put(“key.serializer”、“org.apache.kafka.common.serialization.StringSer

我想测试一个卡夫卡的例子,制作人:

objectproducerapp扩展应用程序{
val topic=“topicTest”
val props=新属性()
props.put(“bootstrap.servers”,“localhost:9092”)
props.put(ConsumerConfig.GROUP\u ID\u CONFIG,“消费者”)
put(“key.serializer”、“org.apache.kafka.common.serialization.StringSerializer”)
put(“value.serializer”、“org.apache.kafka.common.serialization.StringSerializer”)
val producer=新卡夫卡制作人[字符串,字符串](道具)

对于(i有
max.poll.records
consumer参数,卡夫卡1.0.0默认值为500,因此您无法获得125000的结果。
由于这个原因,它可以使用20,但奇怪的是你的结果是778。

谢谢,我认为原因是日志清理过程。默认清理策略是“删除”。我想一直保留主题中的所有记录(不删除任何记录)。正确的方法是:使“log.cleaner.enable=false”或“log.cleanup.policy=compact”?您只需要log.cleaner.enable=false即可。这并不重要,因为您只是在禁用清除程序来运行。当您将其设置为true时,如果希望删除邮件或压缩主题,则可以将策略指定为delete或compact。
...
records size 125000
records size 125000
records size 125000
records size 125000
...
...
records size 778
records size 778
records size 778
records size 778
...