Apache flink 如何使用Apache Flink 1.12和DataStream API批处理模式将Kafka添加为有界源代码

Apache flink 如何使用Apache Flink 1.12和DataStream API批处理模式将Kafka添加为有界源代码,apache-flink,Apache Flink,我想在ApacheFlink1.12中使用Kafka源作为有界数据源,我尝试使用Flinkkafka消费者连接器,但它给出了以下原因 原因:java.lang.IllegalStateException:检测到“execution.runtime mode”设置为“BATCH”的无限源。不允许这种组合,请将“执行.运行时模式”设置为流式或自动 在org.apache.flink.util.premissions.checkState(premissions.java:198)~[flink-co

我想在ApacheFlink1.12中使用Kafka源作为有界数据源,我尝试使用Flinkkafka消费者连接器,但它给出了以下原因

原因:java.lang.IllegalStateException:检测到“execution.runtime mode”设置为“BATCH”的无限源。不允许这种组合,请将“执行.运行时模式”设置为流式或自动 在org.apache.flink.util.premissions.checkState(premissions.java:198)~[flink-core-1.12.0.jar:1.12.0]

根据flink的最新文档,我们可以使用Kafka作为有界源,但没有提供如何实现这一点的示例,也没有提到这是采用这种方法的最佳方式

有人能帮我找到一些示例工作代码来实现这个用例吗

KafkaSource source=KafkaSource
.builder()
.SetBootStrapServer(…)
.setGroupId(…)
.setTopics(…)
.setDeserializer(…)
.setStartingOffsets(OffsetsInitializer.earliest())
.setBounded(OffsetsInitializer.latest())
.build();
env.fromSource(source,WatermarkStrategy.forMonotonousTimestamps(),“Kafka source”);
有关更多信息,请参阅