Apache flink ApacheFlink能否使用表API/SQL中的内置连接器实现一次端到端的连接?

Apache flink ApacheFlink能否使用表API/SQL中的内置连接器实现一次端到端的连接?,apache-flink,flink-sql,Apache Flink,Flink Sql,我想知道,ApacheFlink(v1.11)是否能够使用内置连接器(Kafka、JDBC、File)使用表API/SQL实现一次端到端的语义 我在文档中找不到任何与此相关的内容。只有这样,我才能在“一次到位”模式下启用检查点。这取决于您在源/汇端使用/组合的连接器 来源 卡夫卡只支持一次 文件系统只支持一次 JDBC还不能作为流媒体源使用。如果这是您的要求,请签出[2] 下沉 卡夫卡至少支持一次(Flink 1.11)和一次(Flink 1.12)[1] 文件系统只支持一次 JDBC通过

我想知道,ApacheFlink(v1.11)是否能够使用内置连接器(Kafka、JDBC、File)使用表API/SQL实现一次端到端的语义


我在文档中找不到任何与此相关的内容。只有这样,我才能在“一次到位”模式下启用检查点。

这取决于您在源/汇端使用/组合的连接器

来源

  • 卡夫卡只支持一次
  • 文件系统只支持一次
  • JDBC还不能作为流媒体源使用。如果这是您的要求,请签出[2]
下沉

  • 卡夫卡至少支持一次(Flink 1.11)和一次(Flink 1.12)[1]
  • 文件系统只支持一次
  • JDBC通过在数据库中执行upserts,仅支持一次表是否具有主键。否则至少一次
[1]


[2]

非常感谢您的回答。因此,我只能在批处理模式下使用JDBC表作为源,如
环境设置.newInstance().useBlinkPlanner().inBatchMode().build()
,通过使用Verververica提供的基于CDC的连接器,我可以在
.inStreamingMode()
中使用它,但我将只捕获更改,而不捕获数据库中的初始数据,rigtht?在新状态(无保存点/快照/恢复)期间,CDC连接器也会在更改之前发出所有现有行。哦,这很好,非常感谢,并继续使用这个伟大的框架。我相信可以通过连接器选项“debzium.snapshot mode”进行配置。