Apache flink 在Flink SQL作业中查询SQL Server数据库表时,为什么Flink SQL作业从运行变为完成?

Apache flink 在Flink SQL作业中查询SQL Server数据库表时,为什么Flink SQL作业从运行变为完成?,apache-flink,flink-sql,Apache Flink,Flink Sql,当我们在Flink SQL CLI中选择作为SQL Server数据库表源的任何表时,为什么Flink作业会在从数据库表中获取所有记录后完成?是否可以使其运行以从数据库表中获取最新数据?JDBC connector中的JdbcTableSource定义为一个有界源,这意味着它将在获取所有记录后完成,而不是监视SQL Server数据库表的更改,然后连续发送数据库表更改日志 也许flink CDC连接器就是您想要的,它支持读取数据库表快照并继续读取表binlog。Flink还支持Kafkae.g的

当我们在Flink SQL CLI中选择作为SQL Server数据库表源的任何表时,为什么Flink作业会在从数据库表中获取所有记录后完成?是否可以使其运行以从数据库表中获取最新数据?

JDBC connector中的JdbcTableSource定义为一个有界源,这意味着它将在获取所有记录后完成,而不是监视SQL Server数据库表的更改,然后连续发送数据库表更改日志

也许flink CDC连接器就是您想要的,它支持读取数据库表快照并继续读取表binlog。Flink还支持Kafkae.g的CDC格式:一个包含表binglog的kafa主题,通过CDC工具加载,您可以从Flink SQL中定义的Kafka表中连续读取最新的表

Flink可以很好地使用CDC连接器和CDC格式,您可以查阅[1][2]了解更多信息

[1] flink cdc连接器:

[2] flink CDC格式:

JDBC连接器中的JdbcTableSource被定义为一个有界源,这意味着它将在获取所有记录后完成,而不是监视SQL Server数据库表的更改,然后连续发送数据库表更改日志

也许flink CDC连接器就是您想要的,它支持读取数据库表快照并继续读取表binlog。Flink还支持Kafkae.g的CDC格式:一个包含表binglog的kafa主题,通过CDC工具加载,您可以从Flink SQL中定义的Kafka表中连续读取最新的表

Flink可以很好地使用CDC连接器和CDC格式,您可以查阅[1][2]了解更多信息

[1] flink cdc连接器:

[2] flink CDC格式: