Oracle 将数据推送到kafka服务器后删除源中的数据

Oracle 将数据推送到kafka服务器后删除源中的数据,oracle,apache-kafka,apache-kafka-connect,confluent-platform,Oracle,Apache Kafka,Apache Kafka Connect,Confluent Platform,我正在使用confluent platform 3.3从Oracle数据库中提取数据。将数据推送到kafka服务器后,应删除数据库中检索到的数据 有什么办法吗?请建议。卡夫卡没有默认的方法 您是如何使用Kafka Connect或您编写的自定义代码从数据库读取数据的 如果是后者,我建议在代码中实现删除,在Kafka确认发送后收集ID,并定期批量删除 或者,您可以编写一个小作业,以不同于实际目标系统的用户组读取卡夫卡主题,并根据从主题中提取的记录进行删除。如果每隔几分钟、几小时运行一次此作业,。。

我正在使用confluent platform 3.3从Oracle数据库中提取数据。将数据推送到kafka服务器后,应删除数据库中检索到的数据


有什么办法吗?请建议。

卡夫卡没有默认的方法

您是如何使用Kafka Connect或您编写的自定义代码从数据库读取数据的

如果是后者,我建议在代码中实现删除,在Kafka确认发送后收集ID,并定期批量删除


或者,您可以编写一个小作业,以不同于实际目标系统的用户组读取卡夫卡主题,并根据从主题中提取的记录进行删除。如果每隔几分钟、几小时运行一次此作业,。。。您还可以跟踪发送的数据。

卡夫卡没有默认的方法

您是如何使用Kafka Connect或您编写的自定义代码从数据库读取数据的

如果是后者,我建议在代码中实现删除,在Kafka确认发送后收集ID,并定期批量删除


或者,您可以编写一个小作业,以不同于实际目标系统的用户组读取卡夫卡主题,并根据从主题中提取的记录进行删除。如果每隔几分钟、几小时运行一次此作业,。。。您也可以跟踪发送的数据。

我正在使用Kafka connect,我可以知道它是否有要删除的配置。我搜索了很多,但没有找到解决方案。jdbc连接器在读取记录后没有删除记录的选项,没有。如果您感兴趣,它应该不太难实现为PR。我正在使用Kafka connect,我可以知道它是否有要删除的配置。我搜索了很多,但没有找到解决方案。jdbc连接器在读取记录后没有删除记录的选项,没有。如果您感兴趣,作为PR实现应该不会太难。。