Hadoop 卡夫卡主题与卡夫卡连接到HDFS的合并

Hadoop 卡夫卡主题与卡夫卡连接到HDFS的合并,hadoop,hdfs,apache-kafka,confluent-platform,apache-kafka-connect,Hadoop,Hdfs,Apache Kafka,Confluent Platform,Apache Kafka Connect,是否可以将Kafka Connect的HDFS连接器配置为将多个单独的主题写入/合并到一个文件中 这些主题将包含具有相同avro模式的消息,我希望KafkanConnect充当这些Kafka主题和HDF之间的中介。最坏情况下,主题内容可以在写入HDFS后进行组合,但我觉得使用HDFS连接器可以实现更干净、更快的方式。现在,HDFS连接器将每个主题写入自己的目录。您可以在写入HDFS后合并HDFS中的目录,也可以在写入HDFS之前合并Kafka中的主题,但连接器本身不会这样做 你能扩展一下“在…之

是否可以将Kafka Connect的HDFS连接器配置为将多个单独的主题写入/合并到一个文件中


这些主题将包含具有相同avro模式的消息,我希望KafkanConnect充当这些Kafka主题和HDF之间的中介。最坏情况下,主题内容可以在写入HDFS后进行组合,但我觉得使用HDFS连接器可以实现更干净、更快的方式。

现在,HDFS连接器将每个主题写入自己的目录。您可以在写入HDFS后合并HDFS中的目录,也可以在写入HDFS之前合并Kafka中的主题,但连接器本身不会这样做

你能扩展一下“在…之前合并卡夫卡中的主题”吗?使用两个主题中的事件(这在卡夫卡消费者中是可能的)并生成一个。这听起来很容易与卡夫卡团队,甚至可能与镜子制造商和处理。