Apache kafka 卡夫卡流API:KStream到KTable 1
我有一个有3个经纪人的卡夫卡集群,我有300个主题 我想开始使用API kafka流独立处理每个主题,并将每个输入主题的结果写入特定主题Apache kafka 卡夫卡流API:KStream到KTable 1,apache-kafka,Apache Kafka,我有一个有3个经纪人的卡夫卡集群,我有300个主题 我想开始使用API kafka流独立处理每个主题,并将每个输入主题的结果写入特定主题 inputtopic1 to outputtopic1 inputtopic2 to outputtopic2 inputtopic3 to outputtopic3 inputtopic4 to outputtopic4 等 有什么想法吗? 到()->终端操作。将记录写入卡夫卡主题。(KStream详细信息,KTable详细信息) 何时明确提供SER
inputtopic1 to outputtopic1
inputtopic2 to outputtopic2
inputtopic3 to outputtopic3
inputtopic4 to outputtopic4
等
有什么想法吗?
到()->终端操作。将记录写入卡夫卡主题。(KStream详细信息,KTable详细信息)
何时明确提供SERDE:
如果未明确指定SERDE,将使用配置中的默认SERDE。
如果KStream或KTable的键和/或值类型与配置的默认serdes不匹配,则必须明确指定serdes。
有关配置默认SERDE、可用SERDE和实现自己的自定义SERDE的信息,请参见数据类型和序列化。
要存在的多个变体,例如,指定一个自定义StreamPartitioner,使您可以控制输出记录如何分布在输出主题的分区中。这非常有用,我还有一个问题,我想使用spark cassandra连接器将这些处理后的数据写入C*这是我的代码