Apache kafka 文件节拍到卡夫卡-作为Avro消息发送或验证?

Apache kafka 文件节拍到卡夫卡-作为Avro消息发送或验证?,apache-kafka,avro,filebeat,Apache Kafka,Avro,Filebeat,我有输出到卡夫卡主题的Filebeat,希望通过使用Avro模式确保消息的格式正确。 在Filebeat文档中,提到了两种可能的输出编解码器,JSON或format 在Kafka中,模式注册表可用于存储Avro模式 我的问题: Filebeat可以发送Avro消息(根据Avro模式验证);如果是这样,是否可以从schema registry链接schema,这样就不需要在schema的每个新版本上进行物理复制? Filebeat的JSON或format消息是否可以被卡夫卡视为Avro? 如果Fi

我有输出到卡夫卡主题的Filebeat,希望通过使用Avro模式确保消息的格式正确。

在Filebeat文档中,提到了两种可能的输出编解码器,
JSON
format

在Kafka中,模式注册表可用于存储Avro模式

我的问题:
Filebeat可以发送Avro消息(根据Avro模式验证);如果是这样,是否可以从schema registry链接schema,这样就不需要在schema的每个新版本上进行物理复制?

Filebeat的
JSON
format
消息是否可以被卡夫卡视为Avro?


如果Filebeat无法生成经过验证的Avro消息,那么在尝试写入主题时,是否可以在Kafka一侧验证JSON发送?如果是这样,是否可以删除或记录无效消息?

您可以将Filebeat输出发送到Logstash,Logstash随后可以使用Apache Avro编解码器插件序列化数据并将其发送到Kafka主题。此链接显示Filebeat如何通过背压处理与Logstash通信:。这个URL有关于Logstash Apache Avro编解码器插件的详细信息,该插件可以按照Apache Avro格式对数据进行序列化和反序列化:是的,这不是我想要的真正的解决方案,但就管道长度而言,这可能是最接近的解决方案。谢谢,并标记为解决方案。