Streaming 如何整合Storm和Kafka

Streaming 如何整合Storm和Kafka,streaming,cloud,apache-kafka,apache-storm,Streaming,Cloud,Apache Kafka,Apache Storm,我在一个basic程序中工作并开发了它,该程序使用本地文本文件作为输入源。但现在我必须处理来自外部系统的连续流数据。为此,卡夫卡是最佳选择 问题是如何让我的喷口从卡夫卡获取流式数据。或者如何将暴风雪与卡夫卡结合起来。如何才能处理来自卡夫卡的数据?查找 这是一个从Kafka集群读取的普通Storm Spout实现。您只需使用代理列表、主题名称等参数配置该喷口。然后,您只需将输出链接到相应的螺栓以进行进一步处理 从上面提到的同一个文档中,配置如下: SpoutConfig spoutConfig =

我在一个basic程序中工作并开发了它,该程序使用本地文本文件作为输入源。但现在我必须处理来自外部系统的连续流数据。为此,卡夫卡是最佳选择

问题是如何让我的喷口从卡夫卡获取流式数据。或者如何将暴风雪与卡夫卡结合起来。如何才能处理来自卡夫卡的数据?

查找

这是一个从Kafka集群读取的普通Storm Spout实现。您只需使用
代理列表
主题名称
等参数配置该喷口。然后,您只需将输出链接到相应的螺栓以进行进一步处理

从上面提到的同一个文档中,配置如下:

SpoutConfig spoutConfig = new SpoutConfig(
      ImmutableList.of("kafkahost1", "kafkahost2"), // List of Kafka brokers
      8, // Number of partitions per host
      "clicks", // Topic to read from
      "/kafkastorm", // The root path in Zookeeper for the spout to store the consumer offsets
      "discovery"); // An id for this consumer for storing the consumer offsets in Zookeeper

KafkaSpout kafkaSpout = new KafkaSpout(spoutConfig);

你可以用谷歌搜索一下!在Golang上是否有任何实施?