Apache kafka 聚合和存储来自多个源的数据
我不确定这个问题更多的是一个技术问题还是一个商业问题,但无论如何,我肯定希望社区提供一些意见 简言之,我希望开发一种可以从多个来源传输数据的东西。一些可能来自API,而另一些可能是非结构化数据 我的问题是,像卡夫卡/任何其他替代品这样的东西会成为一个有用的平台吗?我正在寻找一种解决方案,可以帮助在将不同类型的数据传输到数据库进行查询和分析之前,将其存储在单个仓库中Apache kafka 聚合和存储来自多个源的数据,apache-kafka,Apache Kafka,我不确定这个问题更多的是一个技术问题还是一个商业问题,但无论如何,我肯定希望社区提供一些意见 简言之,我希望开发一种可以从多个来源传输数据的东西。一些可能来自API,而另一些可能是非结构化数据 我的问题是,像卡夫卡/任何其他替代品这样的东西会成为一个有用的平台吗?我正在寻找一种解决方案,可以帮助在将不同类型的数据传输到数据库进行查询和分析之前,将其存储在单个仓库中 谢谢你的帮助。卡夫卡没有提供信息来源。它存储它 Kafka Connect允许寻找数据来源。但是,apachenifi、KNIME、
谢谢你的帮助。卡夫卡没有提供信息来源。它存储它 Kafka Connect允许寻找数据来源。但是,apachenifi、KNIME、streamset、Talend和类似的工具也是如此 卡夫卡是拼图的一部分,但听起来您需要一个ETL工作流生成器,而不仅仅是卡夫卡 另外,请记住,Kafka最初是为将数据传输到Hadoop而设计的(Hadoop也可以被S3等云存储所取代),在Hadoop中,数据可以尽可能原始地保存,以便于分析,而不是数据库