没有Hadoop/Hive的ApacheKylin

没有Hadoop/Hive的ApacheKylin,hadoop,hive,snowflake-cloud-data-platform,kylin,Hadoop,Hive,Snowflake Cloud Data Platform,Kylin,我使用雪花作为我的DWH,我的ETL使用火花,我没有蜂巢表。 在没有Hadoop生态系统的情况下,有没有使用ApacheKylin的选项?据我所知,这相当复杂。为了利用分布式系统上的分析功能,我建议使用物化视图从Snowflake中的每个分布式系统的各个部分筛选所需的数据 更多关于物化视图的信息 还有预览功能,查询分析的数据交换 我希望这会有帮助,对不起,我对ApacheKylin没什么帮助 答案是否定的。 它无法直接从Spark数据帧读取数据,它支持的数据源是Hive、Kafka和RDBMS。

我使用雪花作为我的DWH,我的ETL使用火花,我没有蜂巢表。
在没有Hadoop生态系统的情况下,有没有使用ApacheKylin的选项?

据我所知,这相当复杂。为了利用分布式系统上的分析功能,我建议使用物化视图从Snowflake中的每个分布式系统的各个部分筛选所需的数据 更多关于物化视图的信息

还有预览功能,查询分析的数据交换

我希望这会有帮助,对不起,我对ApacheKylin没什么帮助

答案是否定的。
它无法直接从Spark数据帧读取数据,它支持的数据源是Hive、Kafka和RDBMS。

基于Apache Kylin核心的Kyligence Cloud,但基于AWS和Azure的云产品提供了无需Hadoop直接连接雪花的能力。查看此处了解更多信息:

AFAIK Kylin主要依赖HBase。请参阅软件需求@伟大的问题。他们的销售人员说,是的,数据帧没有存储在任何地方,不管怎样,它们只是一种运行时格式,我没有否决,也没有办法知道谁有。您所说的直接读取并不意味着您将数据帧存储在任何地方。Spark可以写信给Hbase,而不仅仅是那些你听到的地方,我会为当时责备你而道歉。正如您所提到的,Spark可以向HBase写入,但这不是我需要的。我不希望它只出现在HBase上,而是作为Kylin的输入,Kylin本身创建了OLAP多维数据集,将其存储在其存储中。目前只有HBaseYou是对的,他们有最新版本,但我不确定它有多可靠。非常感谢。