Pyspark 如何将Tableau/BI工具连接到Delta Lake?(不带数据块)

Pyspark 如何将Tableau/BI工具连接到Delta Lake?(不带数据块),pyspark,hive,tableau-api,delta-lake,Pyspark,Hive,Tableau Api,Delta Lake,我正在尝试将数据仓库迁移到Delta lake。有一件事我很难弄清楚,那就是如何在spark会话之外连接到Delta Lake(银和金)表。我希望能够使用诸如Tableau之类的BI工具连接到这些表。我没有使用databricks,我想知道在hive metastore中存储这些表是否有帮助。如果不是这样的话,有人能帮助我用另一种方法吗?或者如果这是可行的。 你可以有一个蜂巢亚稳和一个带有火花源和Delta .IO开源服务器的节俭服务器,然后连接TabLao桌面。此时,databricks将是最

我正在尝试将数据仓库迁移到Delta lake。有一件事我很难弄清楚,那就是如何在spark会话之外连接到Delta Lake(银和金)表。我希望能够使用诸如Tableau之类的BI工具连接到这些表。我没有使用databricks,我想知道在hive metastore中存储这些表是否有帮助。如果不是这样的话,有人能帮助我用另一种方法吗?或者如果这是可行的。

你可以有一个蜂巢亚稳和一个带有火花源和Delta .IO开源服务器的节俭服务器,然后连接TabLao桌面。此时,databricks将是最方便、最可靠的计算工具。您的数据仓库目前存在哪些导致迁移的问题?使用三角洲-湖泊方法可能会遇到更多问题。您正在尝试迁移星型架构吗?您使用什么数据库平台?要迁移,请使用swoop?Connect-odbc或jdbc?是的,您可以使用odbc或JDBDC。但您仍然必须连接到databricks群集。集成到hive会起作用吗?正如这里提到的-。我用Hadoop建立了一个spark集群来模拟docker上的hdfs。