Spark JDBC找不到临时表

Spark JDBC找不到临时表,jdbc,apache-spark,apache-spark-sql,Jdbc,Apache Spark,Apache Spark Sql,我们通过spark创建了一个临时表(内存中) 当我们sftp到服务器并使用beeline时,我们可以像“select*from Table1”一样查询这个临时表,而不会出现问题 但是,当我们在本地机器上使用带有相应驱动程序的GUI工具时(连接字符串为“jdbc:spark://servername:port/default哦,我们有麻烦了。我们可以使用GUI工具中的“ShowTables;”查看临时表Table1。但是,当我们尝试在工具中使用“从表1中选择*”时,它显示一个错误“[Simba]J

我们通过spark创建了一个临时表(内存中)

当我们sftp到服务器并使用beeline时,我们可以像“select*from Table1”一样查询这个临时表,而不会出现问题

但是,当我们在本地机器上使用带有相应驱动程序的GUI工具时(连接字符串为“jdbc:spark://servername:port/default哦,我们有麻烦了。我们可以使用GUI工具中的“ShowTables;”查看临时表Table1。但是,当我们尝试在工具中使用“从表1中选择*”时,它显示一个错误“[Simba]JSQLEngine无法找到表“表1”,SQL状态:HY000,查询:从表1中选择*。[SQL状态=HY000,DB错误代码=500051]”。注意,我们正在使用Simba JDBC驱动程序的试用版进行测试


此外,我还使用连接字符串“jdbc:hive2://servername:port/default”从cloudra尝试了HiveJDBC驱动程序。这是同一个问题。请帮忙。非常感谢。

事实证明,一些驱动程序在选择后需要一个“限制”子句。一旦我添加了它,它就会检索到数据。

嗨,Zhazi,如果您将连接URL更改为启用pass-through SparkSQL而不是ANSI SQL(将
UseNativeQuery=1;
附加到您的连接URL),您的查询是否按预期工作?