Scala 将数据加载到Spark失败

Scala 将数据加载到Spark失败,scala,apache-spark,Scala,Apache Spark,我正在尝试将数据加载到Spark,以进行如下相同的处理: import org.apache.spark.sql.hive.HiveContext import sqlContext.implicits._ val hiveObj = new HiveContext(sc) val df = hiveObj.sql("select * from table.database_name") 我得到以下错误: 18/07/23 17:28:31 INFO ParseDriver: Parsing

我正在尝试将数据加载到Spark,以进行如下相同的处理:

import org.apache.spark.sql.hive.HiveContext
import sqlContext.implicits._

val hiveObj = new HiveContext(sc)
val df = hiveObj.sql("select * from table.database_name")
我得到以下错误:

18/07/23 17:28:31 INFO ParseDriver: Parsing command: select * from table.database_name 18/07/23 17:28:31 INFO ParseDriver: Parse Completed org.apache.spark.sql.AnalysisException: Table not found: `table`.`database_name`; line 1 pos xx
        at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:42)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:54)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:50) 
.......................................................
但是,当我运行以下命令时,它工作正常(我可以看到已显示的表列表):


为什么我仍然收到这个错误?

如果有什么问题,那就是
数据库\u name.table
。所以。。它工作!!!谢谢@user8371915
val df = hiveObj.sql("show tables in d_dmzud10trac01").show()