Scala 将数据加载到Spark失败
我正在尝试将数据加载到Spark,以进行如下相同的处理:Scala 将数据加载到Spark失败,scala,apache-spark,Scala,Apache Spark,我正在尝试将数据加载到Spark,以进行如下相同的处理: import org.apache.spark.sql.hive.HiveContext import sqlContext.implicits._ val hiveObj = new HiveContext(sc) val df = hiveObj.sql("select * from table.database_name") 我得到以下错误: 18/07/23 17:28:31 INFO ParseDriver: Parsing
import org.apache.spark.sql.hive.HiveContext
import sqlContext.implicits._
val hiveObj = new HiveContext(sc)
val df = hiveObj.sql("select * from table.database_name")
我得到以下错误:
18/07/23 17:28:31 INFO ParseDriver: Parsing command: select * from table.database_name 18/07/23 17:28:31 INFO ParseDriver: Parse Completed org.apache.spark.sql.AnalysisException: Table not found: `table`.`database_name`; line 1 pos xx
at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:42)
at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:54)
at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:50)
.......................................................
但是,当我运行以下命令时,它工作正常(我可以看到已显示的表列表):
为什么我仍然收到这个错误?如果有什么问题,那就是
数据库\u name.table
。所以。。它工作!!!谢谢@user8371915
val df = hiveObj.sql("show tables in d_dmzud10trac01").show()