Hadoop 找不到表或视图将配置单元表转换为spark数据帧
我正在尝试执行以下操作:Hadoop 找不到表或视图将配置单元表转换为spark数据帧,hadoop,apache-spark,hive,sbt,apache-spark-sql,Hadoop,Apache Spark,Hive,Sbt,Apache Spark Sql,我正在尝试执行以下操作: import hiveContext.implicits._ val productDF=hivecontext.sql("select * from productstorehtable2") println(productDF.show()) 我得到的错误是 org.apache.spark.sql.AnalysisException:未找到表或视图: productstorehtable2;第1行位置14 我不知道为什么会发生这种情况 我在spark配置中使用
import hiveContext.implicits._
val productDF=hivecontext.sql("select * from productstorehtable2")
println(productDF.show())
我得到的错误是
org.apache.spark.sql.AnalysisException:未找到表或视图:
productstorehtable2;第1行位置14
我不知道为什么会发生这种情况
我在spark配置中使用过这个
set(“spark.sql.warehouse.dir”hdfs://quickstart.cloudera:8020/user/hive/warehouse))
以及我描述格式化productstorehtable2时的位置
hdfs://quickstart.cloudera:8020/user/hive/warehouse/productstorehtable2
我已使用此代码创建表
create external table if not exists productstorehtable2
(
device string,
date string,
word string,
count int
)
row format delimited fields terminated by ','
location 'hdfs://quickstart.cloudera:8020/user/cloudera/hadoop/hive/warehouse/VerizonProduct2';
我使用sbt(带spark依赖项)运行应用程序。我的操作系统是CentOS,我有spark 2.0
有人能帮我找出哪里出了问题吗
编辑: 当我执行println(hivecontext.sql(“showtables”))时,它只输出一个空行
谢谢您是否在创建表的同一数据库中查询select。@mrsrinivas,我作为默认值添加了。productstorehtable2,我得到的错误表或视图未找到:
default
productstorehtable2
;第1行位置14;