使用spark 1.6 scala代码检查配置单元中是否存在表

使用spark 1.6 scala代码检查配置单元中是否存在表,scala,apache-spark-sql,Scala,Apache Spark Sql,我正在尝试使用spark 1.6和scala编码检查hive中是否存在表。 我试图通过互联网进行探索,但找不到比这更有用的东西 这里提到,如果我们使用 sqlContext.tableNames.contains("mytable") 然后返回布尔值。但当我尝试这样做时,它会检查默认数据库并给出false 在执行此检查时,如何设置要查看的数据库?您可以先这样设置数据库: scala> sqlContext.sql("use dbName") 然后搜索该表: scala> sq

我正在尝试使用spark 1.6和scala编码检查hive中是否存在表。 我试图通过互联网进行探索,但找不到比这更有用的东西

这里提到,如果我们使用

sqlContext.tableNames.contains("mytable") 
然后返回布尔值。但当我尝试这样做时,它会检查默认数据库并给出false


在执行此检查时,如何设置要查看的数据库?

您可以先这样设置数据库:

scala> sqlContext.sql("use dbName")
然后搜索该表:

scala> sqlContext.tableNames.contains("tabName")
res3: Boolean = true

在spark 1.6中,我们没有“spark”。。。但是当我尝试像sqlContext.sql(“db name”)和sqlContext.tableNames.contains(“tabName”)一样时。。它起作用了。。。。谢谢请编辑您的答案,以便我接受。我已经做了更改。谢谢