Scala 无法将配置单元表加载到Spark中

Scala 无法将配置单元表加载到Spark中,scala,apache-spark-sql,apache-spark-1.6,Scala,Apache Spark Sql,Apache Spark 1.6,我正在尝试使用spark sql从配置单元表加载数据。然而,它并没有给我任何回报。我尝试在配置单元中执行相同的查询,它会打印出结果。下面是我试图在scala中执行的代码 sc.setLogLevel("ERROR") import org.apache.spark.sql.DataFrame import org.apache.spark.sql.Row import org.apache.spark.sql.types.{StructField, StructType, LongType} i

我正在尝试使用spark sql从配置单元表加载数据。然而,它并没有给我任何回报。我尝试在配置单元中执行相同的查询,它会打印出结果。下面是我试图在scala中执行的代码

sc.setLogLevel("ERROR")
import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.Row
import org.apache.spark.sql.types.{StructField, StructType, LongType}
import org.apache.spark.sql.hive.HiveContext
import sqlContext.implicits._
val sqlContext = new HiveContext(sc)
sqlContext.setConf("spark.sql.hive.convertMetastoreOrc", "false")
val data = sqlContext.sql("select `websitename` from db1.table1 limit 10").toDF
请告诉我可能的原因

Spark-版本:1.6.2 Scala-2.10
取决于表最初是如何创建的。如果它是由外部应用程序创建的,并且您的配置单元作为单独的服务运行,请确保SPARK_HOME/conf/hive-site.xml中的设置正确


如果它是一个内部spark sql表,它会在主节点上的文件夹中设置metastore,在您的情况下,它可能已被删除或移动。

能否详细说明一下,它不会返回任何信息?你看过《数据秀》吗?