Scala 如何在没有现有配置单元设置的情况下使用Apache Spark中的配置单元功能?

Scala 如何在没有现有配置单元设置的情况下使用Apache Spark中的配置单元功能?,scala,hadoop,apache-spark,hive,Scala,Hadoop,Apache Spark,Hive,我目前正在测试ApacheSpark的框架,我只想在本地进行测试。apachespark框架文档中指出,spark支持配置单元查询,而不进行实际设置。此处,Apache Spark文档说明了以下内容: Spark 2.0中的SparkSession提供了对配置单元功能的内置支持 包括使用HiveQL编写查询的能力,访问Hive UDF,以及从配置单元表读取数据的能力。使用这些 功能,则不需要现有配置单元设置 如何在不设置任何蜂巢设置的情况下实际使用这些功能?一个编程示例将非常有用。谢谢。所以您只

我目前正在测试ApacheSpark的框架,我只想在本地进行测试。apachespark框架文档中指出,spark支持配置单元查询,而不进行实际设置。此处,Apache Spark文档说明了以下内容:

Spark 2.0中的SparkSession提供了对配置单元功能的内置支持 包括使用HiveQL编写查询的能力,访问Hive UDF,以及从配置单元表读取数据的能力。使用这些 功能,则不需要现有配置单元设置


如何在不设置任何蜂巢设置的情况下实际使用这些功能?一个编程示例将非常有用。谢谢。

所以您只需要将依赖项添加到构建工具中,然后添加到sparkSession:
val spark=sparkSession.builder().appName(“spark配置单元示例”).config(“spark.sql.warehouse.dir”,warehouseLocation).enableHiveSupport().getOrCreate()
无需安装蜂箱在仓库位置我应该指定什么?warehouseLocation是否包含任何文件?warehouseLocation指向托管数据库和表的默认位置。-它只是一个文件夹,本地配置单元将在其中存储临时表和元数据。