Apache spark 从SparkSession访问HiveConf
在Spark 1.6.2中,可以通过以下方法访问HiveConf对象Apache spark 从SparkSession访问HiveConf,apache-spark,Apache Spark,在Spark 1.6.2中,可以通过以下方法访问HiveConf对象 有人能告诉我如何在SparkSession对象的Spark2.0.2中执行同样的操作吗?您需要调用方法SparkSession.enableHiveSupport(),然后使用SparkSession实例本身 请参阅spark文档中的此示例。 HiveContext已被弃用。看这里。 您可以通过Spark.conf.getAll获取Spark配置,然后访问各个属性来访问配置单元。要获取数据库、表、函数等,您可以通过spar
有人能告诉我如何在SparkSession对象的Spark2.0.2中执行同样的操作吗?您需要调用方法
SparkSession.enableHiveSupport()
,然后使用SparkSession实例本身
请参阅spark文档中的此示例。
HiveContext已被弃用。看这里。
您可以通过
Spark.conf.getAll
获取Spark配置,然后访问各个属性来访问配置单元。要获取数据库、表、函数等,您可以通过spark.catalog
访问它们
val spark = SparkSession().builder()
.appName("MyApp")
.enableHiveSupport()
.getOrCreate()
// Get all configuration properties
val config = spark.conf.getAll
// Get the Hive metastore dir
val hiveDir = config("hive.metastore.warehouse.dir")
// List databases
val dbs = spark.catalog.listDatabases
dbs.show
// List tables
val tables = spark.catalog.listTables
tables.show