Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 从SparkSession访问HiveConf_Apache Spark - Fatal编程技术网

Apache spark 从SparkSession访问HiveConf

Apache spark 从SparkSession访问HiveConf,apache-spark,Apache Spark,在Spark 1.6.2中,可以通过以下方法访问HiveConf对象 有人能告诉我如何在SparkSession对象的Spark2.0.2中执行同样的操作吗?您需要调用方法SparkSession.enableHiveSupport(),然后使用SparkSession实例本身 请参阅spark文档中的此示例。 HiveContext已被弃用。看这里。 您可以通过Spark.conf.getAll获取Spark配置,然后访问各个属性来访问配置单元。要获取数据库、表、函数等,您可以通过spar

在Spark 1.6.2中,可以通过以下方法访问HiveConf对象


有人能告诉我如何在SparkSession对象的Spark2.0.2中执行同样的操作吗?

您需要调用方法
SparkSession.enableHiveSupport()
,然后使用SparkSession实例本身

请参阅spark文档中的此示例。

HiveContext已被弃用。看这里。

您可以通过
Spark.conf.getAll
获取Spark配置,然后访问各个属性来访问配置单元。要获取数据库、表、函数等,您可以通过
spark.catalog
访问它们

val spark = SparkSession().builder()
    .appName("MyApp")
    .enableHiveSupport()
    .getOrCreate()

// Get all configuration properties
val config = spark.conf.getAll

// Get the Hive metastore dir
val hiveDir = config("hive.metastore.warehouse.dir")

// List databases
val dbs = spark.catalog.listDatabases
dbs.show

// List tables
val tables = spark.catalog.listTables
tables.show