Apache spark 如何指定要连接到哪个配置单元元存储?

Apache spark 如何指定要连接到哪个配置单元元存储?,apache-spark,hive,apache-spark-sql,Apache Spark,Hive,Apache Spark Sql,追溯到Spark的几个版本,过去需要它来放置 hive-site.xml 在$SPARK_HOME/conf目录中。还是这样吗 这个问题的动机是:我们无法看到在metastore实例中定义的配置单元表,我们已经将hive site.xml复制到conf dir。我已经验证了hive site.xml仍在使用。它是从spark的类路径中选择的。这可以通过以下方式设置: export SPARK_CLASSPATH=/path/to/conf/dir 特定的驱动程序会影响spark的配置来源

追溯到Spark的几个版本,过去需要它来放置

 hive-site.xml
$SPARK_HOME/conf
目录中。还是这样吗


这个问题的动机是:我们无法看到在metastore实例中定义的配置单元表,我们已经将
hive site.xml
复制到conf dir。

我已经验证了
hive site.xml
仍在使用。它是从spark的
类路径
中选择的。这可以通过以下方式设置:

 export SPARK_CLASSPATH=/path/to/conf/dir

特定的驱动程序会影响spark的配置来源吗?如果您使用derby for hive metastore,则应影响配置的内容:例如jdo连接url等。它在您启动应用程序的本地创建metastore_db目录。这避免了回答以下问题:我们确实需要一个可配置的db。德比是纯粹的默认值。假设这里是mysql。