Apache spark 无法在Spark提交(Spark 3)中启用配置单元支持

Apache spark 无法在Spark提交(Spark 3)中启用配置单元支持,apache-spark,hive,apache-spark-sql,Apache Spark,Hive,Apache Spark Sql,我正在集成测试套件中使用spark。它必须在本地运行,并将文件读/写到本地文件系统。我还想将这些数据读/写为表 在套件的第一步中,我在dbfeature\u存储中编写了一些配置单元表 spark.sql.warehouse.dir=/opt/spark/work dir/warehouse。该步骤正确完成,我看到了预期文件夹中的文件 之后,我运行了一个spark submit步骤,其中包括这些会议 --conf spark.sql.warehouse.dir=/opt/spark/work-di

我正在集成测试套件中使用spark。它必须在本地运行,并将文件读/写到本地文件系统。我还想将这些数据读/写为表

在套件的第一步中,我在db
feature\u存储中编写了一些配置单元表
spark.sql.warehouse.dir=/opt/spark/work dir/warehouse
。该步骤正确完成,我看到了预期文件夹中的文件

之后,我运行了一个spark submit步骤,其中包括这些会议

--conf spark.sql.warehouse.dir=/opt/spark/work-dir/warehouse --conf spark.sql.catalogImplementation=hive
当我试图阅读以前写的表格时,我得到

 Exception in thread "main" org.apache.spark.sql.catalyst.analysis.NoSuchDatabaseException: Database 'feature_store' not found
但是,如果我尝试在spark shell中使用完全相同的配置执行完全相同的操作,我就能够读取数据

在spark提交中,我使用以下代码获得spark会话

SparkSession spark = SparkSession.active();
我也试着用它来代替

SparkSession spark = SparkSession.builder().enableHiveSupport().getOrCreate();
但我总是遇到和上面一样的问题

我知道这个问题与spark submit没有将蜂巢作为 目录实现。事实上,我看到类
spark.catalog
在spark提交期间不是
HiveCatalogImpl
的实例(而在使用spark shell时)