Azure Databricks 6.1初始化metastore连接时没有名为global_temp的数据库错误

Azure Databricks 6.1初始化metastore连接时没有名为global_temp的数据库错误,azure,databricks,azure-databricks,Azure,Databricks,Azure Databricks,在群集6.1(包括Apache Spark 2.4.4、Scala 2.11)(Azure)上初始化配置单元元存储连接(首次将数据帧保存为表)时,我可以看到数据库全局_temp的运行状况检查失败,错误为: 20/02/18 12:11:17 INFO HiveUtils: Initializing HiveMetastoreConnection version 0.13.0 using file: ... 20/02/18 12:11:21 INFO HiveMetaStore: 0: get_

在群集6.1(包括Apache Spark 2.4.4、Scala 2.11)(Azure)上初始化配置单元元存储连接(首次将数据帧保存为表)时,我可以看到数据库全局_temp的运行状况检查失败,错误为:

20/02/18 12:11:17 INFO HiveUtils: Initializing HiveMetastoreConnection version 0.13.0 using file:
...
20/02/18 12:11:21 INFO HiveMetaStore: 0: get_database: global_temp
20/02/18 12:11:21 INFO audit: ugi=root  ip=unknown-ip-addr  cmd=get_database: global_temp   
20/02/18 12:11:21 ERROR RetryingHMSHandler: NoSuchObjectException(message:There is no database named global_temp)
    at org.apache.hadoop.hive.metastore.ObjectStore.getMDatabase(ObjectStore.java:487)
    at org.apache.hadoop.hive.metastore.ObjectStore.getDatabase(ObjectStore.java:498)
...
    at org.apache.spark.sql.DataFrameWriter.saveAsTable(DataFrameWriter.scala:430)
...
    at py4j.GatewayConnection.run(GatewayConnection.java:251)
    at java.lang.Thread.run(Thread.java:748)
这不会导致python脚本失败,但会污染日志

全局临时数据库不应该自动创建吗?
支票能不能关掉?或者错误被抑制?

您找到解决方案了吗?我也有同样的经历:(抱歉@JarroVGIT,到目前为止还没有解决方案。暂时忽略这一点。