Apache spark 如何在spark sql中使用配置单元挂钩

Apache spark 如何在spark sql中使用配置单元挂钩,apache-spark,hadoop,hive,apache-spark-sql,Apache Spark,Hadoop,Hive,Apache Spark Sql,我使用hive(2.1.1)挂钩,如下所示: set hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int); 我还想在spark sql(2.4.0)中运行这个sql,但我发现并没有调用hook。 我运行spark sql的方式如下: spark-sql -e 'set spark.hadoop.hive.exec.post.hooks=com.test.HiveTestHook;cr

我使用hive(2.1.1)挂钩,如下所示:

set hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int);
我还想在spark sql(2.4.0)中运行这个sql,但我发现并没有调用hook。 我运行spark sql的方式如下:

spark-sql -e 'set spark.hadoop.hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int);'

所以我想知道如何在spark sql中使用配置单元挂钩?

spark不支持配置单元挂钩,详细信息请参阅:

spark不支持配置单元挂钩,详细信息请参阅: