Apache spark 如何在spark sql中使用配置单元挂钩
我使用hive(2.1.1)挂钩,如下所示:Apache spark 如何在spark sql中使用配置单元挂钩,apache-spark,hadoop,hive,apache-spark-sql,Apache Spark,Hadoop,Hive,Apache Spark Sql,我使用hive(2.1.1)挂钩,如下所示: set hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int); 我还想在spark sql(2.4.0)中运行这个sql,但我发现并没有调用hook。 我运行spark sql的方式如下: spark-sql -e 'set spark.hadoop.hive.exec.post.hooks=com.test.HiveTestHook;cr
set hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int);
我还想在spark sql(2.4.0)中运行这个sql,但我发现并没有调用hook。
我运行spark sql的方式如下:
spark-sql -e 'set spark.hadoop.hive.exec.post.hooks=com.test.HiveTestHook;create table tmp.hive_hook_test(x int);'
所以我想知道如何在spark sql中使用配置单元挂钩?spark不支持配置单元挂钩,详细信息请参阅:spark不支持配置单元挂钩,详细信息请参阅: