Apache spark 用户并发在Spark for hive中不起作用

Apache spark 用户并发在Spark for hive中不起作用,apache-spark,hive,apache-spark-sql,apache-hive,Apache Spark,Hive,Apache Spark Sql,Apache Hive,我已将3节点Spark 1.4.0版群集环境配置为Hive 0.13.1版。并使用./sbin/start-thriftserver.sh启动了Spark thrift服务 多个用户使用具有相同端口和不同用户名的相同thrift服务 但问题是,当一个用户执行像USEMYTEST这样的查询时。然后,数据库更改会自动反映给其他用户。您是否按照文档中所述设置了配置单元并发值: 我更改了上述配置设置,但这对我也不起作用。以上属性hive.exforce.bucketing&hive.exec.dynam

我已将3节点Spark 1.4.0版群集环境配置为Hive 0.13.1版。并使用./sbin/start-thriftserver.sh启动了Spark thrift服务

多个用户使用具有相同端口和不同用户名的相同thrift服务


但问题是,当一个用户执行像USEMYTEST这样的查询时。然后,数据库更改会自动反映给其他用户。

您是否按照文档中所述设置了配置单元并发值:


我更改了上述配置设置,但这对我也不起作用。以上属性hive.exforce.bucketing&hive.exec.dynamic.partition.mode仅适用于hive 0.14.0及更高版本,还有一点,Spark SQL还不支持bucket。
Configuration Values to Set for INSERT, UPDATE, DELETE
In addition to the new parameters listed above, some existing parameters need to be set to support INSERT ... VALUES, UPDATE, and DELETE.
Configuration key
Must be set to
hive.support.concurrency    true (default is false)
hive.enforce.bucketing  true (default is false)
hive.exec.dynamic.partition.mode    nonstrict (default is strict)