名称为hive.files.umask.value的HiveConf不存在

名称为hive.files.umask.value的HiveConf不存在,hive,Hive,当我执行sql脚本时。我遇到了倾斜数据问题,所以我尝试设置hive.groupby.shewindata参数以优化它,如下所示 设置hive.groupby.shewindata=true 我的hql在这里乱七八糟 配置单元版本:V2.0.0 Hadoop版本:V2.4.0 当我尝试时,我得到了以下错误: SLF4J:类路径包含多个SLF4J绑定。 SLF4J:在[jar:file:/home/www/hadoop/share/hadoop/common/lib/SLF4J-log4j12-1.

当我执行sql脚本时。我遇到了倾斜数据问题,所以我尝试设置
hive.groupby.shewindata
参数以优化它,如下所示

设置hive.groupby.shewindata=true
我的hql在这里乱七八糟

配置单元版本:V2.0.0

Hadoop版本:V2.4.0

当我尝试时,我得到了以下错误:

SLF4J:类路径包含多个SLF4J绑定。 SLF4J:在[jar:file:/home/www/hadoop/share/hadoop/common/lib/SLF4J-log4j12-1.7.5.jar!/org/SLF4J/impl/StaticLoggerBinder.class]中找到绑定 SLF4J:在[jar:file:/home/www/spark sql hzsearch/lib/spark-assembly-1.5.1-hadoop2.6.0.jar!/org/SLF4J/impl/StaticLoggerBinder.class]中找到绑定 SLF4J:有关说明,请参阅。 SLF4J:实际绑定的类型为[org.SLF4J.impl.Log4jLoggerFactory] SLF4J:类路径包含多个SLF4J绑定。 SLF4J:在[jar:file:/home/www/hadoop/share/hadoop/common/lib/SLF4J-log4j12-1.7.5.jar!/org/SLF4J/impl/StaticLoggerBinder.class]中找到绑定 SLF4J:在[jar:file:/home/www/spark sql hzsearch/lib/spark-assembly-1.5.1-hadoop2.6.0.jar!/org/SLF4J/impl/StaticLoggerBinder.class]中找到绑定 SLF4J:有关说明,请参阅。 SLF4J:实际绑定的类型为[org.SLF4J.impl.Log4jLoggerFactory] 2016-12-28 21:07:10902警告[main]conf.HiveConf(HiveConf.java:initialize(2753))-名称为hive.files.umask.value的HiveConf不存在

使用中的配置初始化日志记录 jar:file:/home/www/hive/lib/hive-common-1.2.0.jar/hive-log4j.properties 好啊 所用时间:0.502秒查询返回非零代码:1,原因:配置单元配置hive.groupby.shewindata不存在


你知道为什么会出现这个错误吗?

正确的句子是:

set hive.groupby.skewindata= true;