Hadoop 如何确定配置单元中的动态分区数

Hadoop 如何确定配置单元中的动态分区数,hadoop,mapreduce,hive,hbase,apache-pig,Hadoop,Mapreduce,Hive,Hbase,Apache Pig,我正在为一个已分区并已扣紧的表执行insert语句 但是在运行期间,它抛出了一个关于动态分区数量的错误——即,没有足够的分区 因此,我设定如下: set hive.exec.max.dynamic.partitions=2000; set hive.exec.max.dynamic.partitions.pernode=2000; 有人能解释一下这些分区应该设置多少个吗?我只是给了它们一个随机值。你找到解决方案了吗?你找到解决方案了吗?

我正在为一个已分区并已扣紧的表执行insert语句 但是在运行期间,它抛出了一个关于动态分区数量的错误——即,没有足够的分区

因此,我设定如下:

set hive.exec.max.dynamic.partitions=2000;
set hive.exec.max.dynamic.partitions.pernode=2000;

有人能解释一下这些分区应该设置多少个吗?我只是给了它们一个随机值。

你找到解决方案了吗?你找到解决方案了吗?