Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/powerbi/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hive 其他进程在同一表上写入时插入覆盖_Hive_Hiveql - Fatal编程技术网

Hive 其他进程在同一表上写入时插入覆盖

Hive 其他进程在同一表上写入时插入覆盖,hive,hiveql,Hive,Hiveql,如果我在分区的外部的和非分区的外部的表上使用insert overwrite,当其他进程写入同一个表时,配置单元将如何工作 我正在尝试以下非分区表: insert overwrite table customer_master (select * from customer_master); 其他过程: insert into table customer_master select a, b, c; 默认情况下,配置单元中的事务处于关闭状态。更新相同数据的不同会话没有冲突检测 hive中的

如果我在
分区的
外部的
非分区的
外部的
表上使用insert overwrite,当其他进程写入同一个表时,配置单元将如何工作

我正在尝试以下非分区表:

insert overwrite table customer_master (select * from customer_master);
其他过程:

insert into table customer_master select a, b, c;

默认情况下,配置单元中的事务处于关闭状态。更新相同数据的不同会话没有冲突检测

hive中的语句只是MapReduce(或spark、tez等)作业,它们将独立运行。由于它们在同一个表上操作,最终将写入同一个目录,因此如果插入到作业在插入覆盖作业之前完成,则第一个结果将被覆盖。因为插入覆盖作业将在写入结果之前清除目录

要避免这种情况,请使用