Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/clojure/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Postgresql 如何通过批处理方式更新400000条记录_Postgresql_Out Of Memory_Batch Processing - Fatal编程技术网

Postgresql 如何通过批处理方式更新400000条记录

Postgresql 如何通过批处理方式更新400000条记录,postgresql,out-of-memory,batch-processing,Postgresql,Out Of Memory,Batch Processing,我的下表名为business\u extra business_id address neighbourhood ========================================== 1 2 3 .. 400 000 records 但收到了错误消息: 共享内存不足 这样做几次(10000批次)。 作为一个没有名字的马,最好通过提供执行计划来确保您的查询是正常的。您有多少共享内存?那么改变这个设置呢?lakh是我不使用的,请翻译。请向我们展示语句的执行计划以及相关

我的下表名为
business\u extra

business_id address neighbourhood ========================================== 1 2 3 .. 400 000 records 但收到了错误消息:

共享内存不足

这样做几次(10000批次)。
作为一个没有名字的马,最好通过提供执行计划来确保您的查询是正常的。

您有多少共享内存?那么改变这个设置呢?lakh是我不使用的,请翻译。请向我们展示语句的执行计划以及相关表上定义的任何索引。当然,您只想更新地址当前为空的位置。
update b2g_mns_v2.txn_business_extra a 
   set mappable_address=b.mappable_address 
from b2g_mns_v2.temp_business b 
where b.import_reference_id=a.import_reference_id
update b2g_mns_v2.txn_business_extra a 
   set mappable_address=b.mappable_address 
from b2g_mns_v2.temp_business b 
where b.import_reference_id=a.import_reference_id
and a.mappable_address is null
limit 10000