Python 在postgrerds数据库表中插入1000万条记录需要多长时间

Python 在postgrerds数据库表中插入1000万条记录需要多长时间,python,postgresql,dictionary,for-loop,sql-insert,Python,Postgresql,Dictionary,For Loop,Sql Insert,我在csv文件中有11814568条记录,有两列,我用内存缓冲ram在8246秒内压缩了第一列 现在,我有9979561条与第一列相对应的记录作为主键,我必须根据第一列插入或更新第二列的值 我使用128GB RAM配置插入时可以使用块。将块大小设为1000并插入它们。我在1米的排上做了,花了14秒。对于10米行,应该需要几分钟 我的区块看起来像: INSERT INTO table(c1, c2) VALUES (1,1), (2,2), (3,3) ... (1000, 1000) 插入时可

我在csv文件中有11814568条记录,有两列,我用内存缓冲ram在8246秒内压缩了第一列 现在,我有9979561条与第一列相对应的记录作为主键,我必须根据第一列插入或更新第二列的值
我使用128GB RAM配置

插入时可以使用块。将块大小设为1000并插入它们。我在1米的排上做了,花了14秒。对于10米行,应该需要几分钟

我的区块看起来像:

INSERT INTO table(c1, c2)
VALUES (1,1), (2,2), (3,3) ... (1000, 1000)

插入时可以使用块。将块大小设为1000并插入它们。我在1米的排上做了,花了14秒。对于10米行,应该需要几分钟

我的区块看起来像:

INSERT INTO table(c1, c2)
VALUES (1,1), (2,2), (3,3) ... (1000, 1000)

根据配置和执行频率,还可以直接使用PostgreSQL命令;它有本机工具来导入CSV。你能用表定义和SQL语句来修饰这个问题吗?你能澄清这个问题吗?不清楚您是否要导入数据或更新现有数据使用COPY导入CSV:根据配置和执行频率,您也可以直接使用PostgreSQL命令;它有本机工具来导入CSV。你能用表定义和SQL语句来修饰这个问题吗?你能澄清这个问题吗?不清楚您是否要导入数据或更新现有数据使用COPY导入CSV:在从字典中插入多个值的块中,您能否提供一些可复制的代码?在从字典中插入多个值的块中,您能否提供一些可复制的代码