Python SQLAlchemy:存储到PostgreSQL的行限制?

Python SQLAlchemy:存储到PostgreSQL的行限制?,python,postgresql,pandas,sqlalchemy,Python,Postgresql,Pandas,Sqlalchemy,我在Python3中使用SQLAlchemy将数据帧存储到PostreSQL表中。在78M行存储之前,东西都可以工作,而在2000万行存储时 Got 75032111 rows. Total time taken 11222.68 s. Finished at 2018-05-04 06:07:34. Killed 那里的人被杀了。我使用SQLAlechemy命令df.to_sqldbName,engine 在Python中使用SQLAlchemy将数据存储到PSQL数据库是否有一些限制?存

我在Python3中使用SQLAlchemy将数据帧存储到PostreSQL表中。在78M行存储之前,东西都可以工作,而在2000万行存储时

Got 75032111 rows.

Total time taken 11222.68 s.
Finished at 2018-05-04 06:07:34.
Killed
那里的人被杀了。我使用SQLAlechemy命令df.to_sqldbName,engine


在Python中使用SQLAlchemy将数据存储到PSQL数据库是否有一些限制?存储大表的首选方法是什么?如果由于大表而被截获,则使用一些sync命令继续存储?

我以前没有达到此限制,但您可以使用以下方法批量插入:

df.to_sql(dbName, engine, chunksize=100000)  # alter chunksize to your liking

也许你的进程被破坏了?向Postgresql存储潜在大量数据的一种方法是使用COPY命令,但是您必须将数据转换为适当的格式,尽管您可以生成性地进行转换。运行dmesg,看看是否确实如此。这将是一个非常明显的垃圾邮件,说它杀死了Python。@我的CPU的metatoaster温度在处理非常大的文件时变得太高,可能会杀死一些操作,但我能够用下面的答案解决这个问题,chunksize=100000,不知道热问题,必须监视它。感谢您帮助解决问题+1此问题已得到解决,但dmesg显示,在处理非常大的文件时,我的CPU温度过高+1我认为这是很自然的,因为您的CPU必须插入数据库。你有没有试着改变chunksize来看看这是否能缓解TEMP?e、 g.chunksize=10000。