Python 在多对多关系上使用Sqlalchemy和Pandas进行大容量插入

Python 在多对多关系上使用Sqlalchemy和Pandas进行大容量插入,python,pandas,sqlalchemy,Python,Pandas,Sqlalchemy,我有5个数据帧,它们表示通过多对多关系链接的现有PostgreSQL数据库中的表。我的问题是如何将这些数据帧中的数据插入数据库 到目前为止,我已经使用了automap()来获取sqlalchemy ORM对象,但这是循环遍历每个dataframe行并为数据行创建ORM对象的最佳方法。然后,我想我必须重新oop每个对象,并使用.add()映射所有对象之间的关系 这是最好的方式吗?似乎是多余和低效的 我使用了与sqlalchemy有关的熊猫的以下内容: df.to_sql('TABLENAME',

我有5个数据帧,它们表示通过多对多关系链接的现有PostgreSQL数据库中的表。我的问题是如何将这些数据帧中的数据插入数据库

到目前为止,我已经使用了
automap()
来获取sqlalchemy ORM对象,但这是循环遍历每个dataframe行并为数据行创建ORM对象的最佳方法。然后,我想我必须重新oop每个对象,并使用
.add()
映射所有对象之间的关系


这是最好的方式吗?似乎是多余和低效的

我使用了与sqlalchemy有关的熊猫的以下内容:

df.to_sql('TABLENAME', engine, index=False, if_exists=append)
在创建引擎时,我使用fast_executemany=True选项,这使它更快

以下是to_sql函数的url:


是否使用批量插入?