Python flask sqlalchemy将大型文件写入数据库

Python flask sqlalchemy将大型文件写入数据库,python,mysql,flask-sqlalchemy,large-file-upload,Python,Mysql,Flask Sqlalchemy,Large File Upload,我正在尝试使用flask SQLalchemy将5900行sql创建、插入和更改表之类的大型文件加载到mysql数据库中 我正在解析文件,并通过拆分来分离每个命令 这正如预期的那样有效 这就是我目前所拥有的 对于SQL查询执行,我使用SQLAlchemy的引擎API 当我执行查询时,数据库似乎在文件的5400行之后退出了它的工作,但是应用程序记录完整的执行,直到第5900行为止,没有错误 当我分别创建和插入时,它也可以工作,所以有没有一种方法可以分割批处理执行或使用池或类似的方法,这不会使数据库

我正在尝试使用flask SQLalchemy将5900行sql创建、插入和更改表之类的大型文件加载到mysql数据库中

我正在解析文件,并通过拆分来分离每个命令

这正如预期的那样有效

这就是我目前所拥有的

对于SQL查询执行,我使用SQLAlchemy的引擎API

当我执行查询时,数据库似乎在文件的5400行之后退出了它的工作,但是应用程序记录完整的执行,直到第5900行为止,没有错误

当我分别创建和插入时,它也可以工作,所以有没有一种方法可以分割批处理执行或使用池或类似的方法,这不会使数据库卡住


谢谢大家!

您通过SQL Alchemy加载SQL转储有什么特别的原因吗?为什么不使用终端SQL server命令呢?然后,你甚至不需要解析。我必须解析它,因为我需要修改表名,因为我使用了一个特殊的映射,比如x。但在此之后,查询执行可能会像这样工作。我来测试一下。好的,谢谢你!