Python 如果查询结果太大怎么办
我正在使用python3的mysql连接器从mysql数据库进行查询。我有如此多的数据,如果我收集最近7天的数据,查询的大小将超过10GB,因此迫使我的python脚本被终止。我认为通常我们可以对结果进行流式处理,但是我没有找到在mysql Concetor中对查询结果进行流式处理的方法。有没有其他方法可以解决这个问题?不要一次性获取结果集。您可以执行以下操作之一或这些操作的组合:Python 如果查询结果太大怎么办,python,mysql,mysql-connector,Python,Mysql,Mysql Connector,我正在使用python3的mysql连接器从mysql数据库进行查询。我有如此多的数据,如果我收集最近7天的数据,查询的大小将超过10GB,因此迫使我的python脚本被终止。我认为通常我们可以对结果进行流式处理,但是我没有找到在mysql Concetor中对查询结果进行流式处理的方法。有没有其他方法可以解决这个问题?不要一次性获取结果集。您可以执行以下操作之一或这些操作的组合: 使用LIMIT,OFFSET生成多个文件,使用SELECT into 使用日期/小时功能生成多个文件,使用SELE
LIMIT,OFFSET
生成多个文件,使用SELECT into
SELECT-into
cat
使用cat hugedata_*>hugedata.csv将所有生成的文件合并为一个文件
@Anthony Kong的评论是正确的。为了解决这个问题,我们可以从
在深入研究代码之后,我发现
fetchmany
函数调用manyfetchone
来实现“fetchmany”。所以我最终决定使用fetchone。另外,fetchone在文档中提供了一个示例也许可以通过选择进入
将其插入到一个文件中。也就是说,在进入一个新的领域之前,你到底想完成什么?你可以使用连接器光标和fetchmany
函数