MySQL:导入大型文件的BigDump替代方案

MySQL:导入大型文件的BigDump替代方案,mysql,Mysql,我正在尝试将一个40GB.sql文件导入一个新的MySQL数据库。除了BigDump还有其他选择吗?BigDump上的连接在大约30分钟后超时。理想情况下,我可以找到一个具有某种进度条的解决方案 谢谢 1)将1个文件拆分为N行(通常我建议100000行),这将创建(文件中的行总数/N)文件 2) 创建一个没有索引的新表 3) 运行for循环bash脚本,将每个文件分别加载到它自己的事务中 4) 如有必要,添加索引 5) 删除/重命名要替换的现有表,并将新表重命名为生产表(如有必要) 此选项有很多

我正在尝试将一个40GB.sql文件导入一个新的MySQL数据库。除了BigDump还有其他选择吗?BigDump上的连接在大约30分钟后超时。理想情况下,我可以找到一个具有某种进度条的解决方案

谢谢

1)将1个文件拆分为N行(通常我建议100000行),这将创建(文件中的行总数/N)文件

2) 创建一个没有索引的新表

3) 运行for循环bash脚本,将每个文件分别加载到它自己的事务中

4) 如有必要,添加索引

5) 删除/重命名要替换的现有表,并将新表重命名为生产表(如有必要)

此选项有很多帮助,即它可以帮助快速发现问题(例如意外跳过的行),快速了解负载的有效性,并将负载分块,以避免大量的单个事务,从而避免出现故障点

我从未使用过BigDump,但我猜它也有类似的功能

类似的问答: