Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/mysql/67.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何更快地导入MySQL?_Mysql_Import_Mysqldump - Fatal编程技术网

如何更快地导入MySQL?

如何更快地导入MySQL?,mysql,import,mysqldump,Mysql,Import,Mysqldump,我们需要转储现有的生产数据,然后将其导入开发数据库进行最后一轮测试 在伪命令中,目前我们: mysqldump .... mysql -u __USER__ __DB__ < ./dbdump.sql mysql "sanitize script" mysqldump。。。。 mysql-u\u\u用户\u\u\u数据库

我们需要转储现有的生产数据,然后将其导入开发数据库进行最后一轮测试

在伪命令中,目前我们:

mysqldump ....
mysql -u __USER__ __DB__ < ./dbdump.sql
mysql "sanitize script"
mysqldump。。。。
mysql-u\u\u用户\u\u\u数据库<./dbdump.sql
mysql“清理脚本”
问题是,中间的命令执行导入操作,需要一个多小时才能导入600MB的数据。也许这是因为我们有所有的索引,但这是唯一真正的导入方法,这让我感到惊讶


有没有办法获取直接存储数据而不是SQL转储,然后替换本地SQL数据?将所有数据转储到SQL命令中,然后必须执行这些命令似乎有些疯狂。

如果使用myisam,只需复制数据库文件即可。有时你可能需要做一个“修复表”


另一个选项可能是使用“加载数据填充”。根据mysql文档,它比insert语句快20倍。请参见

MyISAM only,或者您是否也有InnoDB表或其他引擎?在类似的stackoverflow问答中,有一些好主意:“导入大型mysql数据库备份的最快方法是什么?”