Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/mysql/55.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mysql 导入大于2GB的sql文件?_Mysql_Import_Large Files - Fatal编程技术网

Mysql 导入大于2GB的sql文件?

Mysql 导入大于2GB的sql文件?,mysql,import,large-files,Mysql,Import,Large Files,我有一个大约3GB的SQL文件。我似乎找不到任何好的解决方案来将这个sql导入mysql。我已尝试在phpmyadmin环境中处理从指定文件夹的导入,但这在5小时后给了我一个超时(不,我没有等待;-)) 我尝试过bigdump,但它有2GB的限制,尝试过Editor 010(),这样我就可以分割文件,但即使是这样,一个特定的insert语句也有太多超过1GB的行,这并没有起到作用 似乎2GB与fseek()一起是一个文件系统问题 当然,我可以将它一行一行地拆分并手动更改内容,但这将是最后的选择

我有一个大约3GB的SQL文件。我似乎找不到任何好的解决方案来将这个sql导入mysql。我已尝试在phpmyadmin环境中处理从指定文件夹的导入,但这在5小时后给了我一个超时(不,我没有等待;-))

我尝试过bigdump,但它有2GB的限制,尝试过Editor 010(),这样我就可以分割文件,但即使是这样,一个特定的insert语句也有太多超过1GB的行,这并没有起到作用

似乎2GB与
fseek()一起是一个文件系统问题

当然,我可以将它一行一行地拆分并手动更改内容,但这将是最后的选择

我正在使用Windows和WAMP


有什么想法吗

有时候你看不到显而易见的东西。如果有人在这个问题上犹豫不决:

这只是使用老式命令行的问题

mysql -u <user> -p<password> <database> < databas.sql
mysql-u-p
PHPmyAdmin将超时,您需要直接连接。然而,我使用Mac电脑,当我遇到这种问题时,我会使用桌面应用程序(如Sequel Pro)直接连接到数据库。您也可以使用mysql监视器直接连接。这正是我要写的。