Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/sql/87.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
将大型sql转储导入Mysql_Mysql_Sql - Fatal编程技术网

将大型sql转储导入Mysql

将大型sql转储导入Mysql,mysql,sql,Mysql,Sql,我有一堆sql文件,可以成功导入本地mysql服务器。但其中一个是最大的,大约7千兆,当我尝试将其导入mysql时,它只需要永远没有错误。我不知道如何找出问题所在 我使用的是mysql-uroot--max\u allowed\u packet=8G

我有一堆sql文件,可以成功导入本地mysql服务器。但其中一个是最大的,大约7千兆,当我尝试将其导入mysql时,它只需要永远没有错误。我不知道如何找出问题所在

我使用的是
mysql-uroot--max\u allowed\u packet=8G

然而,我得到了警告选项“max\u allowed\u packet”:无符号值6G调整为2147483648。


任何关于这个系统的想法都是非常感谢的

sql文件可以分割成碎屑, 我在谷歌上搜索发现, 这是我的解决方案, 我既没有测试也没有使用过,请在使用前使用示例文件进行测试


希望对大家有帮助

永远有多长?根据您的服务器机器和sql server配置,可能需要半小时到一天的时间。如果没有错误,也许就给它时间。您提到了本地MYSQL服务器,所以我猜它不是一台具有严重HD/ram的专用机器,在这种情况下,它不会在1HF下发生,对于一个3g文件,它需要10分钟。对于此文件,需要一个多小时,但没有成功。。