Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/mysql/62.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 在mysql中快速插入大型记录?_Php_Mysql_Csv_Mysqli - Fatal编程技术网

Php 在mysql中快速插入大型记录?

Php 在mysql中快速插入大型记录?,php,mysql,csv,mysqli,Php,Mysql,Csv,Mysqli,我有一个超过10万(100000)条记录的csv文件。当我使用这些文件将记录插入数据库时,需要半个多小时。是否有其他方法可以提高这些过程的效率和速度,或者有任何框架可用?在文本编辑器中将CSV文件转换为包含SQL请求的文件。在控制台中使用以下命令执行请求: mysql -u user -ppassword db_name < file_path.sql mysql-u user-ppassword db\u name

我有一个超过10万(100000)条记录的csv文件。当我使用这些文件将记录插入数据库时,需要半个多小时。是否有其他方法可以提高这些过程的效率和速度,或者有任何框架可用?

在文本编辑器中将CSV文件转换为包含SQL请求的文件。在控制台中使用以下命令执行请求:

mysql -u user -ppassword db_name < file_path.sql
mysql-u user-ppassword db\u name
在文本编辑器中将CSV文件转换为包含SQL请求的文件。在控制台中使用以下命令执行请求:

mysql -u user -ppassword db_name < file_path.sql
mysql-u user-ppassword db\u name
在文本编辑器中将CSV文件转换为包含SQL请求的文件。在控制台中使用以下命令执行请求:

mysql -u user -ppassword db_name < file_path.sql
mysql-u user-ppassword db\u name
在文本编辑器中将CSV文件转换为包含SQL请求的文件。在控制台中使用以下命令执行请求:

mysql -u user -ppassword db_name < file_path.sql
mysql-u user-ppassword db\u name
使用
“mysqlimport”
命令。它工作速度快,适用于大型CSV文件

mysqlimport --ignore-lines=1 \
            --fields-terminated-by=, \
            --local -u root \
            -p Database \
             TableName.csv
使用
“mysqlimport”
命令。它工作速度快,适用于大型CSV文件

mysqlimport --ignore-lines=1 \
            --fields-terminated-by=, \
            --local -u root \
            -p Database \
             TableName.csv
使用
“mysqlimport”
命令。它工作速度快,适用于大型CSV文件

mysqlimport --ignore-lines=1 \
            --fields-terminated-by=, \
            --local -u root \
            -p Database \
             TableName.csv
使用
“mysqlimport”
命令。它工作速度快,适用于大型CSV文件

mysqlimport --ignore-lines=1 \
            --fields-terminated-by=, \
            --local -u root \
            -p Database \
             TableName.csv

您必须多久添加一次这些记录?您目前是如何添加的?您如何尝试使用csv插入这些记录?如果您使用的是phpmyadmin,则可以将csv导入到表中,并且不会超过30秒。请添加更多信息。您是否将csv数据(如firstname和lastname)插入数据库(如firstname='firstname',lastname='lastname')?您必须多久添加一次这些记录?您目前是如何进行的?您如何尝试使用csv插入?如果您使用的是phpmyadmin,则可以将csv导入到表中,并且不会超过30秒。请添加更多信息。您是否将csv数据(如firstname和lastname)插入数据库(如firstname='firstname',lastname='lastname')?您必须多久添加一次这些记录?您目前是如何进行的?您如何尝试使用csv插入?如果您使用的是phpmyadmin,则可以将csv导入到表中,并且不会超过30秒。请添加更多信息。您是否将csv数据(如firstname和lastname)插入数据库(如firstname='firstname',lastname='lastname')?您必须多久添加一次这些记录?您目前是如何进行的?您如何尝试使用csv插入?如果您使用的是phpmyadmin,则可以将csv导入到表中,并且不会超过30秒。请添加更多信息。您是否将csv数据(如firstname和lastname)插入数据库(如firstname='firstname',lastname='lastname')?