使用php导入paf

使用php导入paf,php,csv,paf,Php,Csv,Paf,我正在使用csv格式的皇家邮政PAF数据库(大约2900万行),需要使用php将数据拆分为sql server 有谁能推荐防止超时的最佳方法吗 以下是数据示例:要禁用脚本执行时间限制,请使用以下命令启动脚本: set_time_limit(0); 您可能遇到的另一个问题是内存限制。确保逐行或分块读取文件,而不是一次读取整个文件。您可以使用。使用开始脚本 ini_set('max_execution_time', 0); 我发现的最快的方法是使用SQLServerBulkInsert直接将数据

我正在使用csv格式的皇家邮政PAF数据库(大约2900万行),需要使用php将数据拆分为sql server

有谁能推荐防止超时的最佳方法吗


以下是数据示例:

要禁用脚本执行时间限制,请使用以下命令启动脚本:

set_time_limit(0);

您可能遇到的另一个问题是内存限制。确保逐行或分块读取文件,而不是一次读取整个文件。您可以使用。

使用开始脚本

ini_set('max_execution_time', 0);

我发现的最快的方法是使用SQLServerBulkInsert直接将数据从csv文件加载到匹配的db导入表中,并且不做任何更改。然后从这些导入表中执行我自己的操作和填充特定于应用程序的表


我发现BULK INSERT将在几分钟内导入主CSVPAF文件,其中包含近3100万条地址记录。

我尝试使用set time limit和fgetcsv,但仍然超时,fgetcsv和fgets之间是否存在重大差异?您的主机可能不允许您使用
set_time_limit()
。查看是否可以编辑PHP.ini文件的
max\u execution\u time
条目,或者与主机对话,查看它们是否允许您使用
set\u time\u limit()