Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/wordpress/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/.htaccess/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance XAMPP上WordPress用户导入速度极慢_Performance_Wordpress_Xampp - Fatal编程技术网

Performance XAMPP上WordPress用户导入速度极慢

Performance XAMPP上WordPress用户导入速度极慢,performance,wordpress,xampp,Performance,Wordpress,Xampp,我把这个问题贴在这里是因为我不确定这是否是WordPress的问题 我在本地系统上运行XAMPP,最大净空512MB,php超时2.5小时。我正在通过自定义脚本将大约11000条记录导入WordPress wp_user和wp_usermeta表。WordPress端唯一的未知数量(性能方面)是wp\u insert\u user和update\u user\u meta调用。否则,它将直接导入CSV 导入11000个用户和创建180000个usermeta条目的过程需要2个多小时才能完成。它每

我把这个问题贴在这里是因为我不确定这是否是WordPress的问题

我在本地系统上运行XAMPP,最大净空512MB,php超时2.5小时。我正在通过自定义脚本将大约11000条记录导入WordPress wp_user和wp_usermeta表。WordPress端唯一的未知数量(性能方面)是
wp\u insert\u user
update\u user\u meta
调用。否则,它将直接导入CSV

导入11000个用户和创建180000个usermeta条目的过程需要2个多小时才能完成。它每分钟导入大约120条记录。这似乎太慢了

将用户数据导入WordPress是否存在已知的性能问题?(对我来说)快速的谷歌搜索是徒劳的

在XAMPP中是否有超出超时时间的设置需要调整?它的mySQL实现是出了名的慢吗


我读过一些关于病毒软件显著降低XAMPP速度的文章。这是一个神话吗?

是的,本地与托管几乎没有问题。需要记住的重要事项之一是php脚本的最大执行时间。在数据上传期间,您可能需要每隔一段时间重置一次计时器

我假设您有一些循环,它以CSV文件中的数据行为例,使用SQL查询将其插入WP数据库。我通常会将这个简单的代码片段放入我的循环中,这样它将保持PHP max_exec_time重置:

$counter = 1;

// some upload query
if (($handle = fopen("some-file.csv", "r")) !== FALSE) {

        while (($data = fgetcsv($handle, 1000, ",")) !== FALSE) {

mysql_query..... blablabla....


// snippet
if($counter == '20')  // this count 20 loops and resets the counter
{
    set_time_limit(0); 
    $counter = 0;
}       
 $counter = $counter + 1;

} //end of the loop

。。另外,顺便说一句,如果数据库很大,512MB的空间就不多了。计算您的操作系统和所有正在运行的应用程序占用了多少资源。我有一个2Gb的WO数据库,我的MySql需要很多RAM才能快速运行。(也取决于您使用的查询)

您使用的自定义脚本是什么?它不应该很慢,但这取决于您定义的慢、脚本的编写方式以及您的本地环境。如果没有看到脚本和/或数据,我真的不知道。是的,我意识到这很模糊。该脚本非常精简,但实际的CSV翻译使用了第三方库(与内置库相反)。但为了给你一个想法,11000条记录需要2个多小时才能导入。谢谢你提供的信息。我不知道
设置时间限制()。绝对是个好主意。也谢谢你的记忆信息。我会考虑提高mySQL的限制。