Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/arrays/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
包含100万项的PHP站点地图_Php_Arrays_Sitemap - Fatal编程技术网

包含100万项的PHP站点地图

包含100万项的PHP站点地图,php,arrays,sitemap,Php,Arrays,Sitemap,希望有人能帮上忙 我有多个包含数百万项的表,我想用这些数据创建一个站点地图 我被建议使用array_chunk($dataArray,50000) 然后是foreach($dataArray ad$data){ 做 } 我遇到的问题是,一个包含一百万项的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机对cronjob的运行时间都有限制。考虑到这一点,我想知道以下几点 1) 这是管理站点地图的有效方法吗? 2) 有没有更有效的方法来频繁创建/更新大型数据站点地

希望有人能帮上忙

我有多个包含数百万项的表,我想用这些数据创建一个站点地图

我被建议使用array_chunk($dataArray,50000)

然后是foreach($dataArray ad$data){ 做 }

我遇到的问题是,一个包含一百万项的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机对cronjob的运行时间都有限制。考虑到这一点,我想知道以下几点

1) 这是管理站点地图的有效方法吗?
2) 有没有更有效的方法来频繁创建/更新大型数据站点地图?

谷歌站点地图的最大大小为10MB或50k个项目,这就是为什么建议您将自己的项目拆分

与其使用
array\u chunk
,为什么不从MySQL一次获取50000个项目?这将避免内存限制

使用
[set\u Time\u limit][1]
通常可以覆盖cron作业的时间限制-但在我看来,如果你有一百万页,而且你仍然在一个强加严格限制的主机上,你可能会考虑转向更严肃的产品

你知道吗,要有一百万个链接的站点地图,你需要20个站点地图(每个50k)和一个站点地图索引


站点地图索引中包含哪些内容?是的,谢谢。只是点击了一下