包含100万项的PHP站点地图
希望有人能帮上忙 我有多个包含数百万项的表,我想用这些数据创建一个站点地图 我被建议使用array_chunk($dataArray,50000) 然后是foreach($dataArray ad$data){ 做 } 我遇到的问题是,一个包含一百万项的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机对cronjob的运行时间都有限制。考虑到这一点,我想知道以下几点 1) 这是管理站点地图的有效方法吗?包含100万项的PHP站点地图,php,arrays,sitemap,Php,Arrays,Sitemap,希望有人能帮上忙 我有多个包含数百万项的表,我想用这些数据创建一个站点地图 我被建议使用array_chunk($dataArray,50000) 然后是foreach($dataArray ad$data){ 做 } 我遇到的问题是,一个包含一百万项的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机对cronjob的运行时间都有限制。考虑到这一点,我想知道以下几点 1) 这是管理站点地图的有效方法吗? 2) 有没有更有效的方法来频繁创建/更新大型数据站点地
2) 有没有更有效的方法来频繁创建/更新大型数据站点地图?谷歌站点地图的最大大小为10MB或50k个项目,这就是为什么建议您将自己的项目拆分 与其使用
array\u chunk
,为什么不从MySQL一次获取50000个项目?这将避免内存限制
使用[set\u Time\u limit][1]
通常可以覆盖cron作业的时间限制-但在我看来,如果你有一百万页,而且你仍然在一个强加严格限制的主机上,你可能会考虑转向更严肃的产品
你知道吗,要有一百万个链接的站点地图,你需要20个站点地图(每个50k)和一个站点地图索引
站点地图索引中包含哪些内容?是的,谢谢。只是点击了一下