希望有人能帮忙。
我有多个表与数百万项,我想创建一个站点地图与这些数据。
我被建议使用array_chunk($dataArray, 50000);
then foreach($dataArray and $data){做……}
我遇到的问题是一个有一百万项的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机对cronjob的运行时间都有限制。考虑到这一点,我想知道以下情况:
1)这是管理站点地图的有效方法吗?2)是否有更有效的方法来频繁地创建/更新大型数据站点地图?
Google站点地图的最大大小为10mb或50k项,这就是为什么建议您将您的站点地图分开。
与其使用array_chunk
,为什么不一次从MySQL获取50,000个条目呢?这将避免内存限制。
cron作业的时间限制通常可以通过使用[set_time_limit][1]
来覆盖-但是在我看来,如果您有一百万页,并且您仍然在强加严格限制的主机上,您可能会考虑转移到更严格的产品。
你是否意识到,有一百万个链接站点映射,你需要20个站点地图(每个50k)和一个站点地图索引?
http://en.wikipedia.org/wiki/Sitemap_index