Indexing 临时阻止谷歌爬虫,它会阻止未来的索引吗?

Indexing 临时阻止谷歌爬虫,它会阻止未来的索引吗?,indexing,Indexing,有时我需要添加几个更新到我的网站。为了保持清洁,我会显示一个维护页面。我第一次这么做的时候,它就成了谷歌的主要索引页面。因此,我添加了meta标记,以防止出现这种情况。我的问题是,如果谷歌遇到这个临时维护页面,他不会为它编制索引,但这是否意味着他永远不会再为该页面编制索引?或者,一旦有新内容,他们会再次索引页面吗 如果有人能帮我澄清这一点,我将不胜感激。一旦你删除了meta标签,谷歌的爬虫将重新索引你的网站(它会不断更新索引) 如果你真的很偏执,我建议你看看谷歌的网站管理员工具,这样你就可以直接

有时我需要添加几个更新到我的网站。为了保持清洁,我会显示一个维护页面。我第一次这么做的时候,它就成了谷歌的主要索引页面。因此,我添加了meta标记
,以防止出现这种情况。我的问题是,如果谷歌遇到这个临时维护页面,他不会为它编制索引,但这是否意味着他永远不会再为该页面编制索引?或者,一旦有新内容,他们会再次索引页面吗


如果有人能帮我澄清这一点,我将不胜感激。

一旦你删除了meta标签,谷歌的爬虫将重新索引你的网站(它会不断更新索引)


如果你真的很偏执,我建议你看看谷歌的网站管理员工具,这样你就可以直接控制你网站的索引行为:

谷歌有一个处理计划维护/停机的指南:“。简而言之,您应该在正在维护或关闭的页面上返回503 HTTP结果代码。下面是在这些页面顶部使用的php代码示例:

如果您知道维护/停机完成的确切/大致时间/日期,您可以使用如下可选的
重试
标题(以及上述503 HTTP结果代码):

更多信息请阅读谷歌

header('HTTP/1.1 503 Service Temporarily Unavailable');
//when the exact completion time is known.
header('Retry-After: Sat, 8 Oct 2011 18:27:00 GMT');
//when the length of the downtime in seconds is known.
header('Retry-After: 86400');