Seo 如何请求google重新爬网url(不作为google获取)

Seo 如何请求google重新爬网url(不作为google获取),seo,web-crawler,googlebot,Seo,Web Crawler,Googlebot,我在一个每天访问15000次的网站上工作,我们在这个网站上雇佣了一些广告,其中一些很重要(对银行来说),这些广告的内容永远不会改变,但在某个时候,他们宣布他们需要一些重复内容的人(工作和要求永远不会改变:|)。现在我们需要告诉Googlebot重新爬网这些URL,所以我们用不同的书写方式更新了目标页面的内容,但Googlebot没有按照需要的速度爬网。使用Fetch作为Google是一种观点,但是有很多广告,我们需要一种自动的方式来实现这一点。你有什么建议 提交站点地图时,可以指定内容更改的频率

我在一个每天访问15000次的网站上工作,我们在这个网站上雇佣了一些广告,其中一些很重要(对银行来说),这些广告的内容永远不会改变,但在某个时候,他们宣布他们需要一些重复内容的人(工作和要求永远不会改变:|)。现在我们需要告诉Googlebot重新爬网这些URL,所以我们用不同的书写方式更新了目标页面的内容,但Googlebot没有按照需要的速度爬网。使用Fetch作为Google是一种观点,但是有很多广告,我们需要一种自动的方式来实现这一点。你有什么建议

提交站点地图时,可以指定内容更改的频率。这并不能保证它会经常爬行,但它会让谷歌知道它需要爬行的频率


尽量避免自动化和临时提交链接。构建一个干净的xml站点地图。xml文件告诉搜索引擎,您的站点地图可能包含动态性、频繁更改以及健康的URL列表。这意味着,如果您的站点地图使用格式良好的XML代码,提供干净、有效的URL,并且满足搜索引擎的其他要求,那么它包含的URL将至少被搜索引擎记录下来,以供将来的爬网活动考虑。耐心是有回报的

健康的xml站点地图可以帮助为其内容页使用动态URL的站点,以及包含未与其当前活动页面良好链接的存档内容的站点。此外,xml sitemaps还可以帮助站点发现使用难以抓取链接(如脚本中的链接)或非文本内容较多(如Flash或Silverlight)的难以发现的页面


有很多在线解决方案可以帮助生成XML站点地图。祝你一切顺利

不幸的是,你想要实现这一点的方式是不可能的,因为谷歌根据网页的受欢迎程度、反向链接的数量以及它认为你的网页对用户的价值来决定重新爬网的频率。如果您不想使用fetch作为Google,则不能强制Google重新爬网页面

然而,有一个解决办法。使用新URL(例如,包含最近的日期,但其他路径相同)创建包含新内容的新页面,并使用301将旧页面重定向到该页面,或者设置从旧页面到新页面的规范链接。这肯定会加快新页面的索引速度,同时快速删除旧页面。它将把大部分公关信息从旧页面传递到新页面。确保新页面也添加到
sitemap.xml


这将自动(基本上)实现您想要的功能。

谢谢,但我们有和sitemap,而且我们没有定期更新广告,所以Google机器人忽略了我们的sitemap:(您可以使用上次修改的标签提示搜索引擎,但不能保证他们会考虑到这一点。。。