Seo 我已经十天不允许任何事情发生了

Seo 我已经十天不允许任何事情发生了,seo,robots.txt,Seo,Robots.txt,由于更新错误,我在prod中放入了一个用于测试服务器的robots.txt文件。结果,prod最终得到了以下robots.txt: User-Agent: * Disallow: / 那是10天前,我现在有7000多个URL被阻止错误(提交的URL被robots.txt阻止)或警告(通过blocked byt robots.txt索引)。 当然,昨天我修改了robots.txt文件 我能做些什么来加快谷歌或其他搜索引擎的更正速度?您可以使用robots.txt测试功能 一旦robots.tx

由于更新错误,我在prod中放入了一个用于测试服务器的
robots.txt
文件。结果,prod最终得到了以下
robots.txt

User-Agent: *
Disallow: /
那是10天前,我现在有7000多个URL被阻止错误(提交的URL被robots.txt阻止)或警告(通过blocked byt robots.txt索引)。

当然,昨天我修改了
robots.txt
文件


我能做些什么来加快谷歌或其他搜索引擎的更正速度?

您可以使用robots.txt测试功能

一旦robots.txt测试通过,单击“提交”按钮,将出现一个弹出窗口。然后再次单击选项#3“提交”按钮--

请谷歌更新 提交一个请求,让谷歌知道你的robots.txt文件已经更新

除此之外,我认为你将不得不等待谷歌机器人再次抓取该网站


祝你好运:)。

这个问题似乎离题了,因为它是关于SEO的,而SEO在堆栈溢出时是离题的。请阅读,以便更好地理解什么时候可以在这里提出SEO问题(大多数不是),以及在哪里可以获得帮助。@johncode哦,对不起,还有其他类似Stack Overflow的论坛讨论SEO吗?@LondonSmith你读过链接了吗?它告诉你在哪里可以问SEO问题,比如this@JohnConde不,时间有点太长了,我不知道我能在这里找到那个地方。但我做到了,它可能就在那个里:我可以设置谷歌搜索控制台来提高网站抓取的速度吗?例如,每秒1页。您可以添加robots.txt指令“Crawl delay”,这将告诉Googlebot或其他“遵循robots.txt规则”的机器人以所述速度对网站进行爬网。阅读文档。