Seo robots.txt中的错误即使已修复,错误仍会不断累积

Seo robots.txt中的错误即使已修复,错误仍会不断累积,seo,robots.txt,google-search-console,Seo,Robots.txt,Google Search Console,有人把robots.txt搞砸了,不小心把\n添加到了整个allow:/products/之后,总共约有30000页。错误出现在多个语言站点上。这是我们的搜索控制台之一 我很快注意到了错误并将其删除。我已经要求谷歌验证我的解决方案,但大约3个月后,错误仍在增加。见下图: 我能做些什么来加快进程吗?我已开始验证。无法访问您的robots.txt。它被301重定向到https://www.unisgroup.nl/robots.txt/,它是目录,不是文件-您看到后面的斜杠了吗?谷歌正在寻找一个

有人把robots.txt搞砸了,不小心把
\n
添加到了整个
allow:/products/
之后,总共约有30000页。错误出现在多个语言站点上。这是我们的搜索控制台之一

我很快注意到了错误并将其删除。我已经要求谷歌验证我的解决方案,但大约3个月后,错误仍在增加。见下图:


我能做些什么来加快进程吗?我已开始验证。

无法访问您的robots.txt。它被301重定向到
https://www.unisgroup.nl/robots.txt/
,它是目录,不是文件-您看到后面的斜杠了吗?谷歌正在寻找一个文件,但没有找到它就走开了。

发布你的机器人的url。TXT谢谢你的回复!所以我应该更改robots.txt的位置,还是应该在搜索控制台中更改一些内容?您应该使robots.txt文件作为状态代码为200的文件可访问