Redirect 重定向到https后用于http站点的Google robots.txt

Redirect 重定向到https后用于http站点的Google robots.txt,redirect,robots.txt,Redirect,Robots.txt,声明robots txt URL对域无效。想必反过来也是如此 它还可以在请求robots.txt时说明以下重定向: 3xx(重定向) 通常会遵循重定向,直到找到有效结果(或识别循环)。我们将遵循有限的重定向跳数(HTTP/1.0的RFC 1945最多允许5跳),然后停止并将其视为404。robots.txt重定向到不允许的URL的处理未定义且不鼓励。基于返回2xx(帧、JavaScript或元刷新类型重定向)的HTML内容处理robots.txt文件的逻辑重定向未定义且不鼓励 假设我建立了一个网

声明robots txt URL对域无效。想必反过来也是如此

它还可以在请求robots.txt时说明以下重定向:

3xx(重定向)

通常会遵循重定向,直到找到有效结果(或识别循环)。我们将遵循有限的重定向跳数(HTTP/1.0的RFC 1945最多允许5跳),然后停止并将其视为404。robots.txt重定向到不允许的URL的处理未定义且不鼓励。基于返回2xx(帧、JavaScript或元刷新类型重定向)的HTML内容处理robots.txt文件的逻辑重定向未定义且不鼓励


假设我建立了一个网站,这样http上的所有请求都被永久重定向到https上的等效请求。谷歌将请求并遵循重定向到。该文件是http站点的有效robots.txt,因为这是原始请求,还是Google认为http站点没有有效的robots.txt?

使用Google搜索控制台中的robots.txt测试仪确认重定向的robots.txt用作http(原始)域的robots文件

Barry Hunter在网站管理员中心论坛上提供的答案: