Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/xml/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Seo robots.txt中的星号_Seo_Robots.txt - Fatal编程技术网

Seo robots.txt中的星号

Seo robots.txt中的星号,seo,robots.txt,Seo,Robots.txt,想知道以下内容是否适用于robots.txt中的谷歌 不允许:/*.操作 我需要排除所有以.action结尾的URL 这是否正确?我认为它不起作用,您需要将所有.action文件移动到一个您随后不允许的位置。没有办法包含通配符,只有URI的开头 Google实施非标准扩展名,如其(查看“阻止特定文件类型的文件”下的手动创建robots.txt文件部分)所述。要阻止特定文件类型的文件(例如.gif),请使用以下命令: User-agent: Googlebot Disallow: /*.gif$

想知道以下内容是否适用于robots.txt中的谷歌

不允许:/*.操作

我需要排除所有以.action结尾的URL


这是否正确?

我认为它不起作用,您需要将所有.action文件移动到一个您随后不允许的位置。

没有办法包含通配符,只有URI的开头


Google实施非标准扩展名,如其(查看“阻止特定文件类型的文件”下的手动创建robots.txt文件部分)所述。

要阻止特定文件类型的文件(例如.gif),请使用以下命令:

User-agent: Googlebot
Disallow: /*.gif$
所以,你很接近。使用带尾随“$”的Disallow:/*.action$

当然,这只是谷歌的建议:


所有机器人都不同。

太棒了!如果我想阻止/some.action?id=111,在这种情况下,我们不需要$symbol