Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/mysql/58.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Search 如何禁止robots.txt中的特定页面,但允许其他所有内容?_Search_Seo_Robots.txt - Fatal编程技术网

Search 如何禁止robots.txt中的特定页面,但允许其他所有内容?

Search 如何禁止robots.txt中的特定页面,但允许其他所有内容?,search,seo,robots.txt,Search,Seo,Robots.txt,这样做吗 User-agent: * Allow: / Disallow: /a/* 我有这样的网页: mydomaink.com/a/123/group/4 mydomaink.com/a/xyz/network/google/group/1 我不想让它们出现在谷歌上。你的robots.txt看起来是正确的。如果你想百分之百确定的话,你可以 仅供参考,robots.txt中的阻止页面并不保证它们不会出现在搜索结果中。它只会阻止搜索引擎抓取这些页面。如果愿意,他们仍然可以列出它们。要防止页面

这样做吗

User-agent: *
Allow: /
Disallow: /a/*
我有这样的网页:

mydomaink.com/a/123/group/4
mydomaink.com/a/xyz/network/google/group/1

我不想让它们出现在谷歌上。

你的robots.txt看起来是正确的。如果你想百分之百确定的话,你可以

仅供参考,robots.txt中的阻止页面并不保证它们不会出现在搜索结果中。它只会阻止搜索引擎抓取这些页面。如果愿意,他们仍然可以列出它们。要防止页面被索引和列出,您需要使用HTTP标头

如果使用Apache,您可以在
/a/
目录中放置一个文件,并使用以下行有效地阻止这些页面:

<IfModule mod_headers.c>
    Header set X-Robots-Tag: "noindex"
</IfModule>

标题集X-Robots-Tag:“noindex”