Regex 仅从搜索引擎中屏蔽2个域中的1个

Regex 仅从搜索引擎中屏蔽2个域中的1个,regex,apache,.htaccess,mod-rewrite,robots.txt,Regex,Apache,.htaccess,Mod Rewrite,Robots.txt,我在同一台服务器和同一个目录中托管两个域。我想从搜索引擎中屏蔽一个域,但不想屏蔽另一个域 假设我有: www.site1.com和www.site2.com 两者都指向服务器上的同一IP,我只想阻止site2.com而不是site1.com 我该怎么做?有什么线索吗?用以下代码创建一个名为robots2.txt的文件: User-agent: * Disallow: / 然后将此规则放入文档\u ROOT/.htaccess文件: RewriteEngine On RewriteCond %

我在同一台服务器和同一个目录中托管两个域。我想从搜索引擎中屏蔽一个域,但不想屏蔽另一个域

假设我有:

www.site1.com和www.site2.com

两者都指向服务器上的同一IP,我只想阻止site2.com而不是site1.com


我该怎么做?有什么线索吗?

用以下代码创建一个名为
robots2.txt
的文件:

User-agent: *
Disallow: /
然后将此规则放入
文档\u ROOT/.htaccess
文件:

RewriteEngine On

RewriteCond %{HTTP_HOST} ^(www\.)?site2\.com$ [NC]
RewriteRule ^robots\.txt$ /robots2.txt [L,NC]
  • 这将为所有
    /robots2.txt
    站点2的
    /robots.txt
    请求提供
    /robots2.txt
  • 常规的
    /robots.txt
    将用于
    站点1
  • 只有
    site2
    将从搜索引擎中被阻止

  • 这个问题更适合你。谢谢。那么,我只创建一个robots2.txt,而不创建一个robots.txt?对吗?好的,谢谢。希望它能起作用。我感谢你的时间:)是的,它会起作用的。如果有任何问题,请随时在这里留言,我会回复。+1,哈,重写robots.txt?这是一个有趣的问题,有一个完美的答案是的,我喜欢发现人们希望通过url重写实现的各种各样的事情。