将robots.txt重定向到php页面
我有一个在一个文件结构下处理多个域的系统,每个域需要不同的sitemap和robots.txt 对于站点地图,我已经设置了重定向,我知道它工作得很好。我想确认robots.txt是否也可以这样做 我在.htaccess中添加了一个重写规则,它将用户重定向到php页面。在这个php页面上,我找到了域用户拥有的内容,并用文本标题打印出正确的信息 允许这样做吗 额外信息: 我有一个由domainA和domainB使用的codeigniter应用程序。domainA应该看到domainA的机器人,domainB应该看到domainB的机器人。如果我要在网站的根目录中创建robots.txt,domainA和domainB都可以访问它,因为我已经创建了一个单独的php页面,为domainA和domainB提供正确的robots 在.htaccess中,我有一个类似于以下内容的重写规则:将robots.txt重定向到php页面,php,.htaccess,seo,robots.txt,Php,.htaccess,Seo,Robots.txt,我有一个在一个文件结构下处理多个域的系统,每个域需要不同的sitemap和robots.txt 对于站点地图,我已经设置了重定向,我知道它工作得很好。我想确认robots.txt是否也可以这样做 我在.htaccess中添加了一个重写规则,它将用户重定向到php页面。在这个php页面上,我找到了域用户拥有的内容,并用文本标题打印出正确的信息 允许这样做吗 额外信息: 我有一个由domainA和domainB使用的codeigniter应用程序。domainA应该看到domainA的机器人,dom
RewriteRule ^robots.txt$ func/getRobots/$1 [L]
环顾四周后,我发现有其他人这样做:
我只是想确保它不会损害系统的SEO方面。当搜索引擎根本无法访问您的
robots.txt
时,您会损害您的SEO
不使用有关您的robots.txt
位置的标准做法等同于冒险。一些搜索引擎可能会很好地处理你的案件,其他搜索引擎可能会皱眉并发现可疑
在您提到的其中一个链接中,建议使用一个链接来避免重写URL。我会坚持下去。请解释更多,为什么要重定向?如果重定向,机器人和爬虫将被重定向到另一个页面,还可以使用htaccess调用与特定域相关的robots.txt。您可以创建域智能机器人。txtI已添加有关此问题的额外信息。杰克,你指的是用robotsCom.txt替换robots.txt的规则吗?