Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/ruby-on-rails/66.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby on rails Googlebot将Rails应用程序的链接替换为子域_Ruby On Rails_Robots.txt_Googlebot - Fatal编程技术网

Ruby on rails Googlebot将Rails应用程序的链接替换为子域

Ruby on rails Googlebot将Rails应用程序的链接替换为子域,ruby-on-rails,robots.txt,googlebot,Ruby On Rails,Robots.txt,Googlebot,我有这个Rails应用程序,域名是abc.com。我还有一个单独的Piwik统计子域,在这个子域stats.abc.com中 谷歌机器人不知何故也列出了我的子域的一些链接 http://abc.com/login http://stats.abc.com/login http://abc.com/signup http://stats.abc.com/signup 那些有统计数据的人将引用应用程序中的同一页面,但被视为完全不同的网站 在这件事之后,我在stats中加入了robots.txt,但

我有这个Rails应用程序,域名是abc.com。我还有一个单独的Piwik统计子域,在这个子域stats.abc.com中

谷歌机器人不知何故也列出了我的子域的一些链接

http://abc.com/login
http://stats.abc.com/login
http://abc.com/signup
http://stats.abc.com/signup
那些有统计数据的人将引用应用程序中的同一页面,但被视为完全不同的网站

在这件事之后,我在stats中加入了robots.txt,但我想知道是否有合适的方法来阻止它,因为我将来可能会有新的子域。这是我在robots.txt中的内容


谢谢。

Robots.txt会很好地阻止它。在你发布一个网站之前,记住这一点很重要——谷歌相当快。一些搜索引擎忽略robots.txt。最好的办法是不要有不适合你们的子域。我建议阅读子域的真正用途。您不应在不同域上为同一站点提供服务。您应该使用301 direct或在不同的子域上有不同的内容。。。除非stats.abc.com包含不同的材料,否则它不应该是子域。你到底需要这么多子域做什么


你可以检测到用户代理,如果它是一个机器人,也返回一个404

我有博客、支持等的子域,它们属于不同的应用程序Wordpress、Piwik、PHP。是的。。。这是很糟糕的做法。您应该拥有domain.com/blog、domain.com/support。如果它们托管在不同的服务器上,那么您应该有一个分布式系统。。。如果虚拟主机都在同一台服务器上,则可以设置虚拟主机。。。1。你不会从你根域上的博客获得你想要的SEO。您希望访问domain.com,而不是blog.domain.com,这是您将得到的。我已经为同一服务器上的这些子域设置了虚拟主机。但我认为我在子域上的实践是一般实践?谢谢你的意见。支持邮件应该来自you@support.domain.com. 支持url应为domain.com/support unlessss支持是一个系统,意味着用户可以自己自助,并且您已经构建了一个AI来处理用户问题等。
User-agent: *
Disallow: /