Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/heroku/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/sql-server-2008/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何防止Heroku应用程序在谷歌索引?_Heroku - Fatal编程技术网

如何防止Heroku应用程序在谷歌索引?

如何防止Heroku应用程序在谷歌索引?,heroku,Heroku,尽管搜索了很多次,我还是没有找到这个问题的最终答案 我在Heroku中有2个应用程序: myapp-stagging.herokuapp.com myapp-with-real-domain-name.com 这两个应用目前没有内容(谷歌没有索引) 在把内容推给他们之前,我想确保我的staging应用程序不会在谷歌上被索引。 正确的方法是什么? 我不明白,因为人们谈论robots.txt,但是我应该在哪里写这个文件呢 谢谢 PS:这是StackExchange网站提出的问题吗?如果没有,很抱

尽管搜索了很多次,我还是没有找到这个问题的最终答案

我在Heroku中有2个应用程序:

  • myapp-stagging.herokuapp.com
  • myapp-with-real-domain-name.com
这两个应用目前没有内容(谷歌没有索引)

在把内容推给他们之前,我想确保我的staging应用程序不会在谷歌上被索引。 正确的方法是什么? 我不明白,因为人们谈论robots.txt,但是我应该在哪里写这个文件呢

谢谢


PS:这是StackExchange网站提出的问题吗?如果没有,很抱歉。

请查看此处的完整说明-

它的工作原理是这样的:比如说,一个机器人想要访问一个网站的URL . 在它这样做之前,它是第一位的 检查


我想这会让你知道在哪里放置机器人。txt

我在网站管理员StackExchange上发现了一个类似的问题:

您可以在应用程序的每个页面上添加一个

<link rel="canonical" href="http://myapp-with-real-domain-name.com" />


谢谢!但是如何使用Heroku上的一个robots.txt文件处理多个环境呢?有没有办法创建两个文件?还是应该在Heroku中使用环境变量?->这听起来很有希望:)不明白。多个env和一个robots.txt是什么意思?我打赌你需要把机器人txt放在staging上,而把一个放在real appHeroku上是不可能的。您的所有环境都有相同的文件。但是你可以处理环境变量。我根据env var创建了dynamic robots.txt,似乎有效:)