Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
apache反向代理上的robots.txt_Apache_Reverse Proxy_Robots.txt_Proxypass - Fatal编程技术网

apache反向代理上的robots.txt

apache反向代理上的robots.txt,apache,reverse-proxy,robots.txt,proxypass,Apache,Reverse Proxy,Robots.txt,Proxypass,我需要一些关于如何阻止webcrawlers一直到Web服务器的帮助,但是要停止反向代理级别并读取位于反向代理根目录下的robots.txt文件 为了实现我的目标,我配置了以下各项: /etc/httpd/conf.d/servername.conf如下 <Location "/robots.txt"> ProxyPass ! </Location> <Location "/"> ProxyPass balancer://servername/ &l

我需要一些关于如何阻止webcrawlers一直到Web服务器的帮助,但是要停止反向代理级别并读取位于反向代理根目录下的robots.txt文件

为了实现我的目标,我配置了以下各项:

/etc/httpd/conf.d/servername.conf
如下

<Location "/robots.txt">
  ProxyPass !
</Location>

<Location "/">
  ProxyPass balancer://servername/
</Location>

ProxyPass!
ProxyPassbalancer://servername/
不过,这并没有什么帮助……通过测试,我可以一直访问servername/robots.txt

任何想法都将不胜感激! 谢谢

明白了。。。 httpd服务需要重新启动

服务httpd


重新启动服务后,我可以看到robots.txt表单reverse poxy kicking in:)

请将问题中的代码缩进4个空格。(目前只有
----
标记为代码。)