Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/wordpress/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/silverlight/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Wordpress robots.txt文件是否从外部源被覆盖/注入?_Wordpress_Robots.txt - Fatal编程技术网

Wordpress robots.txt文件是否从外部源被覆盖/注入?

Wordpress robots.txt文件是否从外部源被覆盖/注入?,wordpress,robots.txt,Wordpress,Robots.txt,我们有几个Wordpress网站也有同样的问题。它们似乎有一个包含以下内容的“robots.txt”文件: User-Agent: * Crawl-Delay: 300 User-Agent: MJ12bot Disallow: / User-agent: MegaIndex.ru Disallow: / User-agent: megaindex.com Disallow: / 我们完全不知道robots.txt文件来自何处 我们已经看过了,在public_html根文件夹或我们可以看到的任

我们有几个Wordpress网站也有同样的问题。它们似乎有一个包含以下内容的“robots.txt”文件:

User-Agent: *
Crawl-Delay: 300
User-Agent: MJ12bot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: megaindex.com
Disallow: /
我们完全不知道robots.txt文件来自何处

我们已经看过了,在public_html根文件夹或我们可以看到的任何子文件夹中肯定没有“robots.txt”文件

我们已经停用了网站上的每一个插件,甚至更改了主题,但robots.txt文件仍然完全相同。它似乎是不知何故被注入到网站从外部来源不知何故

我们已经得到保证,它不会来自谷歌标签管理器


只是想知道是否有人碰巧认识到上述robots.txt内容,并知道它是如何存在于我们的网站上的???

您有一些可能性

一些安全插件(WordFence、iTheme等)实际上会将文件添加到您的站点。当您只是“禁用”插件时,这些文件通常不会消失。它们需要实际删除/卸载,有时您必须手动执行

WordPress将生成一个虚拟robots.txt

如果谷歌缓存了这一点。你可以进去告诉谷歌再看看robots.txt


您还应该能够通过创建自己的robots.txt文件并将其放入根目录或使用其他插件来覆盖它

原来这是一个通用的robots.txt文件,我们的服务器管理员将其设置为注入我们服务器上的每个站点,以防止我们的服务器受到这些特定机器人的攻击和过载(我们一直遇到麻烦)