Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/.htaccess/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 如何使用htaccess阻止假流量Bot_Php_.htaccess - Fatal编程技术网

Php 如何使用htaccess阻止假流量Bot

Php 如何使用htaccess阻止假流量Bot,php,.htaccess,Php,.htaccess,我很担心我的网站,因为社交分析/Facebook上显示了一些虚假流量,但具体来说,bot在我的网站上随机选择了虚假错误的URL,就像这样example.com/page?=\uuuuhzoblpdx但实际的URL是example.com/page/HzoblPdx/title。我想阻止此链接页面?=\uuuhzoblpdx. 有人帮我解决这个问题吗?检查apache访问日志,并检查试图访问不存在页面的访问者的用户代理字符串。您可以使用robots.txt完全阻止某些用户代理 你可以从谷歌上获得很

我很担心我的网站,因为社交分析/Facebook上显示了一些虚假流量,但具体来说,bot在我的网站上随机选择了虚假错误的URL,就像这样
example.com/page?=\uuuuhzoblpdx
但实际的URL是
example.com/page/HzoblPdx/title
。我想阻止此链接
页面?=\uuuhzoblpdx.


有人帮我解决这个问题吗?

检查apache访问日志,并检查试图访问不存在页面的访问者的用户代理字符串。您可以使用robots.txt完全阻止某些用户代理


你可以从谷歌上获得很多关于robots.txt的信息。这里有一个网站,你可以浏览一下

通过在
.htaccess
文件中使用以下内容,您可以非常轻松地执行此操作:

RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_REFERER} domain\.com/page\?=__HzoblPdx [NC,OR]
RewriteCond %{HTTP_REFERER} www\.domain\.com/page\?=__HzoblPdx [NC]
RewriteRule .* - [F] 
RewriteEngine On
RewriteCond %{QUERY_STRING} ^=_
RewriteRule ^ - [F]

这将阻止任何试图通过该域访问的机器人程序的访问。在测试此操作之前,请确保清除缓存。使用mod_rewrite在
.htaccess
文件顶部附近尝试以下操作:

RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_REFERER} domain\.com/page\?=__HzoblPdx [NC,OR]
RewriteCond %{HTTP_REFERER} www\.domain\.com/page\?=__HzoblPdx [NC]
RewriteRule .* - [F] 
RewriteEngine On
RewriteCond %{QUERY_STRING} ^=_
RewriteRule ^ - [F]
这将阻止(403禁止)任何请求的URL,该URL包含一个以
=\ucode>开头的查询字符串


尽管如此,这个URL参数映射到真实URL的事实看起来可能是一个配置错误,机器人程序已经能够找到它了?

bro此id随机更改未修复
\uuuuhzoblpdx
应该在您的问题中指定这一点。将其更改为
页面?=$1
它是否总是将
\uuuu
添加到变量之前的URL上?是的,我总是在分析中使用单下划线或双下划线进行检查,但兄弟我检查了,没有工作。如果可以,我可以私下与你聊天吗?这是一个加号,但不是真正的解决方案:robots.txt提供信息,而不是禁止。机器人完全可以选择忽略文件中的内容。我同意。Lag有htaccess的答案。我两个都用!是的,robots.txt是非常有用的,“好机器人”遵循其中的内容。。只是想明确指出它不会阻止恶意的行为。我想在有人试图使用我的网站的这种类型的链接域/页时显示禁止的403错误?=HzoblPdxI我想你最好还是在serverfault中问这个问题。似乎与编程无关