Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/.htaccess/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache 使用htaccess和日志膨胀阻止IP_Apache_.htaccess - Fatal编程技术网

Apache 使用htaccess和日志膨胀阻止IP

Apache 使用htaccess和日志膨胀阻止IP,apache,.htaccess,Apache,.htaccess,我在我的htaccess中设置了一个“拒绝发件人”,以阻止某些垃圾邮件机器人解析我的站点。在使用下面的代码时,我注意到在我的日志文件中有很多“客户端被服务器配置拒绝”,当bot开始扫描时,它会把日志文件弄得乱七八糟。有什么想法吗 谢谢, 史蒂夫 您可以获取要发送到程序(也称为脚本)的日志文件 也许实现一个脚本而不仅仅是给出一个周期性的摘要?)。其余的日志文件?看看这里的条件日志-我认为这将提供您需要的一切: 此外-如果您可以确定各种机器人程序总是来自特定的IP地址,那么您可以通过IP地址在主机

我在我的htaccess中设置了一个“拒绝发件人”,以阻止某些垃圾邮件机器人解析我的站点。在使用下面的代码时,我注意到在我的日志文件中有很多“客户端被服务器配置拒绝”,当bot开始扫描时,它会把日志文件弄得乱七八糟。有什么想法吗

谢谢, 史蒂夫


您可以获取要发送到程序(也称为脚本)的日志文件


也许实现一个脚本而不仅仅是给出一个周期性的摘要?)。其余的日志文件?

看看这里的条件日志-我认为这将提供您需要的一切:

此外-如果您可以确定各种机器人程序总是来自特定的IP地址,那么您可以通过IP地址在主机中阻止它们。允许/拒绝文件,或者自动使用类似blockhosts或mod_evasive的东西,这样apache将永远看不到记录它们的请求

-肖恩

更新: 您是否手动识别ip地址,然后将其添加到htaccess?听起来很痛苦。如果你真的想这样做,我建议你在防火墙上用删除规则或如上在主机允许/拒绝中阻止ip地址

虚假破记录更新:
看看blockhosts,它可以根据ip地址的“行为”来阻止ip地址&这将消除您每天手动删除它们的需要

有没有办法让它根本不写入日志文件?我记不得了,但我们也遇到了类似的问题,每10分钟就有一个新的日志文件启动。然后,脚本解决了所有问题。此外,您还可以配置日志级别。谢谢,这就成功了:SetEnvIf Remote_Addr“12\.34\.25\.27”Dontlog抱歉,我在这一点上跳了枪,即使使用Dontloghmm,它似乎仍然在记录。。文档看起来非常清晰-可能99.9%我认为这也可以理解为“仅在访问日志上工作”开始时,我会在htaccess中取出您的拒绝声明,保留有条件的登录&看看它是否会从访问日志中删除条目,而不是错误日志[或等待有人在此处清除:)]Hi Sean,你能详细说明一下“伪造的坏记录”吗?我在谷歌搜索了一下,什么也找不到。我更喜欢这个主意。哈哈——对不起,这是我的“虚假”评论,听起来像是“破记录”——很抱歉造成任何混乱。谷歌是否至少打开了这个网站/帖子??
<Files *>
order allow,deny
allow from all
deny from 123.45.67.8
</Files>
RewriteCond %{REMOTE_ADDR} 123.4.3.4.5
RewriteRule (.*) - [F,L]