Web 如何给机器人一个沉重的页面?

Web 如何给机器人一个沉重的页面?,web,captcha,bots,Web,Captcha,Bots,现在有很多应用程序需要更改IP,这导致阻止bot的噩梦,因为攻击可能来自多个地方。我想给一个机器人一个沉重的页面,让他们负担过重,并停止继续入侵我的网站。可能是一个带有重JS的页面。我放了验证码,他们无法从我的网站上获得任何信息,但对我网站的查询仍在继续。你知道怎么做吗?你知道如何应对这种改变IP的新技术吗?我建议你在防火墙级别阻止它们。 如果如你所说,他们没有解决验证码,这意味着这些机器人对从你的网站获取数据并不感兴趣。 但它们只会产生糟糕的流量 在他们到达Web服务器之前阻止他们真的很有帮助

现在有很多应用程序需要更改IP,这导致阻止bot的噩梦,因为攻击可能来自多个地方。我想给一个机器人一个沉重的页面,让他们负担过重,并停止继续入侵我的网站。可能是一个带有重JS的页面。我放了验证码,他们无法从我的网站上获得任何信息,但对我网站的查询仍在继续。你知道怎么做吗?你知道如何应对这种改变IP的新技术吗?

我建议你在防火墙级别阻止它们。 如果如你所说,他们没有解决验证码,这意味着这些机器人对从你的网站获取数据并不感兴趣。 但它们只会产生糟糕的流量

在他们到达Web服务器之前阻止他们真的很有帮助,因为互联网上有大量的黑名单。
其中一些更新非常频繁,您只需要一个脚本来获取这些文件并将这些IP添加到防火墙(IPTABLE)

< P>您可以考虑基于WebServer日志编写一个Fule2BAN规则。
如果攻击者总是以相同的格式运行HTTP请求(可能是伪造的用户代理),这会很有帮助。

这里的问题是攻击者一直在更改IP。如果防火墙一直在更改,您将阻止哪个IP?我在会议中思考,但这会消耗我的资源。另一个选项是使用cookies来识别攻击者。