Javascript 如何禁止爬虫,机器人,假冒用户,只允许特定的浏览器?
我正在尝试做一个好的网络流量过滤器,我的目标是禁止所有机器人、爬虫、蜘蛛、非真实用户,只允许特定的浏览器 我用PHP做了一些测试,用JavaScript做了一些测试,但我觉得做得不太好。我想听听专家的意见。我认为使用PHP+JavaScript+robots.txt+.htaccess的组合可以做到这一点 我知道用户代理可能是伪造的,但我想知道是否有更好的方法来检测它。例如,我只允许用户使用Mozilla Firefox(不考虑版本) 所有其他浏览器都应该转到排除列表或某种类型,这就像一个过滤器Javascript 如何禁止爬虫,机器人,假冒用户,只允许特定的浏览器?,javascript,php,.htaccess,browser-detection,robot,Javascript,Php,.htaccess,Browser Detection,Robot,我正在尝试做一个好的网络流量过滤器,我的目标是禁止所有机器人、爬虫、蜘蛛、非真实用户,只允许特定的浏览器 我用PHP做了一些测试,用JavaScript做了一些测试,但我觉得做得不太好。我想听听专家的意见。我认为使用PHP+JavaScript+robots.txt+.htaccess的组合可以做到这一点 我知道用户代理可能是伪造的,但我想知道是否有更好的方法来检测它。例如,我只允许用户使用Mozilla Firefox(不考虑版本) 所有其他浏览器都应该转到排除列表或某种类型,这就像一个过滤器
最好的方法是什么?简而言之,检测浏览器以仅允许Firefox,并避免所有假冒用户、机器人、蜘蛛、爬虫和其他垃圾。好吧,让我试着在这里提供一些想法 您应该结合使用以下技术:
希望这能有所帮助。这里的问题是任何东西都可以伪造,包括ip地址。您可以在浏览器上运行一些javascript来尝试检测浏览器,而不是依赖用户代理,但这也可能是伪造的。我的问题是:你到底想完成什么?为什么要基于浏览器进行过滤?@rogerracel我只是想避免所有的垃圾(蜘蛛、机器人、爬虫等),只关注使用Firefox的真实用户。我知道一切都是假的。但是我在寻找最好的方法来发现,不管最终是否有用户造假。重要的是最大限度地过滤,使任务变得困难。现在我认为这是最好的方法