Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
允许web爬行器访问Symfony中受限制的页面_Symfony_Web Crawler_Symfony Security - Fatal编程技术网

允许web爬行器访问Symfony中受限制的页面

允许web爬行器访问Symfony中受限制的页面,symfony,web-crawler,symfony-security,Symfony,Web Crawler,Symfony Security,如何允许网络爬虫访问Symfony中的受限页面 我认为IP列表应该允许这样做,但是如何验证它们呢?为什么这些页面受到限制?似乎有点矛盾。他们需要抓取什么?这些页面是为用户提供的,但我们需要网络爬虫可以访问其中的一部分,如果他们有角色_crawler。如果你向Google Bot显示与匿名用户不同的内容,Google将惩罚你,甚至将你的页面从名单中删除。如果您对设置(新闻)内容的付费墙感兴趣,请查看

如何允许网络爬虫访问Symfony中的受限页面


我认为IP列表应该允许这样做,但是如何验证它们呢?

为什么这些页面受到限制?似乎有点矛盾。他们需要抓取什么?这些页面是为用户提供的,但我们需要网络爬虫可以访问其中的一部分,如果他们有角色_crawler。如果你向Google Bot显示与匿名用户不同的内容,Google将惩罚你,甚至将你的页面从名单中删除。如果您对设置(新闻)内容的付费墙感兴趣,请查看