Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 将robots.txt中的多个用户代理与Scrapy匹配_Python_Scrapy_Web Crawler_Robots.txt - Fatal编程技术网

Python 将robots.txt中的多个用户代理与Scrapy匹配

Python 将robots.txt中的多个用户代理与Scrapy匹配,python,scrapy,web-crawler,robots.txt,Python,Scrapy,Web Crawler,Robots.txt,我是Scrapy的新手,我想知道如何使蜘蛛遵守robots.txt文件中两个或更多用户代理的规则(例如,Googlebot和Googlebot Mobile) 我目前使用的是ROBOTSTXT\u USER\u AGENT,但该选项仅允许我在robots.txt文件中指定用于匹配的单个用户代理字符串,并且我需要至少匹配两个用户代理。你知道怎么做吗?我只是用/来分离要匹配的用户代理,它起作用了: "ROBOTSTXT_USER_AGENT": "Googlebot | Googlebot-Mobi

我是Scrapy的新手,我想知道如何使蜘蛛遵守robots.txt文件中两个或更多用户代理的规则(例如,Googlebot和Googlebot Mobile)


我目前使用的是
ROBOTSTXT\u USER\u AGENT
,但该选项仅允许我在robots.txt文件中指定用于匹配的单个用户代理字符串,并且我需要至少匹配两个用户代理。你知道怎么做吗?

我只是用
/
来分离要匹配的用户代理,它起作用了:

"ROBOTSTXT_USER_AGENT": "Googlebot | Googlebot-Mobile | *"

我只是使用
/
来分离要匹配的用户代理,它起到了作用:

"ROBOTSTXT_USER_AGENT": "Googlebot | Googlebot-Mobile | *"