Python 痒痒的爬行蜘蛛不';t使用callback=';解析页面';

Python 痒痒的爬行蜘蛛不';t使用callback=';解析页面';,python,scrapy,Python,Scrapy,我正在使用Scrapy的爬行蜘蛛来抓取产品信息。 这就是我的规则: rules = (Rule(LinkExtractor( restrict_xpaths=('//*[@id="mainSearchContent"]/div[3]/div[2]/button[2]',) ), callback = 'parse_page', follow =True),) 这就是

我正在使用Scrapy的爬行蜘蛛来抓取产品信息。 这就是我的规则:

   rules = (Rule(LinkExtractor(
            restrict_xpaths=('//*[@id="mainSearchContent"]/div[3]/div[2]/button[2]',)
        ),
                callback = 'parse_page',
                follow =True),)
这就是结果。它不会刮到任何东西

017-07-05 13:32:33 [scrapy] INFO: Enabled item pipelines: ImagesPipeline
2017-07-05 13:32:33 [scrapy] INFO: Spider opened
2017-07-05 13:32:33 [scrapy] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2017-07-05 13:32:33 [scrapy] DEBUG: Telnet console listening on 127.0.0.1:6026
2017-07-05 13:32:35 [scrapy] DEBUG: Crawled (200) <GET https://www.walmart.com/browse/makeup/lips/1085666_1007040_1001527> (referer: None)
2017-07-05 13:32:35 [scrapy] INFO: Closing spider (finished)
2017-07-05 13:32:35 [scrapy] INFO: Dumping Scrapy stats:
{'downloader/request_bytes': 322,
 'downloader/request_count': 1,
 'downloader/request_method_count/GET': 1,
 'downloader/response_bytes': 157281,
 'downloader/response_count': 1,
 'downloader/response_status_count/200': 1,
 'finish_reason': 'finished',
 'finish_time': datetime.datetime(2017, 7, 5, 10, 32, 35, 320638),
 'log_count/DEBUG': 2,
 'log_count/INFO': 7,
 'log_count/WARNING': 6,
 'response_received_count': 1,
 'scheduler/dequeued': 1,
 'scheduler/dequeued/memory': 1,
 'scheduler/enqueued': 1,
 'scheduler/enqueued/memory': 1,
 'start_time': datetime.datetime(2017, 7, 5, 10, 32, 33, 900621)}
017-07-05 13:32:33[scrapy]信息:启用的项目管道:ImagesPipeline
2017-07-05 13:32:33[剪贴]信息:蜘蛛打开
2017-07-05 13:32:33[抓取]信息:抓取0页(0页/分钟),抓取0项(0项/分钟)
2017-07-05 13:32:33[scrapy]调试:Telnet控制台监听127.0.0.1:6026
2017-07-05 13:32:35[scrapy]调试:爬网(200)(参考:无)
2017-07-05 13:32:35[scrapy]信息:关闭卡盘(已完成)
2017-07-05 13:32:35[scrapy]信息:倾销scrapy统计数据:
{'downloader/request_bytes':322,
“下载程序/请求计数”:1,
“downloader/request\u method\u count/GET”:1,
“downloader/response_字节”:157281,
“下载程序/响应计数”:1,
“下载程序/响应状态\计数/200”:1,
“完成原因”:“完成”,
“完成时间”:datetime.datetime(2017,7,5,10,32,35320638),
“日志计数/调试”:2,
“日志计数/信息”:7,
“日志计数/警告”:6,
“响应\u已接收\u计数”:1,
“调度程序/出列”:1,
“调度程序/出列/内存”:1,
“调度程序/排队”:1,
“调度程序/排队/内存”:1,
“开始时间”:datetime.datetime(2017,7,5,10,32,33900621)}
如果我将callback改为parse,它只会刮取第一页。
有谁能告诉我如何刮除所有页面吗?

这并不能解决您的问题。但有一种简单的方法可以从该网站获取数据。只是请求


这应该是一条评论,但URL对于评论来说太长。

这并不能解决您的问题。但有一种简单的方法可以从该网站获取数据。只是请求


这应该是一条注释,但URL太长,无法添加注释。

您的“回调”应该是方法名,而不是字符串。

您的“回调”应该是方法名,而不是字符串