Python 强制Scrapy计划程序执行请求
在我的spider中,返回了500个JSON对象。对于每个对象,我必须向该对象的网页发出请求,并从该网页中提取数据 在该项目通过管道之前,我必须从相应的网页中获取数据 我想我的问题是在创建新的scrapyPython 强制Scrapy计划程序执行请求,python,python-2.7,scrapy,python-requests,Python,Python 2.7,Scrapy,Python Requests,在我的spider中,返回了500个JSON对象。对于每个对象,我必须向该对象的网页发出请求,并从该网页中提取数据 在该项目通过管道之前,我必须从相应的网页中获取数据 我想我的问题是在创建新的scrapy请求时出现的。即使该请求的优先级高得离谱,它仍然没有解析它请求的前一个start\u URL,因此新请求只是在队列中等待,直到有一个并发请求的开放点 有没有办法强迫scrapy执行新的请求,阻止该项直到请求完成并删除页面,或者我应该违背调度程序的核心,只使用请求模块?您可以通过提供代码(或其相关
请求时出现的。即使该请求的优先级
高得离谱,它仍然没有解析它请求的前一个start\u URL
,因此新请求只是在队列中等待,直到有一个并发请求的开放点
有没有办法强迫scrapy执行新的请求,阻止该项直到请求完成并删除页面,或者我应该违背调度程序的核心,只使用请求
模块?您可以通过提供代码(或其相关部分)使其更加具体和清晰到目前为止你有过吗?谢谢