Scrapy 向CrawlerProcess传递参数将停止爬行器对开始URL进行爬网

Scrapy 向CrawlerProcess传递参数将停止爬行器对开始URL进行爬网,scrapy,web-crawler,celery,Scrapy,Web Crawler,Celery,我有一个芹菜任务,它定期执行爬行器: @共享任务 def scrapy_1: 进程=爬网进程获取项目设置 process.crawlspeder1,仅_prices=True 进程启动 我的蜘蛛看起来如下: 类蜘蛛1。蜘蛛: name=spider1 定义初始自我,仅价格=假: 如果只考虑价格: self.start_url=[一些URL] 其他: self.start\u URL=[一些\u其他\u URL] def Parself,响应: 做点什么 如果在本例中我没有传递任何参数,那么它将正

我有一个芹菜任务,它定期执行爬行器:

@共享任务 def scrapy_1: 进程=爬网进程获取项目设置 process.crawlspeder1,仅_prices=True 进程启动 我的蜘蛛看起来如下:

类蜘蛛1。蜘蛛: name=spider1 定义初始自我,仅价格=假: 如果只考虑价格: self.start_url=[一些URL] 其他: self.start\u URL=[一些\u其他\u URL] def Parself,响应: 做点什么 如果在本例中我没有传递任何参数,那么它将正确地找到开始URL并解析所有响应。另一方面,如果我传递参数,它会找到起始URL,但不会解析任何响应。。。有什么想法吗?

你能不能只显示价格=真的输出?