如何向scrapyd中的任何spider添加相同的scrapy管道

如何向scrapyd中的任何spider添加相同的scrapy管道,scrapy,scrapyd,Scrapy,Scrapyd,我有几个项目在运行,并且所有项目都使用相同的管道,因此我如何将此管道作为默认管道添加到每个计划的spider,而不向curl请求添加任何内容,在default\u scrapyd.conf文件中只有一个标志?恐怕只有两个选项,而您已经拒绝了其中一个。其他选项是在每个项目的settings.py中的ITEM\u PIPELINES中添加管道并重新部署项目。一个问题,其他选项是调用curl请求中的管道,对吗?但无论如何,我必须在每个项目中添加管道?是的,另一个选项是覆盖curl命令行上的ITEM\u

我有几个项目在运行,并且所有项目都使用相同的管道,因此我如何将此管道作为默认管道添加到每个计划的spider,而不向curl请求添加任何内容,在
default\u scrapyd.conf
文件中只有一个标志?

恐怕只有两个选项,而您已经拒绝了其中一个。其他选项是在每个项目的
settings.py
中的
ITEM\u PIPELINES
中添加管道并重新部署项目。一个问题,其他选项是调用
curl
请求中的管道,对吗?但无论如何,我必须在每个项目中添加管道?是的,另一个选项是覆盖curl命令行上的
ITEM\u管道设置。恐怕只有两个选项,您已经拒绝了其中一个。其他选项是在每个项目的
settings.py
中的
ITEM\u PIPELINES
中添加管道并重新部署项目。一个问题,其他选项是调用
curl
请求中的管道,对吗?但无论如何,我必须在每个项目中添加管道?是的,另一个选项是覆盖curl命令行上的
ITEM\u管道设置。