Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/346.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 一个接一个地运行多个蜘蛛_Python_Scrapy_Scrapyd - Fatal编程技术网

Python 一个接一个地运行多个蜘蛛

Python 一个接一个地运行多个蜘蛛,python,scrapy,scrapyd,Python,Scrapy,Scrapyd,我正在使用Scrapy框架让蜘蛛在一些网页中爬行。基本上,我想要的是刮取网页并将其保存到数据库中。我有一个蜘蛛每个网页。但我很难立刻运行这些蜘蛛,以至于一只蜘蛛在另一只蜘蛛完成爬行后才开始爬行。如何才能做到这一点?scrapyd是解决方案吗?scrapyd确实是一个很好的方法,或者可以使用配置来限制并行spdier的数量,然后您将使用scrapyd rest api进行爬行,如: $ curl http://localhost:6800/schedule.json -d project=mypr

我正在使用Scrapy框架让蜘蛛在一些网页中爬行。基本上,我想要的是刮取网页并将其保存到数据库中。我有一个蜘蛛每个网页。但我很难立刻运行这些蜘蛛,以至于一只蜘蛛在另一只蜘蛛完成爬行后才开始爬行。如何才能做到这一点?scrapyd是解决方案吗?

scrapyd确实是一个很好的方法,或者可以使用配置来限制并行spdier的数量,然后您将使用scrapyd rest api进行爬行,如:

$ curl http://localhost:6800/schedule.json -d project=myproject -d spider=somespider

我有两个蜘蛛:蜘蛛1和蜘蛛2。现在如何开始呢?但是“scrapy deploy”不起作用。说“用法=====scrapy deploy[options][[target]|-l |-l]deploy:error:Unknown target:default”,schedule.json文件在哪里?还是我必须创建一个@Guy GavrielyA浏览其余的scrapyd文档可能会很有用: