Scrapyd:无活动项目-如何使用Scrapyd安排蜘蛛
我正试图在ScrapyD1.2的帮助下计划一个Scrapy2.1.0蜘蛛Scrapyd:无活动项目-如何使用Scrapyd安排蜘蛛,scrapy,scrapyd,Scrapy,Scrapyd,我正试图在ScrapyD1.2的帮助下计划一个Scrapy2.1.0蜘蛛 curl --insecure http://localhost:6800/schedule.json -d project=bid -d spider=test 理论上,这将在项目投标中启动爬行测试。相反,它会输出错误消息: {"node_name": "spider1", "status": "error", "message": "Scrapy 2.1.0 - no active project\n\nUnkn
curl --insecure http://localhost:6800/schedule.json -d project=bid -d spider=test
理论上,这将在项目投标中启动爬行测试。相反,它会输出错误消息:
{"node_name": "spider1", "status": "error", "message": "Scrapy 2.1.0 - no active project\n\nUnknown command: list\n\nUse \"scrapy\" to see available commands\n"}
如果我将cd放入项目目录,则该项目中有几个爬行器,我可以通过“cd/var/spider/&&scrapy crawl test&”启动它们
然而,在另一个文件夹中浏览也会给我一个信息“无活动项目”:
这看起来与我从scrapyd获得的信息完全相同,因此我怀疑我需要以某种方式配置我的项目所在的工作目录
Scrapyd正在运行,我可以通过web“gui”访问控制台
通过scrapyd启动作业的正确方法是什么?在使用scrapyd启动spider之前,您必须首先部署spider。您可以通过以下方式完成此操作:
- 使用addversion.json()
- 使用scrapyd部署()
/var$ scrapy list
Scrapy 2.1.0 - no active project
Unknown command: list
Use "scrapy" to see available commands