Scrapyd:无活动项目-如何使用Scrapyd安排蜘蛛

Scrapyd:无活动项目-如何使用Scrapyd安排蜘蛛,scrapy,scrapyd,Scrapy,Scrapyd,我正试图在ScrapyD1.2的帮助下计划一个Scrapy2.1.0蜘蛛 curl --insecure http://localhost:6800/schedule.json -d project=bid -d spider=test 理论上,这将在项目投标中启动爬行测试。相反,它会输出错误消息: {"node_name": "spider1", "status": "error", "message": "Scrapy 2.1.0 - no active project\n\nUnkn

我正试图在ScrapyD1.2的帮助下计划一个Scrapy2.1.0蜘蛛

 curl --insecure http://localhost:6800/schedule.json -d project=bid -d spider=test
理论上,这将在项目投标中启动爬行测试。相反,它会输出错误消息:

 {"node_name": "spider1", "status": "error", "message": "Scrapy 2.1.0 - no active project\n\nUnknown command: list\n\nUse \"scrapy\" to see available commands\n"}
如果我将cd放入项目目录,则该项目中有几个爬行器,我可以通过“cd/var/spider/&&scrapy crawl test&”启动它们

然而,在另一个文件夹中浏览也会给我一个信息“无活动项目”:

这看起来与我从scrapyd获得的信息完全相同,因此我怀疑我需要以某种方式配置我的项目所在的工作目录

Scrapyd正在运行,我可以通过web“gui”访问控制台


通过scrapyd启动作业的正确方法是什么?

在使用scrapyd启动spider之前,您必须首先部署spider。您可以通过以下方式完成此操作:

  • 使用addversion.json()
  • 使用scrapyd部署()

好的,谢谢。我现在更接近了。不幸的是,我遇到了另一个问题:
/var$ scrapy list
Scrapy 2.1.0 - no active project

Unknown command: list

Use "scrapy" to see available commands