Scrapy 继续跑

Scrapy 继续跑,scrapy,scrapyd,Scrapy,Scrapyd,我在debian机器上安装了scrapy和scrapyd。我使用ssh隧道登录到此服务器。然后,我开始说: 斯帕雷德 Scrapyd启动正常,然后我打开另一个到服务器的ssh隧道,并通过以下方式安排我的爬行器: curl localhost:6800/schedule.json-d project=myproject-d spider=myspider 蜘蛛跑得很好,一切都很好 问题是,当我退出启动scrapyd的会话时,scrapyd停止运行。这使我无法使用cron来使用scrapyd对爬行器

我在debian机器上安装了scrapy和scrapyd。我使用ssh隧道登录到此服务器。然后,我开始说: 斯帕雷德

Scrapyd启动正常,然后我打开另一个到服务器的ssh隧道,并通过以下方式安排我的爬行器: curl localhost:6800/schedule.json-d project=myproject-d spider=myspider

蜘蛛跑得很好,一切都很好

问题是,当我退出启动scrapyd的会话时,scrapyd停止运行。这使我无法使用cron来使用scrapyd对爬行器进行简化,因为cronjob启动时scrapyd没有运行


我的简单问题是:如何保持scrapyd运行,以便在退出ssh会话时它不会关闭。

在屏幕会话中运行它:

$ screen
$ scrapyd

# hit ctrl-a, then d to detach from that screen

$ screen -r # to re-attach to your scrapyd process
怎么样?
SUDO服务开始时

您可以考虑用.< /p>启动SoRyyd。 这里有一个很好的.conf脚本作为要点:

scrapyd设计为作为守护进程运行。屏幕不是合适的解决方案。我同意@FredericBazin的观点。如果scrapyd关闭或崩溃,它将不会重新启动。这种“黑客”短期内还可以,但我会在生产环境中使用这种方法。是否可以添加服务,然后使用
ntsysv
计划启动?