如何使用scrapyd自动运行蜘蛛程序?

如何使用scrapyd自动运行蜘蛛程序?,scrapy,scrapyd,Scrapy,Scrapyd,我知道这可能看起来很可笑。我放弃了windows scrapyd的实现,安装了一台ubuntu机器,一切都很好。我有3个项目,每个项目都有自己的蜘蛛。我可以使用以下命令从终端运行spider: curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2 当我在正确的位置运行上面的代码时,web UI中的所有内容似乎都能正常工作 我希望每天12:00运行项目1,第二天2:00运行项目2,每两周4:

我知道这可能看起来很可笑。我放弃了windows scrapyd的实现,安装了一台ubuntu机器,一切都很好。我有3个项目,每个项目都有自己的蜘蛛。我可以使用以下命令从终端运行spider:

curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2
当我在正确的位置运行上面的代码时,web UI中的所有内容似乎都能正常工作

我希望每天12:00运行项目1,第二天2:00运行项目2,每两周4:00运行项目3。请帮助我学习如何做这件事


scrapyd甚至是这项任务的合适解决方案吗?

计划任务似乎可以做到这一点。我不得不说,当我可以在windows中使用
schtasks
调度scrapy crawl命令时,我想知道是否真的值得为运行scrapyd的唯一目的而设置一台ubuntu机器。

调度的任务似乎可以做到这一点。我不得不说,我一直在想,当我可以在windows中使用
schtasks
来计划scrapy crawl命令时,是否真的值得为运行scrapyd而设置一台ubuntu机器。

但是现在我可以从ubuntu中欣赏视图了,啊哈~~但是现在我可以从ubuntu中欣赏视图了~~~