如何使用scrapyd自动运行蜘蛛程序?
我知道这可能看起来很可笑。我放弃了windows scrapyd的实现,安装了一台ubuntu机器,一切都很好。我有3个项目,每个项目都有自己的蜘蛛。我可以使用以下命令从终端运行spider:如何使用scrapyd自动运行蜘蛛程序?,scrapy,scrapyd,Scrapy,Scrapyd,我知道这可能看起来很可笑。我放弃了windows scrapyd的实现,安装了一台ubuntu机器,一切都很好。我有3个项目,每个项目都有自己的蜘蛛。我可以使用以下命令从终端运行spider: curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2 当我在正确的位置运行上面的代码时,web UI中的所有内容似乎都能正常工作 我希望每天12:00运行项目1,第二天2:00运行项目2,每两周4:
curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2
当我在正确的位置运行上面的代码时,web UI中的所有内容似乎都能正常工作
我希望每天12:00运行项目1,第二天2:00运行项目2,每两周4:00运行项目3。请帮助我学习如何做这件事
scrapyd甚至是这项任务的合适解决方案吗?计划任务似乎可以做到这一点。我不得不说,当我可以在windows中使用
schtasks
调度scrapy crawl命令时,我想知道是否真的值得为运行scrapyd的唯一目的而设置一台ubuntu机器。调度的任务似乎可以做到这一点。我不得不说,我一直在想,当我可以在windows中使用schtasks
来计划scrapy crawl命令时,是否真的值得为运行scrapyd而设置一台ubuntu机器。但是现在我可以从ubuntu中欣赏视图了,啊哈~~但是现在我可以从ubuntu中欣赏视图了~~~