Amazon ec2 scrapyd:如何使用cmd参数覆盖spider名称

Amazon ec2 scrapyd:如何使用cmd参数覆盖spider名称,amazon-ec2,web-scraping,scrapyd,Amazon Ec2,Web Scraping,Scrapyd,我正在使用scrapyd(部署在AWS的ec2实例上的项目),它接受种子url来启动,我希望每次都以不同的名称启动spider,这样我就可以轻松地在ec2实例上管理项目和日志 我可以这样做 crawl spider_name -a name=new_name_of _spider 而且效果很好 当我从命令行尝试在ec2实例上启动spider时 crawl http://hostname:port/schedule.json -d project=project_name -d spider=s

我正在使用scrapyd(部署在AWS的ec2实例上的项目),它接受种子url来启动,我希望每次都以不同的名称启动spider,这样我就可以轻松地在ec2实例上管理项目和日志

我可以这样做

crawl spider_name -a name=new_name_of _spider
而且效果很好

当我从命令行尝试在ec2实例上启动spider时

crawl http://hostname:port/schedule.json -d project=project_name -d spider=spider_default_name -d name=spider_new_name
它抛出错误

{“status”:“error”,“message”:“add()为关键字参数'name'获取了多个值”}


是否有任何方法可以通过重写其名称来运行spider

Scrapyd很差劲,但(目前)没有其他选择
name
似乎是由Scrapyd内部使用的,因此请尝试将您的关键字参数重命名为
spider\u name
或其他名称。它工作正常(但仅在日志中),在作业中仍然显示相同的名称,并将日志和项目存储在同一文件夹中:(