Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
运行curl时出现Scrapyd 404错误http://localhost:6800/daemonstatus.json_Scrapy_Scrapy Spider - Fatal编程技术网

运行curl时出现Scrapyd 404错误http://localhost:6800/daemonstatus.json

运行curl时出现Scrapyd 404错误http://localhost:6800/daemonstatus.json,scrapy,scrapy-spider,Scrapy,Scrapy Spider,我试图检查服务的负载状态,运行curl时,服务器以 404的状态(无此类资源)。请帮忙 我也有同样的问题。结果证明是Scrapyd文档和Scrapyd分发之间的不一致 在Scrapyd 1.1.0之后添加了daemonstatus.json。() 因此,如果需要守护程序API,则需要使用master分支。并通过python setup.py install安装它。在安装master分支之前,请记住卸载通过pip install scrapyd安装的旧版本

我试图检查服务的负载状态,运行curl时,服务器以 404的状态(无此类资源)。请帮忙


我也有同样的问题。结果证明是Scrapyd文档和Scrapyd分发之间的不一致

在Scrapyd 1.1.0之后添加了
daemonstatus.json
。()

因此,如果需要守护程序API,则需要使用
master
分支。并通过
python setup.py install
安装它。在安装
master
分支之前,请记住卸载通过
pip install scrapyd安装的旧版本