Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/django/23.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 404部署Scrapy时出错_Python_Django_Ubuntu_Deployment_Scrapy - Fatal编程技术网

Python 404部署Scrapy时出错

Python 404部署Scrapy时出错,python,django,ubuntu,deployment,scrapy,Python,Django,Ubuntu,Deployment,Scrapy,我正试图在Ubuntu 16.04上部署Django+Scrapy项目。当我运行scrapyd deploy时,如中所述,-我得到: Packing version 1526639948 Deploying to project "first_scrapy" in http://my_ip/addversion.json Deploy failed (404): <full HTML code of '404.html' page> Myscrapy.cfg: [settings]

我正试图在Ubuntu 16.04上部署
Django+Scrapy
项目。当我运行
scrapyd deploy
时,如中所述,-我得到:

Packing version 1526639948
Deploying to project "first_scrapy" in http://my_ip/addversion.json
Deploy failed (404): <full HTML code of '404.html' page>
My
scrapy.cfg

[settings]
default = first_scrapy.settings

[deploy]
url = http://my_ip
username = root
password = rootpassword
project = first_scrapy
我做错了什么?

更新1:
如果我更改了
scrapy.cfg
url=http://my_ip:6800
-这仍然会引发
404错误
。接下来,我尝试在第二个控制台中运行
scrapyd
,这是我第一次看到另一个答案-详细信息如下。

所以现在的问题是-如何持续运行
scrapyd
,这样如果我关闭控制台-它仍能工作?

您只需将目录更改到您的项目文件夹中,然后使用“nohup”运行scrapyd命令,这将确保在断开与服务器的连接后不会关闭scrapyd

cd /path/to/your/project && nohup scrapyd >& /dev/null &

scrapyd是否在
http://my_ip
而且公众可以访问吗?@Umair我怎么能检查呢?哈哈,只要打开你的服务器:6800就可以了browser@Umair我想可能还有另一种更“聪明”的方法:)如果我没记错的话(我现在不在公司):6800现在被禁用了,要访问它,我必须运行
scrapyd
-出现一个控制台,然后我可以看到scrapyd页面,但我仍然无法成功运行
scrapyd deploy
。在我关闭控制台后,访问消失。当scrapyd服务器打开并且您尝试部署时,您会看到什么错误?看起来这可能会起作用-如果我关闭控制台,我仍然会看到
我的ip:6800
。是否有任何情况下我应该用
scrapyd
做更多的事情?要重新启动它还是别的什么?我怎样才能以类似的方式做到这一点?或者我可以在哪里阅读更多信息?另外,我会尝试处理第二个错误——如果scrapy能工作——我接受你的答案。用scrapyd做点什么?意思是?重新启动它的唯一方法您应该先终止它的进程,然后再次运行上面的命令还有一个问题-我如何检查
scrapyd
当前是否正在运行,而不在url中访问它?Ooops对不起,它的
ps-aux | grep scrapyd
cd /path/to/your/project && nohup scrapyd >& /dev/null &