Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/282.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
通过python cgi从web下载大文件_Python_Download_Cgi - Fatal编程技术网

通过python cgi从web下载大文件

通过python cgi从web下载大文件,python,download,cgi,Python,Download,Cgi,我有一个小头灯网络服务器运行,我也使用服务器从互联网下载文件。目前,我必须通过SSH登录,并通过wget开始下载。这些文件部分非常大(超过4GB)。 一个很好的解决方案是使用pythoncgi向队列添加一个链接,让python完成其余的工作。我已经知道如何从网上下载文件(比如这里:),并且知道如何编写python cgi(或wsgi)。问题是,脚本需要连续运行,这意味着要保持连接的活力,这将是非常无用的。因此,我认为我需要某种背景解决方案。 如有帮助或提示,将不胜感激 提前感谢并致以最良好的问候

我有一个小头灯网络服务器运行,我也使用服务器从互联网下载文件。目前,我必须通过SSH登录,并通过wget开始下载。这些文件部分非常大(超过4GB)。 一个很好的解决方案是使用pythoncgi向队列添加一个链接,让python完成其余的工作。我已经知道如何从网上下载文件(比如这里:),并且知道如何编写python cgi(或wsgi)。问题是,脚本需要连续运行,这意味着要保持连接的活力,这将是非常无用的。因此,我认为我需要某种背景解决方案。 如有帮助或提示,将不胜感激


提前感谢并致以最良好的问候

您可以使用调度器(linux上的cron,windows上的任务调度器)或实现守护进程。你的问题太广泛了,我现在无法给出进一步的建议。谢谢你的快速回答。我想我会试试守护程序版本。一旦它完成了它的工作,我会更新我的答案,因为它可能会引起其他人的兴趣。