Python 为什么我的程序在完成完整下载之前停止下载非常大的文件?

Python 为什么我的程序在完成完整下载之前停止下载非常大的文件?,python,download,urllib2,Python,Download,Urllib2,我使用这个方法从一些http链接下载文件。这些文件的大小通常超过20GB,程序似乎工作正常,但在完成之前,将继续执行下一个函数 import urllib2 import os def saveFile(url): print url file_name = url.split('/')[-1] #check if the file was already downloaded previously to save time if os.path.isfile(f

我使用这个方法从一些http链接下载文件。这些文件的大小通常超过20GB,程序似乎工作正常,但在完成之前,将继续执行下一个函数

import urllib2
import os
def saveFile(url):
    print url
    file_name = url.split('/')[-1]
    #check if the file was already downloaded previously to save time
    if os.path.isfile(file_name):
        print("File already exists, skipping download...")
        return file_name
    u = urllib2.urlopen(url)
    f = open(file_name, 'wb')
    meta = u.info()
    file_size = int(meta.getheaders("Content-Length")[0])
    print "Downloading: %s Bytes: %s" % (file_name, file_size)

    file_size_dl = 0
    block_sz = 8192
    while True:
        buffer = u.read(block_sz)
        if not buffer:
            break

        file_size_dl += len(buffer)
        f.write(buffer)
        status = r"%10d  [%3.2f%%]" % (file_size_dl, file_size_dl * 100. / file_size)
        status = status + chr(8)*(len(status)+1)
        print status,    
    f.close()
    return file_name

你检查过流程经理了吗?可能内存已被占用超过限制,并且发生了
OutOfMemoryError

我认为我发现问题在于,由于文件太大,每隔30分钟左右就会发生2秒的超时。我正在尝试设置一个20秒的超时计时器,看看是否有帮助。这听起来很合理。祝你好运