Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何在python中从S3多部分下载大型文件?_Python_Amazon S3_Download_Multipart - Fatal编程技术网

如何在python中从S3多部分下载大型文件?

如何在python中从S3多部分下载大型文件?,python,amazon-s3,download,multipart,Python,Amazon S3,Download,Multipart,我正在寻找Python中的一些代码,这些代码允许我从S3进行大文件的多部分下载。我发现了这一点,但是它太复杂了,因为所有的命令行参数都在传递,解析器和其他一些事情使得我很难理解代码。我不寻找任何花哨的东西,我想要一个基本的代码,这样我就可以静态地将2-3个文件名放入其中,并让它执行这些文件的多部分下载 有人能给我提供这样的解决方案或链接吗?或者可以帮助我清理我在上面发布的链接中的代码?这是旧的,但以下是我为使其正常工作所做的: conn.download_file( Bucket=buc

我正在寻找Python中的一些代码,这些代码允许我从S3进行大文件的多部分下载。我发现了这一点,但是它太复杂了,因为所有的命令行参数都在传递,解析器和其他一些事情使得我很难理解代码。我不寻找任何花哨的东西,我想要一个基本的代码,这样我就可以静态地将2-3个文件名放入其中,并让它执行这些文件的多部分下载


有人能给我提供这样的解决方案或链接吗?或者可以帮助我清理我在上面发布的链接中的代码?

这是旧的,但以下是我为使其正常工作所做的:

conn.download_file(
    Bucket=bucket,
    Filename=key.split("/")[-1],
    Key=key,
    Config=boto3.s3.transfer.TransferConfig(
        max_concurrency=parallel_threads
    )
)
下面是我如何在一些漂亮的视觉代码中使用它:

import boto3
import math
import os
import time


def s3_get_meta_data(conn, bucket, key):
    meta_data = conn.head_object(
    Bucket=bucket,
    Key=key
)
return meta_data


def s3_download(conn, bucket, key, parallel_threads):
    start = time.time()
    md = s3_get_meta_data(conn, bucket, key)
    chunk = get_cunks(md["ContentLength"], parallel_threads)
    print("Making %s parallel s3 calls with a chunk size of %s each..." % (
        parallel_threads, convert_size(chunk))
    )
    cur_dir = os.path.dirname(os.path.realpath(__file__))
    conn.download_file(
        Bucket=bucket,
        Filename=key.split("/")[-1],
        Key=key,
        Config=boto3.s3.transfer.TransferConfig(
            max_concurrency=parallel_threads
        )
    )
    end = time.time() - start
    print("Finished downloading %s in %s seconds" % (key, end))


def convert_size(size_bytes):
    if size_bytes == 0:
        return "0B"
    size_name = ("B", "KB", "MB", "GB", "TB", "PB", "EB", "ZB", "YB")
    i = int(math.floor(math.log(size_bytes, 1024)))
    p = math.pow(1024, i)
    s = round(size_bytes / p, 2)
    return "%s %s" % (s, size_name[i])


def get_cunks(size_bytes, desired_sections):
    return size_bytes / desired_sections


session = boto3.Session(profile_name="my_profile")
conn = session.client("s3", region_name="us-west-2")

s3_download(
    conn,
    "my-bucket-name",
    "my/key/path.zip",
    5
)
有关配置参数的更多信息,请参阅aws文档: