如何在python中从S3多部分下载大型文件?
我正在寻找Python中的一些代码,这些代码允许我从S3进行大文件的多部分下载。我发现了这一点,但是它太复杂了,因为所有的命令行参数都在传递,解析器和其他一些事情使得我很难理解代码。我不寻找任何花哨的东西,我想要一个基本的代码,这样我就可以静态地将2-3个文件名放入其中,并让它执行这些文件的多部分下载如何在python中从S3多部分下载大型文件?,python,amazon-s3,download,multipart,Python,Amazon S3,Download,Multipart,我正在寻找Python中的一些代码,这些代码允许我从S3进行大文件的多部分下载。我发现了这一点,但是它太复杂了,因为所有的命令行参数都在传递,解析器和其他一些事情使得我很难理解代码。我不寻找任何花哨的东西,我想要一个基本的代码,这样我就可以静态地将2-3个文件名放入其中,并让它执行这些文件的多部分下载 有人能给我提供这样的解决方案或链接吗?或者可以帮助我清理我在上面发布的链接中的代码?这是旧的,但以下是我为使其正常工作所做的: conn.download_file( Bucket=buc
有人能给我提供这样的解决方案或链接吗?或者可以帮助我清理我在上面发布的链接中的代码?这是旧的,但以下是我为使其正常工作所做的:
conn.download_file(
Bucket=bucket,
Filename=key.split("/")[-1],
Key=key,
Config=boto3.s3.transfer.TransferConfig(
max_concurrency=parallel_threads
)
)
下面是我如何在一些漂亮的视觉代码中使用它:
import boto3
import math
import os
import time
def s3_get_meta_data(conn, bucket, key):
meta_data = conn.head_object(
Bucket=bucket,
Key=key
)
return meta_data
def s3_download(conn, bucket, key, parallel_threads):
start = time.time()
md = s3_get_meta_data(conn, bucket, key)
chunk = get_cunks(md["ContentLength"], parallel_threads)
print("Making %s parallel s3 calls with a chunk size of %s each..." % (
parallel_threads, convert_size(chunk))
)
cur_dir = os.path.dirname(os.path.realpath(__file__))
conn.download_file(
Bucket=bucket,
Filename=key.split("/")[-1],
Key=key,
Config=boto3.s3.transfer.TransferConfig(
max_concurrency=parallel_threads
)
)
end = time.time() - start
print("Finished downloading %s in %s seconds" % (key, end))
def convert_size(size_bytes):
if size_bytes == 0:
return "0B"
size_name = ("B", "KB", "MB", "GB", "TB", "PB", "EB", "ZB", "YB")
i = int(math.floor(math.log(size_bytes, 1024)))
p = math.pow(1024, i)
s = round(size_bytes / p, 2)
return "%s %s" % (s, size_name[i])
def get_cunks(size_bytes, desired_sections):
return size_bytes / desired_sections
session = boto3.Session(profile_name="my_profile")
conn = session.client("s3", region_name="us-west-2")
s3_download(
conn,
"my-bucket-name",
"my/key/path.zip",
5
)
有关配置参数的更多信息,请参阅aws文档: