Python 3.x 如何在python中使用异步io(快速方式)将数据从一个s3存储桶复制到另一个s3存储桶?

Python 3.x 如何在python中使用异步io(快速方式)将数据从一个s3存储桶复制到另一个s3存储桶?,python-3.x,aws-lambda,boto3,python-asyncio,aiohttp,Python 3.x,Aws Lambda,Boto3,Python Asyncio,Aiohttp,我希望以异步方式将多个对象从一个s3 bucket复制到另一个s3 bucket,并且希望保持其状态 我已经尝试过在s3 boto3库上使用async和Wait,但它们正在进行顺序复制。我也尝试过使用aiobotore和aioboto3库,但它们没有boto3中使用的正确的copy_对象API async def copy_file(taskdescriptor: list, buckets: list): #loop = asyncio.get_event_loop() pri

我希望以异步方式将多个对象从一个s3 bucket复制到另一个s3 bucket,并且希望保持其状态

我已经尝试过在s3 boto3库上使用async和Wait,但它们正在进行顺序复制。我也尝试过使用aiobotore和aioboto3库,但它们没有boto3中使用的正确的copy_对象API

async def copy_file(taskdescriptor: list, buckets: list):
    #loop = asyncio.get_event_loop()
    print("taskdescriptor", taskdescriptor)
    for job in taskdescriptor[0]:
        print("Inside copy", job , buckets)

        src_bucket = buckets[0]
        dest_bucket = buckets[1]
        src_path = job[0] 
        dest_path = job[1]
        src_loc = {"Bucket": src_bucket, "Key": src_path}
        #loop = asyncio.get_event_loop()
        #session = aiobotocore.get_session()
        async with aioboto3.client('s3') as asyncs3:
            print("s3 copy from {} to {}".format(src_path, dest_path))
            resp = await asyncs3.copy_object(Bucket=dest_bucket, Key=dest_path, CopySource=src_loc)
            print("done ----->", resp)
        print("file copy done")
基本上,我想一次复制多个文件,寻找将数据从一个s3存储桶复制到另一个存储桶的最快方法