Amazon web services 合并/聚合S3对象
我有从不同机器上传到S3的日志文件(m1_log.txt、m2_log.txt、m3_log.txt) 他们上传到一个bucket,但我希望能够创建log.txt,这是所有三个的concat 我本来打算写一个脚本,下载所有的文件,收集,上传,然后删除旧的文件,但这似乎浪费了很多带宽和时间 有没有办法:Amazon web services 合并/聚合S3对象,amazon-web-services,amazon-s3,Amazon Web Services,Amazon S3,我有从不同机器上传到S3的日志文件(m1_log.txt、m2_log.txt、m3_log.txt) 他们上传到一个bucket,但我希望能够创建log.txt,这是所有三个的concat 我本来打算写一个脚本,下载所有的文件,收集,上传,然后删除旧的文件,但这似乎浪费了很多带宽和时间 有没有办法: “附加”到S3上的文件?因此,我们可以将每个进程附加到相同的log.txt 每x分钟在s3上运行一个命令,将它们合并在一起 您的第一个想法是,下载所有这些内容,然后单击、上载和删除,这是完成此任务
您的第一个想法是,下载所有这些内容,然后单击、上载和删除,这是完成此任务的唯一方法。您不能在S3上“附加文件”或“运行命令”。这里已经回答了这个问题:
如果文件大于5Mb或不是5Mb,则可以合并文件。您可以伪造文件,使其大于5Mb。这是通过大多数aws SDK中可用的“复制零件”命令完成的。danilop和Joseph Lust的答案是正确的请不要将链接发布到。相反,考虑其他行动,可以帮助未来用户找到他们需要的答案,如链接帖子中所描述的。啊,很抱歉。我不知道这个选项是可用的。可能是重复的