Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 合并/聚合S3对象_Amazon Web Services_Amazon S3 - Fatal编程技术网

Amazon web services 合并/聚合S3对象

Amazon web services 合并/聚合S3对象,amazon-web-services,amazon-s3,Amazon Web Services,Amazon S3,我有从不同机器上传到S3的日志文件(m1_log.txt、m2_log.txt、m3_log.txt) 他们上传到一个bucket,但我希望能够创建log.txt,这是所有三个的concat 我本来打算写一个脚本,下载所有的文件,收集,上传,然后删除旧的文件,但这似乎浪费了很多带宽和时间 有没有办法: “附加”到S3上的文件?因此,我们可以将每个进程附加到相同的log.txt 每x分钟在s3上运行一个命令,将它们合并在一起 您的第一个想法是,下载所有这些内容,然后单击、上载和删除,这是完成此任务

我有从不同机器上传到S3的日志文件(m1_log.txt、m2_log.txt、m3_log.txt)

他们上传到一个bucket,但我希望能够创建log.txt,这是所有三个的concat

我本来打算写一个脚本,下载所有的文件,收集,上传,然后删除旧的文件,但这似乎浪费了很多带宽和时间

有没有办法:

  • “附加”到S3上的文件?因此,我们可以将每个进程附加到相同的log.txt
  • 每x分钟在s3上运行一个命令,将它们合并在一起

  • 您的第一个想法是,下载所有这些内容,然后单击、上载和删除,这是完成此任务的唯一方法。您不能在S3上“附加文件”或“运行命令”。

    这里已经回答了这个问题:


    如果文件大于5Mb或不是5Mb,则可以合并文件。您可以伪造文件,使其大于5Mb。这是通过大多数aws SDK中可用的“复制零件”命令完成的。danilop和Joseph Lust的答案是正确的

    请不要将链接发布到。相反,考虑其他行动,可以帮助未来用户找到他们需要的答案,如链接帖子中所描述的。啊,很抱歉。我不知道这个选项是可用的。可能是重复的