Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 aws与本地目录中存在的服务器文件夹同步_Amazon S3_Amazon Ec2_Aws Sdk - Fatal编程技术网

Amazon s3 aws与本地目录中存在的服务器文件夹同步

Amazon s3 aws与本地目录中存在的服务器文件夹同步,amazon-s3,amazon-ec2,aws-sdk,Amazon S3,Amazon Ec2,Aws Sdk,在我的s3存储桶中,我有10个子文件夹命名为1-10,但在我的ec2实例中,我只有3个子文件夹命名为1,2,3。因此,我只想与s3 bucket同步(或cp),以获取这3个文件夹的数据,而不必在我的ec2中包含所有10个文件夹。有可能这样做吗 aws s3 sync s3://mybucket/ . --include "*" 但是我在我的ec2中得到了s3存储桶中的所有10个文件夹。您可以尝试下面的命令,该命令将首先排除所有内容,然后只包括您实际需要的文件夹: aws s3 sync s3

在我的s3存储桶中,我有10个子文件夹命名为1-10,但在我的ec2实例中,我只有3个子文件夹命名为1,2,3。因此,我只想与s3 bucket同步(或cp),以获取这3个文件夹的数据,而不必在我的ec2中包含所有10个文件夹。有可能这样做吗

aws s3 sync s3://mybucket/ .  --include "*"

但是我在我的ec2中得到了s3存储桶中的所有10个文件夹。

您可以尝试下面的命令,该命令将首先排除所有内容,然后只包括您实际需要的文件夹:

aws s3 sync s3://mybucket/ .  --exclude "*" --include "1" --include "2" --include "3"

这对我不起作用,我试过这个。但是感谢您的回复,没有使用多个包含,您可以通过bash命令循环查找-maxdepth 1-mindepth 1-type d-printf“%f\n”-exec aws s3 sync s3://my bucket/{}.\;像这样的事情我很累,但它打印我的文件夹&退出这个过程