Amazon web services 如何将s3 bucket自动同步到本地文件夹
我正在尝试在本地文件夹中复制我的s3存储桶。当铲斗发生变化时,应更新该值。 我看到许多使用lambda函数的选项,但我想了解s3 cli命令的用法:Amazon web services 如何将s3 bucket自动同步到本地文件夹,amazon-web-services,amazon-s3,Amazon Web Services,Amazon S3,我正在尝试在本地文件夹中复制我的s3存储桶。当铲斗发生变化时,应更新该值。 我看到许多使用lambda函数的选项,但我想了解s3 cli命令的用法: aws s3 sync s3://my-bucket . --delete 它将下载bucket上存在的任何文件,并删除本地存在但bucket中缺少的本地文件(预期行为) 有没有什么问题,循环它永远与几秒的延迟,如 while true; do aws s3 sync s3://my-bucket . --delete; sleep 3s; do
aws s3 sync s3://my-bucket . --delete
它将下载bucket上存在的任何文件,并删除本地存在但bucket中缺少的本地文件(预期行为)
有没有什么问题,循环它永远与几秒的延迟,如
while true; do aws s3 sync s3://my-bucket . --delete; sleep 3s; done
我每秒可以执行的api调用数量有限制吗?有更好的解决方案吗?您在linux上吗?您可以将命令粘贴在shell脚本中,并将其作为cronjob运行
* * * * * /path/to/your/script
^每分钟都跑
*/10 * * * * /path/to/your/script
^每10分钟一次
这将比循环中的bash脚本可靠得多。我希望它是linux。。。无论如何,我也更喜欢cron/scheduler而不是loop。。。。但问题是关于命令的使用。。。无论如何,在两种方式中,在并行调用另一个进程之前,都需要检查上一次迭代中的进程是否仍在运行。在这两种方式中,cron/loop应该以相同的方式处理它