Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/image-processing/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 输出AWS CLI“;同步“;将结果转换为txt文件_Amazon Web Services_Command Line_Amazon S3_Aws Cli - Fatal编程技术网

Amazon web services 输出AWS CLI“;同步“;将结果转换为txt文件

Amazon web services 输出AWS CLI“;同步“;将结果转换为txt文件,amazon-web-services,command-line,amazon-s3,aws-cli,Amazon Web Services,Command Line,Amazon S3,Aws Cli,我不熟悉AWS,特别是AWS CLI工具,但到目前为止,我似乎还不错 我正在使用以下命令连接到AWS S3并将本地目录同步到我的S3存储桶: set AWS_ACCESS_KEY_ID=AKIAIMYACCESSKEY set AWS_SECRET_ACCESS_KEY=NLnfMySecretAccessCode set AWS_DEFAULT_REGION=ap-southeast-2 aws s3 sync C:\somefolder\Data\Dist\ s3://my.bucket/s

我不熟悉AWS,特别是AWS CLI工具,但到目前为止,我似乎还不错

我正在使用以下命令连接到AWS S3并将本地目录同步到我的S3存储桶:

set AWS_ACCESS_KEY_ID=AKIAIMYACCESSKEY
set AWS_SECRET_ACCESS_KEY=NLnfMySecretAccessCode
set AWS_DEFAULT_REGION=ap-southeast-2
aws s3 sync C:\somefolder\Data\Dist\ s3://my.bucket/somefolder/Dist/ --delete
这是上传文件并显示每个文件的进度和结果。 初始上传完成后,我假设所有新同步都只上传新的和修改过的文件和文件夹。使用
--delete
将删除存储桶中本地服务器上不再存在的任何内容

我希望能够将每次上传的结果(或下载,如果其他服务器将获得上传内容的副本)输出到本地计算机上的.txt文件,以便我可以使用blat.exe将内容通过电子邮件发送给将监视同步的人

所有这些都将被放入一个批处理文件中,该批处理文件将计划每晚运行


可以输出到.txt吗?如果是,怎么做?

我自己还没有测试过,但我发现一些资源表明,可以像在linux中一样,在Windows命令提示符下重定向命令行驱动应用程序的输出

aws s3 sync C:\somefolder\Data\Dist\ s3://my.bucket/somefolder/Dist/ --delete > output.txt 
我找到的资源有:

初始上传完成后,我假设所有新同步都只上传新的和修改过的文件和文件夹。使用--delete将删除bucket中本地服务器上不再存在的任何内容

这是正确的,sync将上载与目标(无论是S3存储桶还是您的本地计算机)相比的新文件或修改的文件


--delete将删除目标(不一定是S3 bucket)中不在源中的任何内容。应小心使用,以避免出现下载、修改和同步一个文件的情况,并且由于本地计算机没有所有文件,因此使用--delete标志将删除目标位置的所有其他文件。

不考虑使用--delete,除非它修改了源文件。源代码是我们文档的存储库,并且始终是正确的列表/版本。此服务器只应将数据上载(和删除)到S3。对于从其他服务器上的S3下载的批处理文件,我不会使用--delete。使用>工作!!!谢谢。关于这个方法有一个问题-它能输出到控制台和文件吗?据我所知不是。我认为,在Linux中,仅仅将输出重定向到一个文件是不可能的。您可以尝试在Cygwin中工作,或者,正如您已经发现的,AWS Powershell可能有一些更好的功能。您可以在第二步中写入文件并输出文件内容,而不是尝试在一步中将输出复制到控制台和文件中吗?您可以使用“type output.txt”输出文件的内容。您可以使用Linux
tee
命令一步将输出发送到控制台和文件。