Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Batch file 7zip、批处理文件、文件拆分、amazon s3_Batch File_Amazon S3_Split_7zip - Fatal编程技术网

Batch file 7zip、批处理文件、文件拆分、amazon s3

Batch file 7zip、批处理文件、文件拆分、amazon s3,batch-file,amazon-s3,split,7zip,Batch File,Amazon S3,Split,7zip,我尝试使用下面的批处理命令为给定文件夹7zip中的每个文件启动,并将文件拆分为250 MB的部分。文件不应该压缩(-mx0),因为我希望磁盘I/o较低,只希望与AmazonS3同步 for /f %%f in ('dir /b c:\Test\') do START 7z.exe a %%f.zip -wc:\Test -oc:\TestOutput\ -v250m -mx0 -t7z 问题是输出文件夹不是我指定的文件夹,它只接受7zip文件夹。另外,我尝试拆分的文件至少有2.7GB大,输出

我尝试使用下面的批处理命令为给定文件夹7zip中的每个文件启动,并将文件拆分为250 MB的部分。文件不应该压缩(-mx0),因为我希望磁盘I/o较低,只希望与AmazonS3同步

 for /f %%f in ('dir /b c:\Test\') do START 7z.exe a %%f.zip -wc:\Test -oc:\TestOutput\ -v250m -mx0 -t7z
问题是输出文件夹不是我指定的文件夹,它只接受7zip文件夹。另外,我尝试拆分的文件至少有2.7GB大,输出文件只有3MB

对代码有什么想法吗

还有,有人知道可以分割文件的替代程序吗?我可以通过批处理文件运行这些程序?还是为我完成全部工作的工具

谢谢,
帕特里克

我使用一个名为SFK的程序,它是一把真正的“瑞士军刀”。它具有拆分功能:


(更清楚地说,它是命令行,非常易于使用且功能强大,但这种拆分并没有按照您的需要进行压缩。它稍后还会连接文件。)

我还不太清楚它是如何应用于Amazon S3的,但您可以使用它将文件分解为小块并自动传输到S3

it just takes the 7zip folder.
它将拆分的文件放在当前工作目录中


7zip文件夹可能是您当前的工作目录,请尝试将其更改为输出文件夹,看看它是否工作

不是编程问题;转到超级用户。这是一个编程问题。。。这是Windows批处理编程;)很好的工具,已经试过了,但是CPU看起来很糟糕。。。在我的开发服务器上,它上升到55%,而7zip保持在12%的低水平。哇,55%的CPU?我一直在使用它,从不使用太多的CPU。。。最奇怪的是,文件分割几乎只是一个硬盘操作;很奇怪…这正是我需要的。