Linux 将大文件拆分为小文件的更快方法?
我有一个大约6.5GB的小文件,我尝试使用Linux 将大文件拆分为小文件的更快方法?,linux,shell,file,scripting,Linux,Shell,File,Scripting,我有一个大约6.5GB的小文件,我尝试使用split-d-line--bytes=5MB将其拆分为大小为5MB的文件。我花了6分钟来分割这个文件。 我有超过1TB的文件。 有没有比专门为完成这类工作而设计的工具更快的方法?一般情况下听起来不太可能。但是,您可以做以下几件事: 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理 如果记录大小是静态的,您可以使用--bytes来避免处理整行的处理开销 比专门为完成此类工作而设计的工具更快?在一般情况下
split-d-line--bytes=5MB
将其拆分为大小为5MB的文件。我花了6分钟来分割这个文件。
我有超过1TB的文件。
有没有比专门为完成这类工作而设计的工具更快的方法?一般情况下听起来不太可能。但是,您可以做以下几件事:
- 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理
- 如果记录大小是静态的,您可以使用
来避免处理整行的处理开销--bytes
- 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理
- 如果记录大小是静态的,您可以使用
来避免处理整行的处理开销--bytes