Linux 将大文件拆分为小文件的更快方法?

Linux 将大文件拆分为小文件的更快方法?,linux,shell,file,scripting,Linux,Shell,File,Scripting,我有一个大约6.5GB的小文件,我尝试使用split-d-line--bytes=5MB将其拆分为大小为5MB的文件。我花了6分钟来分割这个文件。 我有超过1TB的文件。 有没有比专门为完成这类工作而设计的工具更快的方法?一般情况下听起来不太可能。但是,您可以做以下几件事: 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理 如果记录大小是静态的,您可以使用--bytes来避免处理整行的处理开销 比专门为完成此类工作而设计的工具更快?在一般情况下

我有一个大约6.5GB的小文件,我尝试使用
split-d-line--bytes=5MB
将其拆分为大小为5MB的文件。我花了6分钟来分割这个文件。 我有超过1TB的文件。
有没有比专门为完成这类工作而设计的工具更快的方法?一般情况下听起来不太可能。但是,您可以做以下几件事:

  • 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理
  • 如果记录大小是静态的,您可以使用
    --bytes
    来避免处理整行的处理开销

比专门为完成此类工作而设计的工具更快?在一般情况下听起来不太可能。但是,您可以做以下几件事:

  • 将输出文件保存到其他物理存储单元。这避免了在同一时间将数据读写到同一磁盘上,从而允许更不间断的处理
  • 如果记录大小是静态的,您可以使用
    --bytes
    来避免处理整行的处理开销

问题是:速度决定因素是什么?那可能是磁盘驱动器吗?如果是这样,那么答案是:获得更快的磁盘…标签与Windows相关,因此请重新考虑您应用的标签!问题是:速度决定因素是什么?那可能是磁盘驱动器吗?如果是这样,那么答案是:获得更快的磁盘…标签与Windows相关,因此请重新考虑您应用的标签!谢谢但我需要完整的行,这样csv中的单词或行就不会被夹在两行之间!但我需要完整的行,这样csv中的单词或行就不会被夹在中间