Compression 对于随机内容的大目录(1-10TB),有什么好的tar压缩算法吗?

Compression 对于随机内容的大目录(1-10TB),有什么好的tar压缩算法吗?,compression,tar,Compression,Tar,我想在我的Linux PC上备份和压缩我的所有数据。所有这些文件的大小加起来约为3.4 TB。我想用tar和一些压缩算法来压缩它们 我已经尝试过一些算法,比如xz,但它们只产生了10%的压缩(损失了100到300千兆) 对于如此庞大的数据量,是否有任何算法可以产生20%到40%的压缩?就算法而言,RAM和处理能力都不是我关心的问题(32千兆RAM和4790k)。xz已经是一个非常好的压缩机。你的数据似乎不是很可压缩。没有一款神奇的压缩机能比它好两到四倍。您可能会从基于PPM的压缩机中获得一点收益

我想在我的Linux PC上备份和压缩我的所有数据。所有这些文件的大小加起来约为3.4 TB。我想用tar和一些压缩算法来压缩它们

我已经尝试过一些算法,比如xz,但它们只产生了10%的压缩(损失了100到300千兆)


对于如此庞大的数据量,是否有任何算法可以产生20%到40%的压缩?就算法而言,RAM和处理能力都不是我关心的问题(32千兆RAM和4790k)。

xz已经是一个非常好的压缩机。你的数据似乎不是很可压缩。没有一款神奇的压缩机能比它好两到四倍。您可能会从基于PPM的压缩机中获得一点收益,但可能会获得很多


您唯一的希望可能是识别已应用于数据的压缩,对其进行解压缩,然后使用比原始压缩程序更好的压缩程序对其进行重新压缩。

xz已经是一种非常好的压缩程序。你的数据似乎不是很可压缩。没有一款神奇的压缩机能比它好两到四倍。您可能会从基于PPM的压缩机中获得一点收益,但可能会获得很多


您唯一的希望可能是识别已应用于数据的压缩,解压缩数据,然后使用比原始压缩程序更好的压缩程序重新压缩数据。

谢谢您提供的信息。我要检查基于PPM的压缩机。谢谢你的信息。我将检查基于PPM的压缩机。