Compression 压缩单个压缩文件的目录与将所有文件重新压缩在一起
我有一个压缩网页目录(.maff),每个网页分别压缩。其中一些网页是同一页面的变体,彼此之间仅略有不同,比如说,10%的差异。我想将整个文件夹(数百个文件)压缩到一个归档文件中 从理论上讲,压缩许多相同(10%差异)的文件应该非常有效(~90%) 但是我想知道:单独压缩的稍微不同的文件的二次压缩效率有多高?至少在理论上是这样 哪种压缩算法在以这种两阶段方式应用时损失的强度最小Compression 压缩单个压缩文件的目录与将所有文件重新压缩在一起,compression,Compression,我有一个压缩网页目录(.maff),每个网页分别压缩。其中一些网页是同一页面的变体,彼此之间仅略有不同,比如说,10%的差异。我想将整个文件夹(数百个文件)压缩到一个归档文件中 从理论上讲,压缩许多相同(10%差异)的文件应该非常有效(~90%) 但是我想知道:单独压缩的稍微不同的文件的二次压缩效率有多高?至少在理论上是这样 哪种压缩算法在以这种两阶段方式应用时损失的强度最小 也许,第一和第二阶段应该使用不同的算法来最大化整体压缩?(然而,在我的例子中,MAFF标准将第一种算法固定为ZIP压缩)
也许,第一和第二阶段应该使用不同的算法来最大化整体压缩?(然而,在我的例子中,MAFF标准将第一种算法固定为ZIP压缩)。压缩已经压缩的文件可能是无回报的。在许多类似文件的情况下不是无回报的。目前,二次压缩为我提供了额外的3倍压缩比。相关: