Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/jquery-ui/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Compression 压缩单个压缩文件的目录与将所有文件重新压缩在一起_Compression - Fatal编程技术网

Compression 压缩单个压缩文件的目录与将所有文件重新压缩在一起

Compression 压缩单个压缩文件的目录与将所有文件重新压缩在一起,compression,Compression,我有一个压缩网页目录(.maff),每个网页分别压缩。其中一些网页是同一页面的变体,彼此之间仅略有不同,比如说,10%的差异。我想将整个文件夹(数百个文件)压缩到一个归档文件中 从理论上讲,压缩许多相同(10%差异)的文件应该非常有效(~90%) 但是我想知道:单独压缩的稍微不同的文件的二次压缩效率有多高?至少在理论上是这样 哪种压缩算法在以这种两阶段方式应用时损失的强度最小 也许,第一和第二阶段应该使用不同的算法来最大化整体压缩?(然而,在我的例子中,MAFF标准将第一种算法固定为ZIP压缩)

我有一个压缩网页目录(.maff),每个网页分别压缩。其中一些网页是同一页面的变体,彼此之间仅略有不同,比如说,10%的差异。我想将整个文件夹(数百个文件)压缩到一个归档文件中

从理论上讲,压缩许多相同(10%差异)的文件应该非常有效(~90%)

但是我想知道:单独压缩的稍微不同的文件的二次压缩效率有多高?至少在理论上是这样

哪种压缩算法在以这种两阶段方式应用时损失的强度最小


也许,第一和第二阶段应该使用不同的算法来最大化整体压缩?(然而,在我的例子中,MAFF标准将第一种算法固定为ZIP压缩)。

压缩已经压缩的文件可能是无回报的。在许多类似文件的情况下不是无回报的。目前,二次压缩为我提供了额外的3倍压缩比。相关: