Algorithm 用于压缩的HTML属性的优化顺序

Algorithm 用于压缩的HTML属性的优化顺序,algorithm,compression,gzip,huffman-code,Algorithm,Compression,Gzip,Huffman Code,我在某个地方读到,按一定顺序组织HTML属性可以提高HTML文档的压缩率。(我想我是从谷歌或雅虎推荐更快的网站上读到的)。如果我没记错的话,建议首先列出最常见的属性(例如,id,等等),然后按字母顺序列出其余的属性 我对此有点困惑。例如,如果将id属性放在每个p标记的后面,则id将包含唯一的值。因此,重复的字符串将限于以下内容:您的目标是鼓励重复内容。因此,bar.bofbar.bof,两者都比bar更容易压缩 但事实上,两者之间的差别将是微不足道的。为了您自己的利益,您最好只是以最可读的方式编

我在某个地方读到,按一定顺序组织HTML属性可以提高HTML文档的压缩率。(我想我是从谷歌或雅虎推荐更快的网站上读到的)。如果我没记错的话,建议首先列出最常见的属性(例如,
id
,等等),然后按字母顺序列出其余的属性


我对此有点困惑。例如,如果将
id
属性放在每个
p
标记的后面,则
id
将包含唯一的值。因此,重复的字符串将限于以下内容:
您的目标是鼓励重复内容。因此,

bar

.

bof

bar

.

bof

,两者都比

bar

更容易压缩

但事实上,两者之间的差别将是微不足道的。为了您自己的利益,您最好只是以最可读的方式编写标记,并让mod_deflate继续它的工作。通过这种微观优化,您甚至要保存一个TCP数据包,还需要走很长的路,而在微观层面上对压缩器进行二次猜测往往会产生意想不到的、可能是负面的结果

对于某些元素,可读性也可能意味着将“公共”属性放在第一位,例如
通常是第一个列出的属性;通常,您将计算出自己的属性顺序样式,如果它是一致的,我想这将在这里和那里为您节省一些字节。我不会选择原始字母顺序作为一致的顺序。所有这些都是为了规范化XML将产生什么

即使是以牺牲可读性、基本验证和各种良好实践为代价,致力于减少字节而臭名昭著的google.com首页,也没有为属性使用一致的顺序