Encoding DBI(数据总线反转)是否保持熵?

Encoding DBI(数据总线反转)是否保持熵?,encoding,compression,decoding,entropy,information-theory,Encoding,Compression,Decoding,Entropy,Information Theory,我一直在维基百科上阅读DBI,其中引用了这篇研究论文: 上面写着 而最大转换次数减少了一半 平均转换次数的减少并没有那么好。为了 8位总线,例如每个时隙的平均转换次数 通过使用总线反转编码,变为3.27(而不是4)或0.41 (而不是0.5)每个总线线路每个时隙的转换 然而,这表明它降低了8位消息的熵,不是吗? 所以随机8位信息的熵是8(duh)。添加一个DBI位,将概率分布向左移动,但它(我认为)不会减少曲线下的面积。你仍然应该有至少8位的熵,但要分散在9位上。但是他们声称平均值现在是0.41

我一直在维基百科上阅读DBI,其中引用了这篇研究论文:

上面写着

而最大转换次数减少了一半 平均转换次数的减少并没有那么好。为了 8位总线,例如每个时隙的平均转换次数 通过使用总线反转编码,变为3.27(而不是4)或0.41 (而不是0.5)每个总线线路每个时隙的转换

然而,这表明它降低了8位消息的熵,不是吗? 所以随机8位信息的熵是8(duh)。添加一个DBI位,将概率分布向左移动,但它(我认为)不会减少曲线下的面积。你仍然应该有至少8位的熵,但要分散在9位上。但是他们声称平均值现在是0.41,而不是0.5,这表明熵现在是-log((0.59)^9)=~6.85。我假设平均值(最多)为0.46(-log(0.54^9)=~8)

我是不是误解了什么

谢谢