H(X) = 2.35(bits / sym)L= p(x;)l; = 2.4(比特/ 符号)i=1L兰log, m = L编码信息率:R=bits / sym, (N = 1)NH(X)编码效率:== 97.92%R可以看出本例中费诺码有较高的编码效率费诺码比较适合于每次分组概率都很接近的信源11
11 可以看出本例中费诺码有较高的编码效率。 费诺码比较适合于每次分组概率都很接近的信源。 H(X) = 2.35(bits/sym) 2 log / ,( 1) L R m L bits sym N N 编码信息率: = = = ( ) 97.92% H X R 编码效率: = = = = = 6 i 1 i i L p( x )l 2.4(比 特 / 符 号 )
5.3哈夫曼编码将信源符号按概率由大到小顺序排队给两个概率最小的符号各分配一个码位,将其概率相加后合并作为一个新的符号,与剩下的符号一起,再重新排队给缩减信源中概率最小的符号各分配一个码元重复步骤2、3直至概率和为112信息论与编码技术-无失真信源编码定理
信息论与编码技术-无失真信源编码定理 12/ 12 将信源符号按概率由大到小顺序排队 给两个概率最小的符号各分配一个码位,将 其概率相加后合并作为一个新的符号,与剩 下的符号一起,再重新排队 给缩减信源中概率最小的符号各分配一个码 元 重复步骤2、3直至概率和为1 5.3 哈夫曼编码 1 2 3 4