第四章 信源编码 习题解答

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第四章信源编码 习题解答

1、一个信源由

1) 哪些是非奇异码?哪些是唯一可译码?哪些是即时码? 2) 分别计算每个唯一可译码的平均码长和编码效率。

解:1)A 、B 、C 、D 、E 、F 是非奇异码。A 、B 、C 、F 是唯一可译码(E 不满足克拉夫特不等式)。A 、C 、F 是即时码(B 是续长码)。 3) 编码A :

平均码长:3A L = 码元/消息 信源熵:111111

()lb lb 4lb 222441616

H X =---⨯=比特/消息 编码效率:max ()/2/3

66.7%lb21

A H H X L H η====码码

编码B 和C : 平均码长:111111

23456 2.1252416161616

B C L L ==+⨯+⨯+⨯+⨯+⨯= 码元/消息 编码效率:max ()/2/2.125

94.1%lb21

B C H H X L H ηη=====码码

编码F :

平均码长:11

1234 2.524

16F L ⎛⎫=⨯

+⨯+⨯= ⎪⎝⎭ 码元/消息 编码效率:max ()/2/2.5

80%lb21

F H H X L H η====码码

2、离散无记忆信源X 的概率空间为:1

234567()0.200.190.180.170.150.100.01X x x x x x x x p X ⎧⎫⎡⎤=⎨⎬⎢⎥⎩⎭⎣⎦

1)对其进行费诺编码,并计算其编码效率;

2)对其进行哈夫曼编码,并将其编码效率与费诺编码相比较。

解:1)费诺编码:

平均码长:()()()0.20.1720.190.180.1530.10.014 2.74L =+⨯+++⨯++⨯=码元/符号 信源熵:

()0.20lb0.200.19lb0.190.18lb0.180.17lb0.170.15lb0.150.1lb0.10.01lb0.01 2.60/874H X =-------= 比特符号

编码后平均码元熵:() 2.60874

0.95212.74H X H L

===码比特/码元

编码效率:max 0.9521

95.21%lb2

H H η=

==码码

2)哈夫曼编码: 码长 码字 信源X p (X ) 2 10 x 1 2 11 x 2 3 000 x 3 3 001 x 4 3 010 x 5 4 0110 x 6 4

0111

x 7

平均码长:()()()0.20.1920.180.170.1530.10.014 2.72L =+⨯+++⨯++⨯=码元/符号 编码后平均码元熵:() 2.60874

0.95912.72H X H L

===码比特/码元

编码效率:max 0.9591

95.91%lb2

H H η=

==码码

与费诺编码相比,哈夫曼编码的编码效率要高于费诺编码。

一般情况下哈夫曼编码效率较高,但费诺编码如果每次划分概率很接近,则效率也很高。

3、离散无记忆信源X 的概率空间为:1

2345678()0.220.200.180.10.150.020.050.08X x x x x x x x x p X ⎧⎫⎡⎤=⎨⎬⎢⎥⎩⎭⎣⎦

1)对其进行费诺编码;

2)对其进行哈夫曼编码。 解:1

2)哈夫曼编码:

4、离散无记忆信源S 描述为:1

23456()0.370.250.10.180.030.07S s s s s s s p S ⎧⎫⎡⎤=⎨⎬⎢⎥⎩

⎭⎣⎦ 1)计算信源熵及其冗余度;

2)对其进行费诺编码; 3)对其进行哈夫曼编码;

4*)对其进行香农-费诺-埃利阿斯编码; 5*)对其进行香农编码;

6)计算哈夫曼码的平均码长、编码效率和码冗余度;

7)把哈夫曼编码器的输出看成一个新信源X ,计算其概率分布p (x 1) 和 p (x 2);

8)H [p (x 1), p (x 2)] 是否等于H 码(即平均码元熵)?为什么? 解:1)信源熵:

()0.37lb0.370.25lb0.250.18lb0.180.1lb0.10.07lb0.070.03lb0.03 2.229H S =------= 比特/消息

冗余度:max () 2.23

1113.788%()lb6

H S E H S =-=-=

2)费诺编码:

3)哈夫曼编码:

4) 香农-费诺-埃利阿斯编码:

5)香农编码:

6)分析哈夫曼码,

其平均码长:6

1()2(0.370.250.18)30.14(0.07+0.03=2.3i i i L p s l ===⨯+++⨯+⨯∑) 码元/消息

平均码元熵:() 2.229

0.968962.3H S H L

===码 比特/码元 编码效率:max 0.97096.896%lb2

H H η=

==码码

码冗余度:max 0.96896

11 3.104%lb2

H E H η==-

=-=码码码1-

7)把哈夫曼编码器的输出看成一个新信源X ,计算其概率分布p (x 1) 和 p (x 2):

11211

()(0)0.370.250.10.03+0.07=0.60422342p x p ==+⨯+⨯+⨯⨯

21131

()(1)0.250.10.180.030.070.39582342

p x p ==⨯+⨯++⨯+⨯=

8)计算12[(),()](0.6042,0.3958)0.6042lb0.60420.3958lb0.39580.9685 /H p x p x H ==--=比特码元 相比平均码元熵:12() 2.229

0.96896[(),()]2.3H S H H p x p x L

=

==≈码 比特/码元 可见,两者很相近,但理论上不相同。因为平均码元熵计算的是算术平均值,而12[(),()]H p x p x 作的是统计平均。

5. 设有6个消息,其出现概率分别为

A B C D E F 1/16 1/16 2/16 3/16 4/16 5/16

将它们分别进行费诺编码和霍夫曼编码,并比较编码效率。是否在任何情况下费诺编码比霍夫曼编码效率都低?

相关文档
最新文档