(完整版)信息论基础与编码课后题答案(第三章)

合集下载

信息论与编码(第3版)第3章部分习题答案

信息论与编码(第3版)第3章部分习题答案

3.1设信源()12345670.20.190.180.170.150.10.01X a a a a a a a P X ⎛⎫⎧⎫=⎨⎬ ⎪⎩⎭⎝⎭ (1) 求信源熵()H X (2) 编二进制香农码(3) 计算平均码长及编码效率。

答:(1)根据信源熵公式()()()()21log 2.6087bit/symbol i i i H X p a p a ==−=∑(2)利用到3个关键公式:①根据()()()100,0i a i k k p a p a p a −===∑计算累加概率;②根据()()*22log 1log ,i i i i p a k p a k N −≤<−∈计算码长;③根据()a i p a 不断地乘m 取整(m 表示编码的进制),依次得到的i k 个整数就是i a 对应的码字根据①②③可得香农编码为(3)平均码长公式为()13.14i i i K p a k ===∑单符号信源L =1,以及二进制m =2, 根据信息率公式()2log bit/symbol m KR K L==编码效率()83.08%H X Rη==3.2对习题3.1的信源编二进制费诺码,计算其编码效率答:将概率从大到小排列,且进制m=2,因此,分成2组(每一组概率必须满足最接近相等)。

根据平均码长公式为()12.74i iiK p a k===∑单符号信源L=1,以及二进制m=2, 根据信息率公式()2log bit/symbolmKR KL==编码效率(信源熵看题3.1)()95.21%H XRη==3.3对习题3.1的信源编二进制赫夫曼码,计算平均码长和编码效率答:将n个信源符号的概率从大到小排列,且进制m=2。

从m个最小概率的“0”各自分配一个“0”和“1”,将其合成1个新的符号,与其余剩余的符号组成具有n-1个符号的新信源。

排列规则和继续分配码元的规则如上,直到分配完所有信源符号。

必须保证两点:(1)当合成后的信源符号与剩余的信源符号概率相等时,将合并后的新符号放在靠前的位置来分配码元【注:“0”位表示在前,“1”表示在后】,这样码长方差更小;(2)读取码字时是从后向前读取,确保码字是即时码。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:* (3)信源空间:bit x H 32.436log 3616236log 36215)(=⨯⨯+⨯⨯=∴bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==?如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解: !bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解第二章 信息量和熵2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。

解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。

问各得到多少信息量。

解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log =2.585 bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log =5.17 bit2.4 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13.208 bit即)0;(1u I ,)00;(1u I ,)000;(1u I ,)0000;(1u I)0(p =4)1(81⨯-p +481⨯p =21)0;(1u I =)0()|0(log1p u p =211log p-=1+)1log(p - bit)00(p =]2)1(4)1(2[8122p p p p +-+-=41)00;(1u I =)00()|00(log 1p u p =4/1)1(log 2p -=)]1log(1[2p -+ bit)000(p =])1(3)1(3)1[(813223p p p p p p +-+-+-=81)000;(1u I =3[1+)1log(p -] bit)0000(p =])1(6)1[(814224p p p p +-+- )0000;(1u I =42244)1(6)1()1(8logp p p p p +-+-- bit2.12 计算习题2.9中);(Z Y I 、);(Z X I 、);,(Z Y X I 、)|;(X Z Y I 、)|;(Y Z X I 。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3616236log 36215)(=⨯⨯+⨯⨯=∴ (4)信源空间:bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

信息与编码理论课后习题答案

信息与编码理论课后习题答案

2.1 莫尔斯电报系统中,若采用点长为0.2s ,1划长为0.4s ,且点和划出现的概率分别为2/3和1/3,试求它的信息速率(bits/s)。

解: 平均每个符号长为:1544.0312.032=⨯+⨯秒 每个符号的熵为9183.03log 3123log 32=⨯+⨯比特/符号所以,信息速率为444.34159183.0=⨯比特/秒2.2 一个8元编码系统,其码长为3,每个码字的第一个符号都相同(用于同步),若每秒产生1000个码字,试求其信息速率(bits /s)。

解: 同步信号均相同不含信息,其余认为等概,每个码字的信息量为 3*2=6 比特;所以,信息速率为600010006=⨯比特/秒2.3 掷一对无偏的骰子,若告诉你得到的总的点数为:(a ) 7;(b ) 12。

试问各得到了多少信息量?解: (a)一对骰子总点数为7的概率是366 所以,得到的信息量为 585.2)366(log 2= 比特(b) 一对骰子总点数为12的概率是361 所以,得到的信息量为 17.5361log 2= 比特2.4经过充分洗牌后的一付扑克(含52张牌),试问:(a) 任何一种特定排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解: (a)任一特定排列的概率为!521, 所以,给出的信息量为 58.225!521log 2=- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 13131313525213!44A C ⨯=所以,得到的信息量为 21.134log 1313522=C 比特.2.5 设有一个非均匀骰子,若其任一面出现的概率与该面上的点数成正比,试求各点出现时所给出的信息量,并求掷一次平均得到的信息量。

解:易证每次出现i 点的概率为21i,所以比特比特比特比特比特比特比特398.221log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21log )(2612=-==============-==∑=i i X H x I x I x I x I x I x I i ii x I i2.6 园丁植树一行,若有3棵白杨、4棵白桦和5棵梧桐。

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》习题参考答案1. 信息是什么?信息与消息有什么区别和联系?答:信息是对事物存在和运动过程中的不确定性的描述。

信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。

2. 语法信息、语义信息和语用信息的定义是什么?三者的关系是什么? 答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。

语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。

语用信息是信息的最高层次。

它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。

三者之间是内涵与外延的关系。

第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量?答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。

a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。

则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。

随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

信息论与编码技术第三章课后习题答案

信息论与编码技术第三章课后习题答案

Chap3 思考题与习题 参考答案3.1 设有一个信源,它产生0、1 序列的消息。

它在任意时间而且不论以前发生过什么符号,均按P(0)=0.4,P(1)=0.6 的概率发出符号。

(1) 试问这个信源是否平稳的? (2) 试计算H(X 2),H(X 3/X 1X 2)及H ∞。

(3) 试计算H(X 4),并写出X 4 信源中可能有的所有符号。

解:(1)根据题意,此信源在任何时刻发出的符号概率都是相同的,均按p(0)=0.4,p(1)=0.6,即信源发出符号的概率分布与时间平移无关,而且信源发出的序列之间也是彼此无信赖的。

所以这信源是平稳信源。

(2)23123121()2()2(0.4log 0.40.6log 0.6) 1.942(/)(|)()()log ()(0.4log 0.40.6log 0.6)0.971(/)lim (|)()0.971(/)i i iN N N N H X H X bit symbols H X X X H X p x p x bit symbol H H X X X X H X bit symbol ∞−→∞==−×+===−=−+====∑" (3)4()4()4(0.4log 0.40.6log 0.6) 3.884(/)H X H X bit symbols ==−×+=4X 的所有符号:0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 11113.2 在一个二进制的信道中,信源消息集X={0,1}且p(1)=p(0),信宿的消息集Y={0,1},信道传输概率(10)1/p y x ===4,(01)1/p y x ===8。

求:(1) 在接收端收到y=0后,所提供的关于传输消息x 的平均条件互信息I(X ;y=0); (2) 该情况下所能提供的平均互信息量I(X ;Y)。

《信息论与编码》第三章部分习题参考答案

《信息论与编码》第三章部分习题参考答案

第三章习题参考答案第三章习题参考答案3-1解:(1)判断唯一可译码的方法:①先用克劳夫特不等式判定是否满足该不等式;②若满足再利用码树,看码字是否都位于叶子结点上。

如果在叶节点上则一定是唯一可译码,如果不在叶节点上则只能用唯一可译码的定义来判断是不是。

可译码的定义来判断是不是。

其中C1,C2,C3,C6都是唯一可译码。

都是唯一可译码。

对于码C2和C4都满足craft 不等式。

但是不满足码树的条件。

但是不满足码树的条件。

就只能就只能举例来判断。

举例来判断。

对C5:61319225218ki i ---==+´=>å,不满足该不等式。

所以C5不是唯一可译码。

译码。

(2)判断即时码方法:定义:即时码接收端收到一个完整的码字后,就能立即译码。

特点:码集任何一个码不能是其他码的前缀,即时码必定是唯一可译码, 唯一可译码不一定是即时码。

唯一可译码不一定是即时码。

其中C1,C3,C6都是即时码。

都是即时码。

对C2:“0”是“01”的前缀,……,所以C2不是即时码。

不是即时码。

(1) 由平均码长61()i i i K p x k ==å得1236 3 1111712(3456) 241681111712(3456) 2416811152334 24162K bitK bit K bitK bit==´+´+´+++==´+´+´+++==´+´+´´=62111223366()()log () 2 /()266.7%3()294.1%178()294.1%178()280.0%52i i i H U p u p u H U K H U K H U K H U K h h h h ==-=============å比特符号3-7解:(1)信源消息的概率分布呈等比级数,按香农编码方法,其码长集合为自然数数列1, 2, 3, ···, i, ·, i, ····;对应的编码分别为:0, 10, 110, ···, 111…110 ( i 110 ( i –– 1个1), ·1), ····。

信息论与编码第三章曹雪虹习题答案

信息论与编码第三章曹雪虹习题答案

第三章3.1 设二元对称信道的传递矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132(1) 若P(0) = 3/4, P(1) = 1/4,求H(X), H(X/Y), H(Y/X)和I(X;Y); (2) 求该信道的信道容量及其达到信道容量时的输入概率分布;解: 1)symbolbit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbol bit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbolbit x y p x y p x p X Y H symbolbit x p X H jj iji j i j i i i / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/()/()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167.032413143)/()()/()()()()(5833.031413243)/()()/()()()()(/ 918.0 10log )32lg 324131lg 314131lg 314332lg 3243( )/(log )/()()/(/ 811.0)41log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==⨯+⨯-=-==⨯+⨯=+=+==⨯+⨯=+=+==⨯⨯+⨯+⨯+⨯-=-==⨯+⨯-=-=∑∑∑∑2)2221122max (;)log log 2(lg lg )log 100.082 /3333mi C I X Y m H bit symbol==-=++⨯=其最佳输入分布为1()2i p x =3-2某信源发送端有2个符号,i x ,i =1,2;()i p x a =,每秒发出一个符号。

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。

信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。

2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。

语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。

语用信息是信息的最高层次。

它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。

三者之间是内涵与外延的关系。

第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。

a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。

则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。

随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)

《信息理论与编码》,答案,考试重点(1--3章)《信息理论与编码》习题参考答案1. 信息是什么?信息与消息有什么区别和联系?答:信息是对事物存在和运动过程中的不确定性的描述。

信息就是各种消息符号所包含的具有特定意义的抽象内容,⽽消息是信息这⼀抽象内容通过语⾔、⽂字、图像和数据等的具体表现形式。

2. 语法信息、语义信息和语⽤信息的定义是什么?三者的关系是什么?答:语法信息是最基本最抽象的类型,它只是表现事物的现象⽽不考虑信息的内涵。

语义信息是对客观现象的具体描述,不对现象本⾝做出优劣判断。

语⽤信息是信息的最⾼层次。

它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进⼀步考察这种关系及含义对于信息使⽤者的效⽤和价值。

三者之间是内涵与外延的关系。

第2章1. ⼀个布袋内放100个球,其中80个球是红⾊的,20个球是⽩⾊的,若随机摸取⼀个球,猜测其颜⾊,求平均摸取⼀次所能获得的⾃信息量?答:依据题意,这⼀随机事件的概率空间为120.80.2X x x P =其中:1x 表⽰摸出的球为红球事件,2x 表⽰摸出的球是⽩球事件。

a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(⽐特)b)如果摸出的是⽩球,则获得的信息量是()()22log log0.2I x p x =-=-(⽐特)c) 如果每次摸出⼀个球后⼜放回袋中,再进⾏下⼀次摸取。

则如此摸取n 次,红球出现的次数为()1np x 次,⽩球出现的次数为()2np x 次。

随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取⼀次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+=-+=⽐特/次2. 居住某地区的⼥孩中有25%是⼤学⽣,在⼥⼤学⽣中有75%是⾝⾼1.6⽶以上的,⽽⼥孩中⾝⾼1.6⽶以上的占总数的⼀半。

信息论与编码第三章习题参考答案

信息论与编码第三章习题参考答案

第三章习题参考答案3-1 离散无记忆信道如图3.10所示,输入X 取值空间为,信道干扰的概率空间为求信道容量和最佳分布。

图3.10解:设X 的概率分布为根据ZX ⊕=Y可以算出条件转移概率矩阵为⎥⎦⎤⎢⎣⎡--=αααα11P X |Y这是一个完全对称的信道,信道容量为)-1()-1(1)(2C αααααlb lb H lb ++=-= 最佳分布为等概率分布,即)5.0,5.0(3-2写出图3.11所示离散无记忆信道的条件转移矩阵,并求信道容量和最佳分布。

图3.11解:信道的条件转移概率为⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎣⎡=4341031313104143P 观察1、3行,可以发现是相互置换的。

设信道输入为)5.0,0,5.0(,可以计算出相应概率p(bj),83)()(31==b p b p 41)(2=b p 平均互信息量为83)()|()|()()|()|()()|()|();(I 3131321212111111=++=b p a b p lb a b p b p a b p lb a b p b p a b p lb a b p Y a同理可以计算出3);(I2lb Y a -=,83);(I 3=Y a ,根据信道容量性质可知由于);(I );(I33Y a Y a =,且03);(I 2<-=lb Y a ,所以信道容量为83);(IC 1==Y a ,而最佳分布为)5.0,0,5.0(。

3-3 在某离散无记忆信道上传输二进制符号0和1,由于受到随机干扰影响,符号传输出现差错,每传输1000个符号会出现2个错误,假设每秒钟允许传输1000个符号,求该信道的信道容量。

解:信道的条件转移概率矩阵为⎥⎦⎤⎢⎣⎡=998.0002.0002.0998.0P信道容量为 98.0)002.0(2C =-=H lb 比特/符号,每秒钟的信道容量为9801000*98.0CN C t === 比特/秒3-4 如图3.12所示的信道,写出条件转移矩阵,求出信道容量和最佳分布,并且求出当和时的信道容量。

《信息论与编码》第三章习题解答

《信息论与编码》第三章习题解答
H (X ) ,所以 log 3
其 中 (i, k1 ) , (k1 + 1, k 2 ) , (k 2 + 1, j ) 是 由 内 节 点 (i, j ) 分 岔 出 去 的 三 个 节 点 , 所 以
p (i, k1 ) + p(k1 + 1, k 2 ) + p (k 2 + 1, j ) = p(i, j ) 。由于码 D 的平均码长 L =
(c) {01,10}
[解] (a){0,10,11}可能为 Huffman 码,因为它构成满树; (b){00,01,10,110}不可能为 Huffman 码, 因为码字“110”可以用更短的“11”代替,而保持前缀码条件; (c){01,10}不可能成为 Huffman 码,因为显然{0,1}是平均码长更短的前缀码; 3.8 一个随机变量 X 的取值范围为 X = { x1 , x2 " , xm } ,它的熵为 H(X), 若对这个源能找到 一个平均码长为 L =
I 表示全体内节点 (i, j ) , (i < j ) 的集合。 内节点 (i, j ) 上的累计概率定义为:
(1,13) (4,8) (6,8)
i
P (i, j ) =
于是

k =i
j
(1, 3)
pk
a1 a2 a3
(9,13) (10,12)
L=
∑l ⋅ p = ∑ p(i, j )
i i =1
0.16 (1) 0.14 (1) 0.13 (0) 0.12 (1) 0.1 (1) 0.09 (0) 0.08 (1) 0.07 (0) 0.06 (1) 0.05 (0)
0.27 (0) 0.31 (1) 0.19 (0) 0.23 (1) 0.15 (0) 0.42 (0) 0.58 (1) 1

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)
110
111
(1)在W4=011中,接到第一个码字“0”后获得关于a4的信息量I(a4;0);
(2)在收到“0”的前提下,从第二个码字符号“1”中获取关于a4的信息量I(a4;1/0);
(3)在收到“01”的前提下,从第三个码字符号“1”中获取关于a4的信息量I(a4;1/01);
(4)从码字W4=011中获取关于a4的信息量I(a4;011)。
其中N=2FT,б2X是信号的方差(均值为零),б2N是噪声的方差(均值为零).
再证:单位时间的最大信息传输速率
信息单位/秒
(证明详见p293-p297)
5.12设加性高斯白噪声信道中,信道带宽3kHz,又设{(信号功率+噪声功率)/噪声功率}=10dB.试计算改信道的最大信息传输速率Ct.
解:
5.13在图片传输中,每帧约有2.25×106个像素,为了能很好的重现图像,需分16个量度电平,并假设量度电平等概率分布,试计算每分钟传输一帧图片所需信道的带宽(信噪功率比为30dB).
(2)求信源的极限熵H∞;
(3)求当p=0,p=1时的信息熵,并作出解释。
解:
3.10设某马尔柯夫信源的状态集合S:{S1S2S3},符号集X:{α1α2α3}。在某状态Si(i=1,2,3)下发发符号αk(k=1,2,3)的概率p(αk/Si) (i=1,2,3; k=1,2,3)标在相应的线段旁,如下图所示.
证明:
3.5试证明:对于有限齐次马氏链,如果存在一个正整数n0≥1,对于一切i,j=1,2,…,r,都有pij(n0)>0,则对每个j=1,2,…,r都存在状态极限概率:
(证明详见:p171~175)
3.6设某齐次马氏链的第一步转移概率矩阵为:

信息论与编码第二版答案 (3)

信息论与编码第二版答案 (3)

信息论与编码第二版答案第一章:信息论基础1.问题:信息论的基本概念是什么?答案:信息论是一种数学理论,研究的是信息的表示、传输和处理。

它的基本概念包括:信息、信息的熵和信息的编码。

2.问题:什么是信息熵?答案:信息熵是信息的度量单位,表示信息的不确定度。

它的计算公式为H(X) = -ΣP(x) * log2(P(x)),其中P(x)表示事件x发生的概率。

3.问题:信息熵有什么特性?答案:信息熵具有以下特性:•信息熵的值越大,表示信息的不确定度越高;•信息熵的值越小,表示信息的不确定度越低;•信息熵的最小值为0,表示信息是确定的。

4.问题:信息熵与概率分布有什么关系?答案:信息熵与概率分布之间存在着直接的关系。

当概率分布均匀时,信息熵达到最大值;而当概率分布不均匀时,信息熵会减小。

第二章:数据压缩1.问题:数据压缩的目的是什么?答案:数据压缩的目的是通过消除冗余和重复信息,使数据占用更少的存储空间或传输更快。

2.问题:数据压缩的两种基本方法是什么?答案:数据压缩可以通过无损压缩和有损压缩两种方法来实现。

无损压缩是指压缩后的数据可以完全还原为原始数据;而有损压缩则是指压缩后的数据不完全还原为原始数据。

3.问题:信息压缩的度量单位是什么?答案:信息压缩的度量单位是比特(bit),表示信息的数量。

4.问题:哪些方法可以用于数据压缩?答案:数据压缩可以通过以下方法来实现:•无结构压缩方法:如霍夫曼编码、算术编码等;•有结构压缩方法:如词典编码、RLE编码等;•字典方法:如LZW、LZ77等。

第三章:信道容量1.问题:什么是信道容量?答案:信道容量是指在给定信噪比的条件下,信道传输的最大数据速率。

2.问题:信道容量的计算公式是什么?答案:信道容量的计算公式为C = W * log2(1 + S/N),其中C表示信道容量,W表示信道带宽,S表示信号的平均功率,N表示噪声的平均功率。

3.问题:信道容量与信噪比有什么关系?答案:信道容量与信噪比成正比,信噪比越高,信道容量越大;反之,信噪比越低,信道容量越小。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息理论与编码课后答案第3章

信息理论与编码课后答案第3章

第3章 信道模型和信道容量3.1 基本要求通过本章学习,了解信道的模型和分类,掌握信道容量的定义,掌握无噪信道、对称信道的信道容量的计算,了解准对称信道信道容量的计算,了解一般离散无记忆信道(DMC )达到信道容量的充要条件,掌握DMC 扩展信道的信道容量计算,了解加性高斯噪声信道的信道容量的结论,掌握香农信道容量公式。

3.2 学习要点3.2.1 信道的分类信道是信息传输的通道。

研究信道的目的,主要是为了描述和分析各种不同类型信道的特性,度量其信息的极限传输能力。

信息理论中常用的信道分类方法如下。

(1)根据信道输入/输出信号在时间和幅值上的取值是离散或连续来划分,可分为4类,如表3.1所示。

(2)根据信道的记忆特性划分,可分为2类:无记忆信道:信道当前的输出只与当前的输入有关。

有记忆信道:信道当前的输出不但与当前的输入有关,还与当前时刻以前的输入有关。

(3)根据信道的输入/输出关系是确定关系还是统计依存关系划分,可分为2类: 无噪声信道:信道的输入/输出关系是确定关系。

有噪声信道:信道的输入/输出关系是统计依存关系。

3.2.2 信道的数学模型3.2.2.1 离散无记忆信道(DMC )的数学模型离散无记忆信道(DMC )的数学模型如图3.1所示,记为|{,,}Y X X P Y 。

信道的输入X 取值于集合12{,,,}r A a aa = ,输出Y 取值于集合12{,,,}s Bb b b = 。

|{(|)|1,2,,;1,2,,}Y X j i P P b a i r j s === (3.1) 为分析计算方便,常常把所有转移概率排成矩阵:图3.1 离散无记忆信道(DMC )模型示意图噪声干扰12112111122222|12(|)(|)(|)(|)(|)(|)[](|)(|)(|)ss s Y X r r s r rb b b P b a P b a P b a a P b a P b a P b a a P P b a P b a P b a a ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦(3.2) 转移矩阵中各行s 个转移概率自身是完备的:1(|)1,1,2,,sji j P ba i r ===∑ (3.3)3.2.2.2 扩展信道的数学模型图3.2所示的是N 次扩展信道的模型,其输入和输出均为N 元随机变量序列。

信息论语编码第3章习题解答

信息论语编码第3章习题解答

3.1 设信源⎥⎦⎤⎢⎣⎡)(x P X =⎥⎦⎤⎢⎣⎡4.06.021x x 通过一干扰信道,接收符号Y=[]21y y ,信道传递概率如图3.33所示。

求: (1) 信源X 中事件x1,和x2分别含有的自信息。

(2) 收到消息yj(j=1,2)后,获得的关于xi(i=1,2)的信息量。

(3) 信源X 和信源Y 的信息熵。

(4) 信道疑义度H (X|Y )和噪声熵H (Y|X )。

(5) 接收到消息Y 后获得的平均互信息。

解:(1)由定义得:I (X1)= -log0.6=0.74bitI (X2)= -log0.4=1.32bit(2)P (y1)= 0.6×5/6+0.4×3/4=0.8 P (y2)= 0.6×1/6+0.4×1/4=0.2I (xi ;xj )= I (xi )-I (xi|yj )=log[P (xi|yj )/p (xi )]= log[P (yj|xi )/p (yj )]则 I (x1;y1)= log[P (y1|x1)/p (y1)]=log5/6/0.8=0.059bit I (x1;y2)= log[P (y2|x2)/p (y2)]=log1/6/0.2=-0.263bit I (x2;y1)= log[P (y1|x2)/p (y1)]=log3/4/0.8=-0.093bit I (x2;y2)= log[P (y2|x2)/p (y2)]=log1/4/0.2=0.322bit(3)由定义显然 H (X )=0.97095bit/符号H (Y )=0.72193bit/符号 (4)H (Y|X )=∑P (xy )log[1/P (y|x )]=2211i j ==∑∑p (xi )P (yj|xi )log[1/P (yj|xi )]=0.6·5/6·log6/5+0.6·1/6·log6+0.4·3/4·log4/3+0.4·1/4·log4 =0.7145bit/符号H (X|Y )= H (X )+H (Y|X )-H (Y )=0.9635bit/符号(5) I (X ;Y )= H (X )-H (X|Y )=0.00745 bit/符号3.2设8个等概率分布的消息通过传递概率为p 的BSC 进行传送。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为51661344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。

解:(1)12()0.737,() 1.322I x bit I x bit ==(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,22(;)0.907I x y bit =(3)()(0.6,0.4)0.971/H X H bit symbol ==()(0.6,0.4)0.971/H Y H bit symbol ==(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =(5)(;)0.9710.7140.257/I X Y bit symbol =-=3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。

该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。

验证在该信道上每个字母传输的平均信息量为0.21比特。

证明:信道传输矩阵为:11112666111162661111662611116662P ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦,信源信宿概率分布为:1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,信宿收到的消息集合Y 包含12,y y 。

给定信道矩阵为:0.980.020.20.8P ⎡⎤=⎢⎥⎣⎦,求平均互信息(;)I X Y 。

解:I(X;Y)=H(X)+H(Y)-H(XY)H(X)=1 bit/符号,H(Y)=0.93 bit/符号,H(XY)=1.34 bit/符号, I(X;Y)=0.59 bit/符号。

3-4 设二元对称信道的传递矩阵为:21331233⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦, (1) 若P(0)=34,P(1)=14,求()H X ,(/)H X Y ,(/)H Y X 和(;)I X Y ; (2) 求该信道的信道容量及其达到信道容量时的输入概率分布。

解:(1)H(X)=0.811(bit/符号),H(XY)=1.73(bit/符号),H(Y)=0.98(bit/符号),H(X/Y)=0.75(bit/符号),H(Y/X)=0.92(bit/符号),I(X ;Y)=0.06(bit/符号);(2)C =0.082(bit/符号),最佳输入分布为:11{}22X P = 3-5 求下列两个信道的信道容量,并加以比较:(1) 22p p p p εεεεεε⎡⎤--⎢⎥--⎢⎥⎣⎦ (2) 2002p p p p εεεεεε⎡⎤--⎢⎥--⎢⎥⎣⎦其中1p p +=。

解:(1)1log 2(,,2)(12)log(12)2log 41()log()()log()2log 2(12)log(12)2log 412()log()()log()(12)log(12)C H p p p p p p p p p p εεεεεεεεεεεεεεεεεεεεεεεε=-------=+--+--+----=-+--+-----(2)2log 2(,,2)(12)log(12)2log 21()log()()log()2log 2(12)log(12)2log 21()log()()log()(12)log(12)C H p p p p p p p p p p εεεεεεεεεεεεεεεεεεεεεεε=-------=+--+--+----=+--+-----两者的信道容量比较:212C C ε=+3-6 求题图3-6中信道的信道容量及最佳的输入概率分布。

并求当0ε=和12时的信道容量C 。

0012121ε-X Y题图 3-6解:由图知信道转移矩阵为:1000101P εεεε⎡⎤⎢⎥=-⎢⎥⎢⎥-⎣⎦,此信道非对称信道,也非准对称信道,不能利用其公式计算。

此信道也不能采用先假设一种输入分布,利用信道容量解的充要性来计算。

但此信道矩阵是非奇异矩阵,又r =s ,则可利用方程组求解:3311(/)(/)log (/),1,2,3ji j j i j i j j P ba Pb a P b a i β====∑∑,所以123230(1)(1)log(1)log (1)(1)log(1)log βεβεβεεεεεβεβεεεε=⎧⎪-+=--+⎨⎪+-=--+⎩ 解得:10β=,23(1)log(1)log ββεεεε==--+,所以1()log 2log[12]j H jC βε-==+∑,11()22C C p b β--==,2()2()22C H C p b βε---==,3()3()22C H C p b βε---==,根据31()()(/),1,2,3j iji i P b P a P ba j ===∑,得最佳输入分布为:11()()2C p a p b -==,()2323()()()()2H C p a p a p b p b ε--====,当ε=0时,此信道为一一对应信道,1231log3,()()()3C p a p a p a ====;当ε=0.5时,12311log 2,(),()()24C p a p a p a ====。

3-7 有一个二元对称信道,其信道矩阵为0.980.020.020.98⎡⎤⎢⎥⎣⎦。

设该信道以1500个二元符号每秒的速率传输输入符号。

现有一消息序列共有14000个二元符号,并设在这个消息中,(0)(1)1/2P P ==。

问从信息传输的角度来考虑,10秒内能否将这消息序列无失真地传送完?解:信道容量:C =0.859(bit/符号),15000.8591288(/)t C bit s =⨯=,10秒内最大信息传输能力=12880 bits ,消息序列含有信息量=14000 bits ,12880<14000,所以10秒内不能将这消息序列无失真地传送完。

3-8 有一离散信道,其信道转移概率如题图3-8所示,试求: (1) 信道容量C ;(2) 若2ε=0,求信道容量。

11ε1εε--12题图 3-8解:(1)112212121(1)loglog (1)log(1)2C εεεεεεεε-=--++---- (2)若20ε=,则11C ε=- 3-9 设离散信道矩阵为:1111336611116363P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦, 求信道容量C 。

解:C =0.041(bit/符号)。

3-10 若有一离散非对称信道,其信道转移概率如题图3-10所示。

试求:111/21/21/43/4题图 3-10(1) 信道容量1C ;(2) 若将两个同样信道串接,求串接后的转移概率; (3) 求串接后信道的信道容量2C 。

答案:(1)此信道转移概率矩阵11221344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,信道容量1C =0.0487 bit/符号; (2)串接后的转移概率矩阵35885111616P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦;(3)串接后信道的信道容量2C =0.0033 bit/符号。

3-11 设有一离散级联信道如题图3-11所示。

试求:x 1x 0y 1y 0z 1z 2z 3434题图 3-11(1)X 与Y 间的信道容量1C ; (2) Y 与Z 间的信道容量2C ;(3)X 与Z 间的信道容量3C 及其输入分布()P x 。

答案:(1)11()C H ε=-(2)2C =0.75 (bit/符号) (3)X 、Z 间信道转移概率矩阵为313310(1)1444441313310(1)44444εεεεεεεε⎡⎤⎡⎤-⎢⎥⎢⎥-⎡⎤=⎢⎥⎢⎥⎢⎥-⎣⎦⎢⎥⎢⎥-⎢⎥⎢⎥⎣⎦⎣⎦它是准对称信道,当输入等概率分布时达到信道容量。

()p x ={0.5,0.5}333331.06(1)log (1)log 4444C εεεε=+--+3-12 若有两个串接的离散信道,它们的信道矩阵都是:00100011100220010P ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦, 并设第一个信道的输入符号1234{,,,}X a a a a ∈是等概率分布,求(;)I X Z 和(;)I X Y 并加以比较。

解:串接后信道矩阵为'000100010010000100010010111100010000222211000010001022P PP ⎡⎤⎡⎤⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥===⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦⎣⎦1111()[,,,]8842p Y =,(;)()(/) 1.5I X Y H Y H Y X =-= 比特/符号1111()[,,,]8824p Z =,(;)()(/) 1.5I X Z H Z H Z X =-= 比特/符号可见,(;)(;)I X Z I X Y =3-13 若X ,Y ,Z 是三个随机变量,试证明:(1)();(;)(;/)(;)(;/)I X YZ I X Y I X Z Y I X Z I X Y Z =+=+; (2)();/(;/)(/)(/)I X Y Z I Y X Z H X Z H X YZ ==-;(3)();/0I X Y Z ≥,当且仅当(X Y Z ,,)是马氏链时等式成立。

3-14 若三个离散随机变量有如下关系:X Y Z =+,其中X 和Y 相互独立,试证明: (1) (;)()()I X Z H Z H Y =-;(2) (;)()I XY Z H Z =; (3) ();()I X YZ H X =; (4) ();/()I Y Z X H Y =;(5)();/(/)(/)I X Y Z H X Z H Y Z ==。

相关文档
最新文档