《信息论编码》模拟试题二及参考答案.doc

合集下载

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:* (3)信源空间:bit x H 32.436log 3616236log 36215)(=⨯⨯+⨯⨯=∴bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==?如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解: !bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)
证:
1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字?
解:
2.21设某信道的信道矩阵为
试求:
(1)该信道的信道容量C;
(2)I(a1;Y);
(3)I(a2;Y)。
解:
2.22设某信道的信道矩阵为
试该信道的信道容量C;
解:
2.23求下列二个信道的信道容量,并加以比较(其中0<p,q<1,p+q=1)
(1)
(2)
解:
2.27设某信道的信道矩阵为
其中P1,P2,…,PN是N个离散信道的信道矩阵。令C1,C2,…,CN表示N个离散信道的容量。试证明,该信道的容量 比特/符号,且当每个信道i的利用率pi=2Ci-C(i=1,2,…,N)时达其容量C。
解:
3.7设某信源在开始时的概率分布为P{X0=0}=0.6;P{ X0=1}=0.3; P{ X0=2}=0.1。第一个单位时间的条件概率分布分别是:
P{ X1=0/ X0=0}=1/3; P{X1=1/ X0=0}=1/3; P{ X1=2/ X0=0}=1/3;
P{ X1=0/ X0=1}=1/3; P{ X1=1/ X0=1}=1/3; P{ X1=2/ X0=1}=1/3;
解:
2.3有两个二元随机变量X和Y,它们的联合概率为P[X=0,Y=0]=1/8,P[X=0,Y=1]=3/8,P[X=1,Y=1]=1/8,P[X=1,Y=0]=3/8。定义另一随机变量Z=XY,试计算:

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码考题标准答案

信息论与编码考题标准答案

信 息 论 与 编 码 考题与标准答案第一题 选择题1.信息是( b )a. 是事物运动状态或存在方式的描述b.是事物运动状态或存在方式的不确定性的描述c.消息、文字、图象d.信号 2.下列表达式哪一个是正确的(e )a. H (X /Y )=H (Y /X )b. )();(0Y H Y X I <≤c.)/()(),(X Y H X H Y X I -=d. )()/(Y H Y X H ≤e. H (XY )=H (X )+H (Y /X )3.离散信源序列长度为L ,其序列熵可以表示为( b )a. )()(1X LH X H =b.c. ∑==Ll lXH X H 1)()(d. )()(X H X H L =4.若代表信源的N 维随机变量的取值被限制在一定的范围之内,则连续信源为( c ),具有最大熵。

a. 指数分布b. 正态分布c. 均匀分布d. 泊松分布 5.对于平均互信息);(Y X I ,下列说法正确的是( b )a. 当)(i x p 一定时,是信道传递概率)(i j x y p 的上凸函数,存在极大值b. 当)(i x p 一定时,是信道传递概率)(i j x y p 的下凸函数,存在极小值c.当)(i j x y p 一定时,是先验概率)(i x p 的上凸函数,存在极小值d.当)(i j x y p 一定时,是先验概率)(i x p 的下凸函数,存在极小值 6.当信道输入呈( c )分布时,强对称离散信道能够传输最大的平均信息量,即达到信道容量 a. 均匀分布 b. 固定分布 c. 等概率分布 d. 正态分布7.当信道为高斯加性连续信道时,可以通过以下哪些方法提高抗干扰性(b d ) a. 减小带宽 b. 增大发射功率 c. 减小发射功率 d.增加带宽第二题 设信源 ⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6.04.0)(21x x X p X 通过一干扰信道,接收符号为Y={y 1,y 2},信道传递矩阵为⎥⎦⎤⎢⎣⎡43416165 求:(1) 信源 X 中事件 x 1 和 x 2 分别含有的自信息量。

信息论与编码期末复习试题2套含答案(大学期末复习资料)

信息论与编码期末复习试题2套含答案(大学期末复习资料)

莆田学院期末考试试卷(A)卷2011 — 2012 学年第一学期课程名称:信息论与编码适用年级/专业: 09/电信(通信)试卷类别开卷()闭卷(√)学历层次本科考试用时 120分钟《.考生注意:答案要全部抄到答题纸上,做在试卷上不给分.........................》.一、简答题(每小题8分,共32分)1.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

2. 香农信息论研究了哪些内容?试讲述香农第二编码定理。

3. 什么是唯一可译码?什么是即时码(前缀码)?构造唯一可译码的充要条件?(10分)4. 什么是信源编码?什么是信道编码?为何要进行这两者编码?二、证明题(每小题6分,共6分)对于任意的事件X、Y,试证明下列不等式成立:H(X|Y)<=H(X),并说明等式成立的条件。

三、计算题(第1、5题各16分,第2题12分,第3题10分,第4题8分,共62分)1.(16分)一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。

设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。

求(1)假设图上黑白消息出现前后没有关联,求熵H(X);(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。

2.(12分)一信源产生概率为P(1)=0.005, P(0)=0.995的统计独立二进制数符。

这些数符组成长度为100的数符组。

我们为每一个少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。

(1)求出为所规定的所有源符组都提供码字所需的最小码长。

(2)求信源发出一数符组,而编码器无相应码字的概率。

3.(10分)已知一个(6,3)线性分组码的全部码字为001011,110011,010110,101110,100101,111000,011101,000000。

《信息论编码》模拟试题一及参考答案

《信息论编码》模拟试题一及参考答案

模拟试题一一、概念简答题(共10题,每题5分)1.简述离散信源和连续信源的最大熵定理。

2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。

3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。

5.设某二元码字C={111000,001011,010110,101110},①假设码字等概率分布,计算此码的编码效率?②采用最小距离译码准则,当接收序列为110110时,应译成什么码字?6.7.8.求:(1(2)求9.,,10.试给出其编码原理框图。

二、综合题(共5题,每题10分)1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求:(1)求该马氏信源的符号熵。

(2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。

(3)求每符号对应的平均码长和编码效率。

2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?(2)当,时,求平均互信息信道疑义度(3)输入为等概率分布时,试写出一译码规则,使平均译码错误率最小,并求此3.(1)此((2(3(44.二元对称信道的信道矩阵为共有(1(2)若信源概率分布为,求无失真传送以上信源消息序列至少需要多长时间?5.已知(7)循环码的生成多项式,求:(1(2)求其对应的一致校验多项式(3(4)若消息码式为,求其码字。

1.最大。

2.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息为表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

3.答:等长信源编码定理:对于任意,只要,则当L足够长时必可使译码差错。

变长信源编码定理:只要,一定存在一种无失真编码。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

《信息论编码》模拟试题二及参考答案

《信息论编码》模拟试题二及参考答案

《信息论编码》模拟试题二及参考答案模拟试题一一、概念简答题(共10题,每题5分)1.简述离散信源和连续信源的最大熵定理。

答:离散无记忆信源,等概率分布时熵最大。

连续信源,峰值功率受限时,均匀分布的熵最大。

平均功率受限时,高斯分布的熵最大。

均值受限时,指数分布的熵最大。

2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。

3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?.答:等长信源编码定理:对于任意,只要,则当L足够长时必可使译码差错。

变长信源编码定理:只要,一定存在一种无失真编码。

等长码和变长码的最小平均码长均为,编码效率最高可达100%。

4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。

答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。

最大似然译码准则下,将接收序列译为信道传递概率最大时所对应的码字。

最小距离译码准则下,将接收序列译为与其距离最小的码字。

三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。

在二元对称无记忆信道中,最小距离译码准则等效于最大似然译码准则。

5.设某二元码字C={111000,001011,010110,101110},①假设码字等概率分布,计算此码的编码效率?②采用最小距离译码准则,当接收序列为110110时,应译成什么码字?.答:1)2)令接收序列为,则有,,,,故接收序列应译为010110。

6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按发出符号,求和平均符号熵答:7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

答:平均互信息相对于信源概率分布为上凸函数,相对于信道传递概率分布为下凹函数。

平均互信息的最大值为信道容量。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。

信息论与编码试题集与答案(新)Word版

信息论与编码试题集与答案(新)Word版

信息论与编码试题集与答案(新)Word版一填空题(本题20分,每小题2分)1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

3、最大熵值为。

4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。

6、只要,当N足够长时,一定存在一种无失真编码。

7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成客观信息和主观信息。

人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

信息的可度量性是建立信息论的基础。

统计度量是信息度量最常用的方法。

熵是香农信息论最基本最重要的概念。

事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是∞ 。

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍。

信息论及编码理论练习习题答案.docx

信息论及编码理论练习习题答案.docx

第二章信息量和熵八元编码系统,码长为3,第一个符号用于同步,每秒 1000 个码字,求它的信息速率。

解:同步信息均相同,不含信息,因此每个码字的信息量为2log 8 =2 3=6 bit因此,信息速率为 6 1000=6000 bit/s掷一对无偏骰子,告诉你得到的总的点数为: (a) 7; (b) 12。

问各得到多少信息量。

解: (1)可能的组合为 {1 ,6},{2 , 5},{3 ,4},{4, 3},{5,2},{6 ,1} p(a) = 6 = 13661=log 6 = bit得到的信息量 = logp(a)(2)可能的唯一,为 {6 ,6}p(b) =1361=log 36 = bit得到的信息量 = logp(b)经过充分洗牌后的一副扑克(52 张),问:(a)任何一种特定的排列所给出的信息量是多少?(b)若从中抽取 13 张牌,所给出的点数都不相同时得到多少信息量?解: (a) p(a) =152!1=log 52! = bit信息量 = logp(a)13!13种点数任意排列(b)413花色任选p(b) =13!41341313=13 A52C52信息量 = log C5213log 413= bit随机 3 骰子, X 表示第一骰子的果,Y 表示第一和第二骰子的点数之和, Z 表示 3 骰子的点数之和,求H ( Z | Y)、H ( X | Y )、H (Z | X ,Y)、H ( X , Z | Y) 、H (Z | X)。

解:令第一第二第三骰子的果分x1 , x2 , x3, x1, x2, x3相互独立,X x1, Y x1x2, Z x1x2x3H ( Z | Y) =H(x3 ) = log6= bitH ( Z | X )= H ( x2x3) = H (Y)=2(1log 36+2log 18+3log 12+4log 9+5log36)+6log 63636363636536 = bitH ( X | Y) = H ( X ) - I ( X ;Y ) = H ( X ) -[ H (Y) - H (Y | X ) ]而H (Y | X ) = H ( X ) ,所以 H ( X |Y ) = 2 H ( X ) - H (Y) = bit或H ( X | Y) = H ( XY ) - H (Y ) = H ( X ) + H (Y | X ) - H (Y)而 H (Y | X ) = H ( X ),所以H ( X | Y )=2H (X )-H (Y)= bitH (Z | X ,Y) = H (Z |Y ) = H ( X ) = bitH ( X , Z |Y) = H ( X |Y ) + H (Z | XY ) =+= bit一个系送10 个数字, 0,1,⋯,9。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码试卷及答案2

信息论与编码试卷及答案2

信息论与编码试卷及答案2篇一:信息论与编码试卷及答案一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?2.简述最大离散熵定理。

对于一个有m个符号的离散信源,其最大熵是多少?3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

5.写出香农公式,并说明其物理意义。

当信道带宽为5000Hz,信噪比为30dB时求信道容量。

6.解释无失真变长信源编码定理。

7.解释有噪信道编码定理。

8.什么是保真度准则?对二元信源时率失真函数的和?,其失真矩阵,求a>0二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为,白色出现的概率为。

给出这个只有两个符号的信源X的数学模型。

假设图上黑白消息出现前后没有关联,求熵;2)假设黑白消息出现前后有关联,其依赖关系为:,,求其熵;,,2.二元对称信道如图。

;1)若,,求和;2)求该信道的信道容量和最佳输入分布。

3.信源空间为曼码,计算其平均码长和编码效率。

,试分别构造二元和三元霍夫4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。

5.已知一(8,5)线性分组码的生成矩阵为。

求:1)输入为全00011和10100时该码的码字;2)最小码距。

6.设某一信号的信息传输率为/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。

试求:(1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。

一、概念简答题(每题5分,共40分)1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

信息论与编码试卷及答案2.doc

信息论与编码试卷及答案2.doc

(119填空题(1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是_0 ________ o(3)离散平稳无记忆信源X的N次扩展信源的爛等于离散信源X的嫡的N倍。

(4)对于离散无记忆信源,当信源炳冇最大值时,满足条件为一信源符号等概分布(5)若一离散无记忆信源的信源癇H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3 _____ o(6)対于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是_______________ o (7)已知某线性分组码的最小汉明距离为3,那么这组码戢多能检测出 ____________ 个码元错误,最多能纠正_ 个码元错误。

(8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R —小丁〔 C (大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(9)平均错课概率不仅与信道本身的统计特性有关,还与____________ 和—编码方法有关二、(99判断题(1)信息就是一•种消息。

(x )(2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的冇效性和可靠性。

(7 )(3)概率大的事件自信息量大。

(x )(4)互信息量可正、可负亦可为零。

(7 )(5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。

(x )(6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。

(V )(7)非奇界码一定是唯一可译码,唯一可译码不一定是非奇界码。

(x )(8)信源变长编码的核心问题是寻找紧致码(或最住码),崔夫曼编码方法构造的是最佳码。

(7 )(9)信息率失真函数R(D)是关于平均失真度D的上凸函数. (x )三、(5‘)居住在某地区的女孩中有25%是大学生,在女人学生中有75%是身高1.6米以上的, 而女孩屮身高1.6米以上的占总数的一半。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模拟试题一
一、概念简答题(共10题,每题5分)
1.简述离散信源和连续信源的最大熵定理。

答:离散无记忆信源,等概率分布时熵最大。

连续信源,峰值功率受限时,均匀分布的熵最大。

平均功率受限时,高斯分布的熵最大。

均值受限时,指数分布的熵最大。

2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。

3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?
.答:等长信源编码定理:对于任意,只要,则当L足够长时必可使译码差错。

变长信源编码定理:只要,一定存在一种无失真编码。

等长码和变长码的最小平均码长均为,编码效率最高可达100%。

4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。

答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。

最大似然译码准则下,将接收序列译为信道传递概率最大时所对应的码字。

最小距离译码准则下,将接收序列译为与其距离最小的码字。

三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。

在二元对称无记忆信道中,最小距离译码准则等效于最大似然译码准则。

5.设某二元码字C={111000,001011,010110,101110},
①假设码字等概率分布,计算此码的编码效率?
②采用最小距离译码准则,当接收序列为110110时,应译成什么码字?
.答:1)
2)令接收序列为,则有,,,
,故接收序列应译为010110。

6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按发出符
号,求和平均符号熵
答:
7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

答:平均互信息相对于信源概率分布为上凸函数,相对于信道传递概率分布为下凹函数。

平均互信息的最大值为信道容量。

8.二元无记忆信源,有求:
(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?
(2)求100个符号构成的信源序列的熵。

答:1)
2)
9.求以下三个信道的信道容量:
,,
答:P1为一一对应确定信道,因此有。

P2为具有归并性能的信道,因此有。

P3为具有发散性能的信道,因此有。

10.已知一(3,1,3)卷积码编码器,输入输出关系为:
试给出其编码原理框图。

答:
二、综合题(共5题,每题10分)
1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求:
(1)求该马氏信源的符号熵。

(2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。

(3)求每符号对应的平均码长和编码效率。

答:1)由得极限概率:
则符号熵为
2)新信源共8个序列,各序列的概率为
信源模型为
一种编码结果(依信源模型中的序列次序)为0,11,1001,1010,1011,10000,100010,100011 3)
2.设有一离散信道,其信道矩阵为,求:
(1)最佳概率分布?
(2)当,时,求平均互信息信道疑义度
(3)输入为等概率分布时,试写出一译码规则,使平均译码错误率最小,并求此
.答:1)是准对称信道,因此其最佳输入概率分布为。

2)当,时,有

3)此时可用最大似然译码准则,译码规则为
且有
3.设线性分组码的生成矩阵为,求:
(1)此(n,k)码的n=? k=?,写出此(n,k)码的所有码字。

(2)求其对应的一致校验矩阵H。

(3)确定最小码距,问此码能纠几位错?列出其能纠错的所有错误图样和对应的伴随式。

(4)若接收码字为000110,用伴随式法求译码结果。

答:1)n=6,k=3,由C=mG可得所有码字为:
000000,001011,010110,011101,100101,101110,110011,111000
2)此码是系统码,由G知,,则
3)由H可知,其任意2列线性无关,而有3列线性相关,故有,能纠一位错。

错误图样E 伴随式
100000 101
010000 110
001000 011
000100 100
000010 010
000001 001
4)由知E=010000,则
4.二元对称信道的信道矩阵为,信道传输速度为1500二元符号/秒,设信源为等概率分布,信源消息序列共有13000个二元符号,问:
(1)试计算能否在10秒内将信源消息序列无失真传送完?
(2)若信源概率分布为,求无失真传送以上信源消息序列至少需要多长时间?
.答:1)信道容量为
信源序列信息量为
而10秒内信道能传递的信息量为
故不能无失真地传送完。

2)此时信源序列信息量为
信息传输率为

5.已知(7,4)循环码的生成多项式,求:(1)求该码的编码效率?
(2)求其对应的一致校验多项式
(3)写出该码的生成矩阵,校验矩阵。

(4)若消息码式为,求其码字。

答:1)
2)
3),而
4)。

相关文档
最新文档