天津大学信息论与编码2010试卷

合集下载

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:* (3)信源空间:bit x H 32.436log 3616236log 36215)(=⨯⨯+⨯⨯=∴bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==?如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解: !bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln(2 ⅇ 2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

信息论与编码试题集与答案考试必看(Word最新版)

信息论与编码试题集与答案考试必看(Word最新版)

信息论与编码试题集与答案考试必看通过整理的信息论与编码试题集与答案考试必看相关文档,渴望对大家有所扶植,感谢观看!信息论与编码试题集与答案考试必看在无失真的信源中,信源输出由H(X)来度量;在有失真的信源中,信源输出由R(D)来度量。

1. 要使通信系统做到传输信息有效、牢靠和保密,必需首先信源编码,然后_____加密____编码,再______信道_____编码,最终送入信道。

2. 带限AWGN波形信道在平均功率受限条件下信道容量的基本公式,也就是出名的香农公式是;当归一化信道容量C/W趋近于零时,也即信道完全丢失了通信实力,此时Eb/N0为-1.6 dB,我们将它称作香农限,是一切编码方式所能达到的理论极限。

3. 保密系统的密钥量越小,密钥熵H(K)就越小,其密文中含有的关于明文的信息量I(M;C)就越大。

4. 已知n=7的循环码,则信息位长度k为3 ,校验多项式h(x)= 。

5. 设输入符号表为X={0,1},输出符号表为Y={0,1}。

输入信号的概率分布为p=(1/2,1/2),失真函数为d(0,0) = d(1,1) = 0,d(0,1) =2,d(1,0) = 1,则Dmin=0 ,R(Dmin)=1bit/symbol ,相应的编码器转移概率矩阵[p(y/x)]=;Dmax=0.5 ,R(Dmax)=0 ,相应的编码器转移概率矩阵[p(y/x)]=。

6. 已知用户A的RSA公开密钥(e,n)=(3,55),,则40,他的隐私密钥(d,n)=(27,55) 。

若用户B向用户A发送m=2的加密消息,则该加密后的消息为8 。

二、推断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。

(Ö )2. 线性码确定包含全零码。

(Ö )3. 算术编码是一种无失真的分组信源编码,其基本思想是将确定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。

(×)4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

信息论与编码试题集与答案(新)

信息论与编码试题集与答案(新)

信息论与编码试题集与答案(新)1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。

2. 要使通信系统做到传输信息有效、可靠和保密,必须首先信源编码,然后_____加密____编码,再______信道_____编码,最后送入信道。

3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为-1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。

4. 保密系统的密钥量越小,密钥熵H (K )就越小,其密文中含有的关于明文的信息量I (M ;C )就越大。

5. 已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。

6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。

输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )=1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001??;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010??。

7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。

若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。

二、判断题1. 可以用克劳夫特不等式作为唯一可译码存在的判据。

(√ )2. 线性码一定包含全零码。

(√ )3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。

信息论与编码期末试卷

信息论与编码期末试卷
6:若某信道的信道矩阵为 ,则该信道为具有____归并____性能的信道
7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________
8:若某二元序列是一阶马尔科夫链,P(0/0)=,P(1/1)=,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________.
9:若循环码的生成多项式为 ,则接收向量为(1111011)的伴随多项式为_______________
10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码.
11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集.
12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位.
13:(7,4)汉明码的一致校验矩阵为 ,则 为__________.
二;计算分析题(共60分)
1:(本题满分18分)某离散无记忆信道的信源分布为p(0)=,p(1)=,传送时0错成1的概率为, 0错成2的概率为, 1错成0的概率为, 1错成2的概率为, 其余则正确传送。
信息论与编码期末试卷(共3页)
课程名:信息论与编码课程号:07276033学分:4
一:填空题(每空2分,共40分)
1:掷一个正常的骰子,出现‘5’这一事件的自信息量为________,同时掷两个正常的骰子,‘点数之和为5’这一事件的自信息量为___________.(注明物理单位)
2:某信源包含16个不同的离散消息,则信源熵的最大值为___________,最小值为_____________.

信息论与编码试卷及答案

信息论与编码试卷及答案

信息论与编码试卷及答案一、(11’)填空题(1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是0 。

(3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X 的熵的N倍。

(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。

(5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3 。

(6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。

(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。

(8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关二、(9')判断题(1)信息就是一种消息。

(?)(2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(√)(3)概率大的事件自信息量大。

(?)(4)互信息量可正、可负亦可为零。

(√)(5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。

(?)(6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。

(√ )(7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。

( ? )(8)信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。

(√ )(9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ? )三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间:bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量;(3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码试卷与答案

信息论与编码试卷与答案

N
Ck
37、对于 N 个对立并联信道,其信道容量 CN = k 1

38、多用户信道的信道容量用 多维空间的一个区域的界限 来表示。
39、多用户信道可以分成几种最基本的类型: 多址接入信道、广播信道 和相关信源信道。
40、广播信道是只有 一个输入端和多个输出端 的信道。
41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。
最大熵值为

3.答:信息传输率 R 指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息 传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的 U 型凸函数。
4.答:通信系统模型如下:
数据处理定理为:串联信道的输入输出 X、Y、Z 组成一个马尔可夫链,且有
42、高斯加性信道的信道容量
C=
1 2
log2 (1
PX PN
)

43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。
1/ 2 1/ 2 0
44、信道矩阵
0
0 1 代表的信道的信道容量 C= 1 。
1 0 1 0 45、信道矩阵 0 1 代表的信道的信道容量 C= 1 。

。说明经数据处理后,一般只会增加信息的损失。
5.答:香农公式为 信道容量,其值取决于信噪比和带宽。


,则
,它是高斯加性白噪声信道在单位时间内的
6.答:只要
,当 N 足够长时,一定存在一种无失真编码。
7.答:当 R<C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.答:1)保真度准则为:平均失真度不大于允许的失真度。

信息论与编码期末考试题(全套)

信息论与编码期末考试题(全套)

信息论与编码期末考试题(全套)(一)一、判断题共 10 小题,满分 20 分.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(XH . ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信.()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性.()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码.()9. 率失真函数的最小值是0.()10.必然事件和不可能事件的自信息量都是0. ()二、填空题共 6 小题,满分 20 分.1、码的检、纠错能力取决于 .2、信源编码的目的是;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、.5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X =???,其失真矩阵00a D a ??=,则该信源的max D = . 三、本题共 4 小题,满分 50 分.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??=. (1)计算接收端的平均不确定度()H Y ;(2)计算由于噪声产生的不确定度(|)H Y X ;(3)计算信道容量以及最佳入口分布.2、一阶马尔可夫信源的状态转移图如右图所示,信源X 的符号集为}2,1,0{.图2-13(1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵)(X H 并与H ∞进行比较. 4、设二元)4,7(线性分组码的生成矩阵为=1000101010011100101100001011G . (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码.(二)一、填空题(共15分,每空1分)1、信源编码的主要目的是,信道编码的主要目的是。

信息理论与编码-期末试卷A及答案

信息理论与编码-期末试卷A及答案

一、填空题(每空1分,共35分) 1、1948年,美国数学家 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

信息论的基础理论是 ,它属于狭义信息论。

2、信号是 的载体,消息是 的载体。

3、某信源有五种符号}{,,,,a b c d e ,先验概率分别为5.0=a P ,25.0=b P ,125.0=c P ,0625.0==e d P P ,则符号“a ”的自信息量为 bit ,此信源的熵为 bit/符号。

4、某离散无记忆信源X ,其概率空间和重量空间分别为1234 0.50.250.1250.125X x x x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦和12340.5122X x x x x w ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,则其信源熵和加权熵分别为 和 。

5、信源的剩余度主要来自两个方面,一是 ,二是 。

6、平均互信息量与信息熵、联合熵的关系是 。

7、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 信道。

8、马尔可夫信源需要满足两个条件:一、 ; 二、 。

9、若某信道矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡010001000001100,则该信道的信道容量C=__________。

10、根据是否允许失真,信源编码可分为 和 。

11、信源编码的概率匹配原则是:概率大的信源符号用 ,概率小的信源符号用 。

(填短码或长码)12、在现代通信系统中,信源编码主要用于解决信息传输中的 性,信道编码主要用于解决信息传输中的 性,保密密编码主要用于解决信息传输中的安全性。

13、差错控制的基本方式大致可以分为 、 和混合纠错。

14、某线性分组码的最小汉明距dmin=4,则该码最多能检测出 个随机错,最多能纠正 个随机错。

15、码字101111101、011111101、100111001之间的最小汉明距离为 。

16、对于密码系统安全性的评价,通常分为 和 两种标准。

17、单密钥体制是指 。

天津大学信息论与编码2010试卷

天津大学信息论与编码2010试卷

天津大学信息论与编码2010试卷
三、独立同分布二元信源X 的概率空间为
4/14/321
x x ,
(1) 对该信源发出的符号序列121x x x 在)1,0[上进行算术编码;
(2) 算术译码器接收到若干比特在)1,0[上相当于数0.875,请进行算术译码(设信源发出的符号序列长度为3);(10分)
四、X 为独立同分布二元信源,其概率空间为
4/14/321
x x ,对该信源进行二次扩展,
求扩展信源的Huffman 编码,并计算期望码长。

(10分)
七、二元删除信道的转移概率矩阵为?
--αααα1001,(1) 画出其信道线图;(2) 计算其信道容量,及达到信道容量时的输入概率分布。

(10分)
八、已知AWGN 信道,信号的带宽范围为300~3400Hz ,信号与噪声功率比为26dB , (1) 计算该信道的最大信息传输速率;
(2) 若信号与噪声功率比降到10dB ,且保持信道最大信息传输速率不变,则信道带
宽应该变为多少?(10分)。

信息论编码模拟试题一及参考答案

信息论编码模拟试题一及参考答案

模拟试题一一、概念简答题(共10题,每题5分)1.简述离散信源和连续信源的最大熵定理。

2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。

3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。

5.设某二元码字C={111000,001011,010110,101110},①假设码字等概率分布,计算此码的编码效率?②采用最小距离译码准则,当接收序列为110110时,应译成什么码字?6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按发出符号,求和平均符号熵7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。

9.求以下三个信道的信道容量:,,10.已知一(3,1,3)卷积码编码器,输入输出关系为:试给出其编码原理框图。

二、综合题(共5题,每题10分)1.二元平稳马氏链,已知P(0/0)=,P(1/1)=,求:(1)求该马氏信源的符号熵。

(2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。

(3)求每符号对应的平均码长和编码效率。

2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?(2)当,时,求平均互信息信道疑义度(3)输入为等概率分布时,试写出一译码规则,使平均译码错误率最小,并求此3.设线性分组码的生成矩阵为,求:(1)此(n,k)码的n=? k=?,写出此(n,k)码的所有码字。

(2)求其对应的一致校验矩阵H。

(3)确定最小码距,问此码能纠几位错?列出其能纠错的所有错误图样和对应的伴随式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
学院
专业
天津大学试卷专用纸

年级
学号
姓名
共4页 第1页
2010~2011 学年第二学期期末考试试卷 《信息论与编码》(A 卷 共 4 页)
容量为
;当信道的输入为无记忆信源时,该信道的二次扩展信道 。
题号 一 得分
(考试时间:2011 年 6 月 21 日)
6. 某信源 X 经信号处理后得到Y ,Y 经信道一传输后得到 Z , Z 经信道二传输后得到
分布具有最大熵。
9. R(D) 是满足平均失真 D 条件时平均传送每信源符号所需最小的比特数。( )
5.
某无记忆二元对称离散信道转移概率矩阵为
1

1


,则其信道容量为
10. 当平均失真大于其上限 Dmax 时,率失真函数 R(D) 0 。(

天津大学试卷专用纸
学院

始状态
X1 服从均匀分布,即
p(0)

p(1)

1 2
,则该信源的熵率 lim 1 n n
H ( X1, X 2 ,, X n )
6. 离散无记忆对称信道达到其信道容量时,输入与输出均为等概率分布。( ) 7. 如果信源的熵速率 H 大于信道容量 C ,那么任意信源编码和信道编码都不能使传输
分熵/差熵) h( X ) 。(8 分)
附可能用到的积分公式:1).


f ( x )dx 2 f (x)dx ; 2).
ueudu ueu eu C .


1/ 4 1/ 8 1/ 8 1/ 2
六 、 一 信 道 的 转 移 概 率 矩 阵 为 1/ 4 1/ 2 1/ 4 1/ 4 1/ 4 1/ 2
天津大学试卷专用纸
学院
专业

年级
学号
姓名
共4页 第4页
七、二元删除信道的转移概率矩阵为
0
1 1
0

,(1)
画出其信道线图;(2)
计算其
信道容量,及达到信道容量时的输入概率分布。(10 分)
八、已知 AWGN 信道,信号的带宽范围为 300~3400Hz,信号与噪声功率比为 26dB, (1) 计算该信道的最大信息传输速率; (2) 若信号与噪声功率比降到 10dB,且保持信道最大信息传输速率不变,则信道带
专业

年级
学号
姓名
共 4页 第 2 页
三、独立同分布二元信源
X
的概率空间为

x1 3/4
x2 1/ 4


(1) 对该信源发出的符号序列 x1x2 x1 在 [0,1) 上进行算术编码;
四、
X
为独立同分布二元信源,其概率空间为

x1 3/4
x2 1/ 4

,对该信源进行二次扩展,
二 三 四 五 六 七 八 成绩 核分人签字
W ,则比较平均互信息的相对大小关系有: I ( X ; Z )
I (Y ; Z ) ;比较信道一
与信道二的级联信道的容量 C12 与信道一的容量 C1 ,有 C12
C1 。
一、填空题(共 30 分,每空 2 分)
1. X 与 Y 均为离散无记忆随机变量,则比较以下条件熵、熵和平均互信息的大小:
宽应该变为多少?(10 分)
H (Y | X )
H (Y ) ; I ( X ;Y )
H (Y ) 。
7.
二元等概率平稳无记忆信源,失真函数定义为
dij

0
i i
j j
(i, j 0,1) , 则
Dmin
; Dmax

2. 独立同分布离散信源 X 的概率空间为 1x/12
x2 1/ 4
x3 1/8
1 n
H
(
X
1
,
X
2
,,
X
n)ຫໍສະໝຸດ 为。3. 平稳的Markov信源具有稳态分布。( )
1
4. 离散无记忆信源的N次扩展源的熵是原信源熵的N倍。( )
3. X 为状态空间{0,1}上的平稳一阶 Markov 信源,其转移概率矩阵为 1 ,初 5. Lempel-Ziv码是基于信源的概率统计规律的一种编码方法。(


差错任意小。( )
4.
独立同分布离散信源 X
的概率空间为

1
x1 / p1
x2 1/ p2

1
xn / pn

,则该信源取得最大信
8. 香农的AWGN信道容量公式是在信道输入的平均功率和幅度受限条件下推导出来的。
()
息熵的条件是
。对于连续信源,当幅度受限时,

布具有最大熵;当功率受限时,
x4 1/8

,则其
Shannon-Fano
编码
二、判断题(共 10 分) 1. 连续信源和离散信源的平均互信息都具有非负性 。(

的期望(平均)码长为
;该 信 源 的单 义可 译码 的 期 望 码 长的 下界 2. 相对熵为零的连续信源的输出平均不确定性为零。( )

;该信源的熵速率
lim
n
0 0

,信道的输入
A
的概率分布为
1/ 4 1/ 4 1/ 4 1/ 4
1 1 1 1 ,如果输出记为 B ,计算: (1) 输出熵 H (B) ; (2) 条件熵 H (B | A) ; 2 4 8 8
(3) 平均互信息 I ( A; B) ; (4) 联合熵 H ( AB) 。(12 分)
求扩展信源的 Huffman 编码,并计算期望码长。(10 分)
(2) 算术译码器接收到若干比特在[0,1) 上相当于数 0.875,请进行算术译码(设信源
发出的符号序列长度为 3);(10 分)
天津大学试卷专用纸
学院
专业

年级
学号
姓名
共4页 第3页
五、连续信源 X 服从概率密度函数为 p(x) 1 e x 的 Laplace 分布,计算其相对熵(微 2
相关文档
最新文档