信息论考试题
信息论考试题及答案
1.有二元对称信道编码:1)已知信源X,41,4310==p p ,求H(X),H(X|Y),I(X,Y)。
2)求信道容量C 。
解:由题意可知,(X,Y )服从如下的联合分布Y,X0101/21/1211/41/6X 的边际分布是(3/4,1/4),Y 的边际分布是(7/12,5/12))(811.03log 432)41log 4143log 43(log )(210bit p p X H i i i =-=+-=-=∑=)bit (749.07log 1275log 1253log 433252,53(125)71,76(127)|()()|(22210=++--=+====∑=H H i Y X H i Y p Y X H i )bit (062.07log 1275log 12538)|()(),(22=--=-=Y X H X H Y X I )(082.03log 35)31(1)(12bit H p H C =-=-=-=2.最小熵。
求出)(),...,,(21p H p p p H n =最小值是多少,因为p 的范围是在n 维概率向量集合上的最小值是多少?找到所有达到这个最小值时的p。
解:我们希望找到所有的概率向量),...,,(21n p p p p =,让∑-=i ii p p p H log )(达到最小,现在有时等式成立或当且仅当10,0log =≥-i i i p p p ,因此,唯一可能使得H(p)最小化的概率向量是对于某些i 和j 满足.,0,1i j p p j i ≠==这里有n 个这样的向量,比如)1,...,0,0(),0,...,1,0(),0,...,0,1(,此时H(p)的最小值为0。
3.赫夫曼码。
考虑随机变量⎪⎪⎭⎫ ⎝⎛=02.003.004.004.012.026.049.07654321x x x x x x x X (a)求X 的二元赫夫曼码。
信息论基础理论与应用考试题及答案
信息论基础理论与应用考试题一﹑填空题(每题2分,共20分)1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑XX 性和认证性,使信息传输系统达到最优化。
(考点:信息论的研究目的)2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成531010⨯个不同的画面。
按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。
(考点:信息量的概念与计算)3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。
(考点:信道按噪声统计特性的分类)4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。
若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。
(考点:等长码编码位数的计算)5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。
(考点:错误概率和译码准则的概念)6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。
(考点:纠错码的分类)7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。
(考点:线性分组码的基本概念)8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =⎡⎤==-⎢⎥⎣⎦∑)。
(考点:平均信息量的定义)9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e(e≥t)个随机错误,则要求(d≥t+e+1)。
(考点:线性分组码的纠检错能力概念)10.和离散信道一样,对于固定的连续信道和波形信道都有一个最大的信息传输速率,称之为(信道容量)。
信息理论与编码-期末试卷A及答案
信息理论与编码-期末试卷A及答案⼀、填空题(每空1分,共35分)1、1948年,美国数学家发表了题为“通信的数学理论”的长篇论⽂,从⽽创⽴了信息论。
信息论的基础理论是,它属于狭义信息论。
2、信号是的载体,消息是的载体。
3、某信源有五种符号}{,,,,a b c d e ,先验概率分别为5.0=a P ,25.0=b P ,125.0=c P ,0625.0==e d P P ,则符号“a ”的⾃信息量为 bit ,此信源的熵为 bit/符号。
4、某离散⽆记忆信源X ,其概率空间和重量空间分别为1234 0.50.250.1250.125X x x x x P =???和12340.5122X x x x x w=,则其信源熵和加权熵分别为和。
5、信源的剩余度主要来⾃两个⽅⾯,⼀是,⼆是。
6、平均互信息量与信息熵、联合熵的关系是。
7、信道的输出仅与信道当前输⼊有关,⽽与过去输⼊⽆关的信道称为信道。
8、马尔可夫信源需要满⾜两个条件:⼀、;⼆、。
9、若某信道矩阵为010001000001100,则该信道的信道容量C=__________。
10、根据是否允许失真,信源编码可分为和。
11、信源编码的概率匹配原则是:概率⼤的信源符号⽤,概率⼩的信源符号⽤。
(填短码或长码)12、在现代通信系统中,信源编码主要⽤于解决信息传输中的性,信道编码主要⽤于解决信息传输中的性,保密密编码主要⽤于解决信息传输中的安全性。
13、差错控制的基本⽅式⼤致可以分为、和混合纠错。
14、某线性分组码的最⼩汉明距dmin=4,则该码最多能检测出个随机错,最多能纠正个随机错。
15、码字1、0、1之间的最⼩汉明距离为。
16、对于密码系统安全性的评价,通常分为和两种标准。
17、单密钥体制是指。
18、现代数据加密体制主要分为和两种体制。
19、评价密码体制安全性有不同的途径,包括⽆条件安全性、和。
20、时间戳根据产⽣⽅式的不同分为两类:即和。
信息论基础考试试题
信息论基础考试试题一、信息论基础考试试题考试试题内容如下:1. 简述信息论的定义和基本原理。
信息论是由克劳德·香农提出的一门数学理论,主要研究信息的量和信息传输的可靠性。
其基本原理包括信源编码、信道编码和信道容量三个方面。
其中,信源编码是将信息源的符号序列编码为短码字节,减少信息传输的冗余;信道编码是为了在承载信息传输的信道中降低传输过程中的错误率和噪声干扰;信道容量则是指在给定的信道条件下,能够传输的最大信息速率。
2. 请定义信息熵,并给出其计算公式。
信息熵是用来衡量一个随机变量的不确定性或者信息量的多少。
假设一个离散随机变量X,其取值的概率分布为P(X),那么信息熵的计算公式为:H(X) = -Σ[P(x)log2P(x)]其中,Σ表示求和运算,x为随机变量X的所有取值。
3. 解释条件熵和联合熵的概念。
条件熵是指在给定某个随机变量的取值条件下,另一个随机变量的不确定性或信息量。
设有两个离散随机变量X和Y,X的条件熵H(X|Y)即为在已知Y的条件下,X的信息熵。
联合熵是指同时考虑两个或多个随机变量的不确定性或信息量。
对于随机变量X和Y,它们的联合熵H(X,Y)表示同时考虑X和Y的信息熵。
4. 请解释互信息的概念,并给出其计算公式。
互信息是用来衡量两个随机变量之间的相关程度或者依赖关系。
对于离散随机变量X和Y,互信息的计算公式为:I(X;Y) = ΣΣ[P(x,y)log2(P(x,y)/(P(x)P(y)))]其中,ΣΣ表示双重求和运算,P(x,y)表示X和Y同时发生的概率,P(x)和P(y)分别为X和Y的边缘概率。
5. 请简要介绍信道编码理论中的三个重要概念:纠错码、检测码和调制。
纠错码是一种用于在传输过程中恢复误差的编码技术。
通过添加冗余信息,可以在接收端检测和纠正传输过程中产生的错误。
检测码是用于在传输过程中检测错误的编码技术。
它可以发现传输中是否存在错误,但无法纠正错误。
调制是指将数字信号转换为模拟信号或者模拟信号转换为数字信号的过程。
信息论 智力题目
信息论智力题目
这是一道关于信息论的智力题目:
在某个地区,有三种体型的人群:胖子、不胖不瘦的人和瘦子。
他们得高血压的概率也不同。
现在的问题是,如果我们知道某人是高血压患者,那么这句话包含了多少关于这个人身体状况的信息?
假设胖子得高血压的概率为15%,不胖不瘦者得高血压的概率为10%,瘦
子得高血压的概率为5%。
胖子占该地区的10%,不胖不瘦者占80%,瘦
子占10%。
我们需要计算这句话“该地区的某一位高血压者是胖子”包含了多少信息量。
根据信息论,信息量是衡量不确定性的减少程度。
如果某事件的发生概率很高,那么该事件的信息量就较小;如果某事件的发生概率很低,那么该事件的信息量就较大。
首先,我们要计算在不知道某人是胖子的情况下,他是高血压患者的信息量。
这等于总的得高血压的概率(也就是胖子、不胖不瘦者和瘦子的得高血压概率之和)。
然后,我们要计算在知道某人是胖子的情况下,他是高血压患者的信息量。
这等于胖子得高血压的概率。
最后,通过这两个信息量的差值,我们可以得到“该地区的某一位高血压者是胖子”这句话的信息量。
这个差值就是我们要找的答案。
信息论考试题(填空简答)
一.填空题(每空1分,共20分)1.香农信息论的三个基本概念分别为_______________ 、_____________ 、 ____________ 。
2•对离散无记忆信源来说,当信源呈_______________ 分布情况下,信源熵取最大值。
3•写出平均互信息的三种表达公式________________ 、_____________ 、 ____________ 。
4.若连续信源输出的平均功率和均值被限定,则其输出信号幅度的概率密度函数为______________ 时,信源具有最大熵值;若连续信源输出非负信号的均值受限,则其输出信号幅度呈____________ 分布时,信源具有最大熵值。
5. ________________________________ 信道容量是为了解决通信的_________________________ 问题,而信息率失真函数是为了解决通信的___________ 问题。
6. ______________________________________________________ 费诺编码比较适合于的信源。
7•无记忆编码信道的每一个二元符号输出可以用多个比特表示,理想情况下为实数,此时的无记忆二进制信道又称为__________________________ 。
&差错控制的4种基本方式是:_________________ 、_____________ 、 ____________ 、______________ 。
9 . (n,k)线性码能纠t个错误,并能发现I个错误(l>t),码的最小距离为:10.循环码码矢的i次循环移位等效于将码多项式乘___________________ 后再模______________ 。
二.简答题(每小题5分,共30分)1 •分别说明平均符号熵与极限熵的物理含义并写出它们的数学表达式。
2•写出二进制均匀信道的数学表达式,并画出信道容量C与信道转移概率 p的曲线图。
信息论考试简答题
简答题:1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么?答:3类,分别是:信源编码,信道编码,和加密编码。
2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y、Z 组成一个马尔可夫链,且有,。
说明经数据处理后,一般只会增加信息的损失。
3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为:表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息:表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
4.简述最大离散熵定理。
对于一个有m个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
最大熵值为。
5.熵的性质什么?答:非负性,对称性,确定性,香农辅助定理,最大熵定理。
6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。
7.信道疑义度的概念和物理含义?答:概念:)|(log )()|(j i j i j i b a p b a p Y X H ∑∑-=物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。
8.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。
答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。
由得,则9.解释无失真变长信源编码定理? 答:只要,当N 足够长时,一定存在一种无失真编码。
《信息论》期末考试试题( 卷)标准答案
。
4) R(D)是满足 D 准则下平均传送每信源符号的所需的最少比特数,它是定义域 上的严格递减函数。
5) AWGN 信道下实现可靠通信的信噪比下界为-1.59dB,此时对应的频谱利用率 为 0。
6)若某离散无记忆信源有 N 个符号,并且每个符号等概出现,对这个信源进行 二元 Huffman 编码,当 N = 2i (i 是正整数)时,每个码字的长度是 i ,平 均码长是 i 。
2 1) 求此马氏源的平稳分布;(4 分) 2) 求此马氏源的熵;(3 分) 3)求平稳马氏源的二次扩展源的所有符号概率;(3 分) 4)对此二次扩展源进行二元 Huffman 编码并求编码后平均码长和编码效率。 (3+2 分)
解:
1) 此马氏源的平稳分布: (π1
π2
π3
) =(1 3
1 3
1 3
)
3 × 1 × (− 1 log 1 − 1 log 1 − 1 log 1) = 1.5比特/信源符号 2) 此马氏源的熵: 3 2 2 4 4 4 4
3)平稳马氏源的二次扩展源的所有符号及概率为: p(x1x2 ) = p(x1 ) p(x2 x1)
1 00: 6
1 11: 6
1 22: 6
编码效率为: l 19
2.(共 10 分)有两枚硬币,第一枚是正常的硬币,它的一面是国徽,另一面是 面值;第二枚是不正常的硬币,它的两面都是面值。现随机地抽取一枚硬币,进 行 2 次抛掷试验,观察硬币朝上的一面,其结果为:面值、面值。
1)求该试验结果与事件“取出的是第一枚硬币”之间的互信息;(4 分)
1) 求该信道的信道容量;(2 分)
2) 当传输速率达到容量时,确定 M 与 n 的关系。(2 分)
信息论与编码考试题(附答案版)
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln(2 ⅇ 2))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
信息论考试卷及答案
信息论考试卷及答案考试科⽬名称:信息论⼀. 单选(每空2分,共20分)1.信道编码的⽬的是(C ),加密编码的⽬的是(D )。
A.保证⽆失真传输B.压缩信源的冗余度,提⾼通信有效性C.提⾼信息传输的可靠性D.提⾼通信系统的安全性2.下列各量不⼀定为正值的是(D )A.信源熵B.⾃信息量C.信宿熵D.互信息量3.下列各图所⽰信道是有噪⽆损信道的是(B )A.B.C.D.4.下表中符合等长编码的是( A )5.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系正确的是(A )A.H(XY)=H(X)+H(Y/X)B.H(XY)=H(X)+H(X/Y)C.H(XY)=H(Y)+H(X)D.若X和Y相互独⽴,H(Y)=H(YX)6.⼀个n位的⼆进制数,该数的每⼀位可从等概率出现的⼆进制码元(0,1)中任取⼀个,这个n位的⼆进制数的⾃信息量为(C )A.n2B.1 bitC.n bitnD.27.已知发送26个英⽂字母和空格,其最⼤信源熵为H0 = log27 = 4.76⽐特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03⽐特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32⽐特/符号;以此类推,极限熵H=1.5⽐特/符号。
问若⽤⼀般传送⽅式,冗余度为( B )∞A.0.32B.0.68C .0.63D .0.378. 某对称离散信道的信道矩阵为,信道容量为( B )A .)61,61,31,31(24log H C -= B .)61,61,31,31(4log H C -= C .)61,61,31,31(2log H C -= D .)61,31(2log H C -= 9. 下⾯不属于最佳变长编码的是( D )A .⾹农编码和哈夫曼编码B .费诺编码和哈夫曼编码C .费诺编码和⾹农编码D .算术编码和游程编码⼆. 综合(共80分)1. (10分)试写出信源编码的分类,并叙述各种分类编码的概念和特性。
信息论与编码考试题(附答案版)
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(,1/-2.,ln(-,2πⅇ,σ-2...))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
信息编码论期末考试试题
信息编码论期末考试试题一、单项选择题(每题2分,共20分)1. 信息论的奠基人是:A. 爱因斯坦B. 牛顿C. 香农D. 麦克斯韦2. 下列哪个不是编码的基本原则?A. 唯一性B. 可识别性C. 可逆性D. 复杂性3. 熵是衡量信息量的一个指标,它在信息论中的定义是:A. 信息的不确定性B. 信息的确定性C. 信息的有序性D. 信息的无序性4. 在信息编码中,冗余度是指:A. 编码中多余的部分A. 编码中重复的部分C. 编码中必需的部分D. 编码中缺失的部分5. 以下哪个编码方式不是基于概率的?A. 霍夫曼编码B. 香农-费诺编码C. 游程编码D. ASCII编码二、填空题(每题2分,共20分)1. 信息论中的信息量通常用______来衡量。
2. 信息的传输速率是指单位时间内传输的______。
3. 在编码理论中,______编码是一种无损压缩编码。
4. 信息论中的信噪比是指______与______的比例。
5. 编码的目的是减少信息的______,提高信息的传输效率。
三、简答题(每题10分,共30分)1. 简述信息论中熵的概念及其计算公式。
2. 描述霍夫曼编码的基本原理及其在数据压缩中的应用。
3. 阐述信道容量的概念,并解释如何通过信道编码来逼近信道容量。
四、计算题(每题15分,共30分)1. 给定一组字符及其出现概率:A(0.4), B(0.25), C(0.15), D(0.1), E(0.1)。
请使用霍夫曼编码为这组字符设计一个最优编码方案,并计算该编码方案的平均码长。
2. 假设一个信道的信噪比为10dB,信道带宽为3000Hz,请计算该信道的最大数据传输速率(香农极限)。
五、论述题(共20分)1. 论述信息编码在现代通信系统中的重要性,并举例说明其在实际应用中的作用。
请考生在规定的时间内完成以上试题,注意保持答题卡的整洁,字迹清晰。
祝您考试顺利!。
信息论试题
2009 至 2010 学年第 1 学期《信息论与编码》试卷A卷出卷教师:朱春华适应班级:信息科学与工程学院07级电信专业考试方式:闭卷本试卷考试分数占学生总评成绩的 70%(1) 无失真信源编码定理(2) 《通信的数学理论》(3) 提高信息传输的可靠性(4) 4 (5) 前向纠错(6) 增加码长(7)循环码(8) 提高信息传输的有效性(9) 码多项式(10) 正态(11) 系统码 (12) 减小码率(13) 2 (14) 混合纠错(15) 突发差错(16) 最大似然译码 (17) 检错重发 (18)信道编码定理(19) 小于 (20) 相关性(21) x i (22)限失真信源编码定理 (23) 随机差错(24) H(X)(25) x n+1_(26) 3(27) ∞(28) 不均匀性(29) 均匀(30) 增大信道容量C(31) 平均信息量(32) 信道容量(33)独立等概(34)C=Wlog(1+SNR)bit/s (35) 等于1.香农于1948年发表了,这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
2.香农信息论的三大极限定理是、、。
3.对于单符号信源(信源熵为H(X)),若该信源无记忆,则其二次扩展信源X2的平均符号熵 H(X);若该信源有记忆,则其二次扩展信源的平均符号熵 H(X).4.冗余度来自两个方面,一是信源符号间的,另一个方面是信源符号分布的。
5.对于离散信源X,信息率失真函数R(0)= ,对于连续信源R(0)= 。
6.信道编码的目的是,信源编码的目的是。
7.把信息组原封不动的搬到码字前k位的(n,k)码就叫做。
8.循环码中的任何一个码字的循环仍是码字,因此用一个基底就足以表示一个码的特征,所以描述循环码的常用数学工具是。
9.差错控制的途径:、、。
10.带限AWGN波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式。
11.假设一码集中最小码距为5(dmin=5),该码用于检错,能检出位错码;若用于纠错,能纠正位错误。
信息论期末考试试题1
信息论期末考试试题1安徽⼤学2011—2012学年第1学期《信息论》考试试卷(AB 合卷)院/系年级专业姓名学号⼀、填空题1、接收端收到y 后,获得关于发送的符号是x 的信息量是。
2、⾹农信息的定义。
3、在已知事件z Z ∈的条件下,接收到y 后获得关于事件x 的条件互信息(;|)I x y z 的表达式为。
4、通信系统模型主要分成五个部分分别为:。
5、研究信息传输系统的⽬的就是要找到信息传输过程的共同规律,以提⾼信息传输的可靠性、有效性、和,使信息传输系统达到最优化。
6、某信源S 共有32个信源符号,其实际熵H ∞=1.4⽐特/符号,则该信源剩余度为。
7、信道固定的情况下,平均互信息(;)I X Y 是输⼊信源概率分布()Px 的型凸函数。
信源固定的情况下,平均互信息(;)I X Y 是信道传递概率(|)P y x 的型凸函数。
8、当信源与信道连接时,若信息传输率达到了信道容量,则称此信源与信道达到匹配。
信道剩余度定义为。
9、已知信源X 的熵H (X )=0.92⽐特/符号,则该信源的五次⽆记忆扩展信源X 5的信息熵5()H X = 。
10、将∞H ,6H ,0H ,4H ,1H 从⼤到⼩排列为。
11、根据⾹农第⼀定理,对于离散⽆记忆信源S ,⽤含r 个字母的码符号集对N 长信源符号序列进⾏变长编码,总能找到⼀种⽆失真的唯⼀可译码,使每个信源符号所需平均码长满⾜:。
12、多项式剩余类环[]())q F x f x 是域的充要条件为。
13、多项式剩余类环[](1)n q F x x -的任⼀理想的⽣成元()g x 与1n x -关系为。
14、有限域122F 的全部⼦域为。
15、国际标准书号(ISBN )由⼗位数字12345678910a a a a a a a a a a 组成(诸i a ∈11F ,满⾜:1010(mod11)ii ia=≡∑),其中前九位均为0-9,末位0-10,当末位为10时⽤X 表⽰。
信息论考试题判读题
1.信息就是一种消息。
( )2.互信息量可正可负,也可为零。
( )3.当随机变量相互独立时,条件熵等于信源熵。
( )4.信源熵具有严格的下凸性。
( )5.连续信源和离散信源的平均互信息量都具有非负性。
( )6.一维高斯分布的连续信源,其信源熵只与其均值和方差有关。
( )7.所谓信道容量就是信道中能够传送的最大信息量。
( )8.信道的信息传输速率就是平均互信息量,即(;)R I X Y = bit/符号。
( )9.信道容量C 不仅与信道统计特性有关,还与输入信源的概率分布有关( )10.求信道容量是互信息量(;)I X Y 求极大值的问题。
( )11.对于无损信道,其信道容量为()max ()p x C H Y = 。
( )12.高斯白噪声信道是平均功率受限条件下的最差信道。
( )13、唯一可译码是一个码的任意一串有限长的码符号序列只能被唯一地译成所对应的信源符号序列,等长非奇异码一定是唯一可译码。
( )14、一个熵为H (S )的离散无记忆信源。
若对信源长为N 的符号序列进行等长编码,设码字是从r 个符号组成的码符号集中选取L 个码符号组成的,若对于任意ε>0,只要满足lN ≥()log H S r +ε,几乎可实现无失真编码。
( )15、信源编码的目是提高传输有效性,即用尽可能短的码符号序列代表信源符号。
( )16、无失真信源编码定理证明,如果对信源序列进行编码,当序列长度足够长时 ,存在无失真编码使得传送每个信源符号所需的比特数接近信源的熵。
( )17、对于定长码, 只要非奇异就唯一可译。
这就要求码字的数目不少于被编码的信源序列的个数。
( )18、满足Kraft 不等式并不一定唯一可译,因为奇异码可能满足kraft 不等式。
( )19.信源的熵为无限大,而信道容量总是有限的,所以不可能实现无失真传输。
( )20.在一定失真度D的条件下,尽可能用最少的码符号来传送信源消息,使信源的消息尽快地传送出去,以提高通信的可靠性。
信息论与编码期末考试题
信息论与编码期末考试题信息论与编码期末考试题(一)一、判断题. 1. 当随机变量和相互独立时,条件熵等于信源熵. ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ()9. 率失真函数的最小值是. ()10.必然事件和不可能事件的自信息量都是. ()二、填空题 1、码的检、纠错能力取决于 . 2、信源编码的目的是;信道编码的目的是 . 3、把信息组原封不动地搬到码字前位的码就叫做 . 4、香农信息论中的三大极限定理是、、 . 5、设信道的输入与输出随机序列分别为和,那么成立的条件 .. 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . 7、某二元信源,其失真矩阵,那么该信源的= . 三、计算题. 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为. (1)计算接收端的平均不确定度;(2)计算由于噪声产生的不确定度;(3)计算信道容量以及最正确入口分布. 2、一阶马尔可夫信源的状态转移图如右图所示,信源的符号集为. (1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵并与进行比拟. 3、设码符号为,信源空间为试构造一种三元紧致码. 4、设二元线性分组码的生成矩阵为. (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)假设接收矢量,试计算出其对应的伴随式并按照最小距离译码准那么试着对其译码. (二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。
《信息论》期末考试试题(A 卷)标准答案
北京邮电大学2006——2007学年第 一 学期《信息论》期末考试试题(A 卷)标准答案姓名 班级 学号 分数一、判断题(正确打√,错误打×)(共10分,每小题1分)1)异前置码是即时码; (√) 2)最大似然准则等价于最小汉明距离准则; (×) 3)离散信源记忆的长度越大,信源的符号熵越小; (√) 4)一维高斯信源的熵只与其均值和方差有关; (×) 5)为达到并联加性高斯噪声信道容量,在信道输入总功率给定条件下应给噪声方差大的子信道分配更多的功率; (×) 6)只要信息传输速率小于信道容量,总可以找到一种编码方式使得当编码序列足够长时传输差错率任意小; (√) 7)离散无记忆信源的N 次扩展源的熵是原信源熵的N 倍; (√) 8)仙农的AWGN 信道容量公式是在信道输入的平均功率和幅度受限条件下推导出来的; (×) 9)当马氏源的初始状态s 和输出nx x x ,,,10 给定后,那么状态1,21,,+n s s s 就能唯一确定; (√) 10)当平均失真大于其上限D max 时,率失真函数R (D )= 0 。
(√)二、填空题(共20分,每空2分)1) 设信源的熵为0.8比特/符号,对信源序列进行单符号编码,码序列为0、1二元序列,如果编码效率为100%,那么每信源符号平均码长为 0.8 ,码序列中“0 ”符号出现的概率为 1/2 ,信息传输速率为 1 比特/码符号。
2) 一阶平稳马氏源的符号转移概率为2.0)0|0(12|=X X p ,6.0)1|1(12|=X X p ,那么符号的平稳分布为=)0(X p 1/3 ,=)1(X p 2/3 ;信源的符号熵为 0.8879 比特/符号。
3)一维连续随机变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。
4)在输入平均功率相同的情况下, 高斯分布使加性噪声信道容量最小。
5) 二元等概信源的熵为 1 比特/符号,当信源输出序列长度L足够长时,典型序列的个数约等于2L。
《信息论》期末考试试题(A卷)标准答案
2 次扩展信源符号 00 01 10 11 概 率 0.81 0.09 0.09 0.01 编 0 10 110 111 码
(3 分)
计算每信源符号平均码长为: l (1 0.19 0.10) / 2 0.645 ,编码器每秒输出 符号数为: 3.5 0.645 2.2575 2 ,所以传输不满足失真要求。 将信源的 3 次扩展源进行 Huffman 编码,结果为:
3
(1) 信源符号速率 3.5 大于信道传输速率 2,所以信源直接与信道相接,不能保证无失 真传输。 (3 分) (2) 采用适当的编码方式可以通过信道进行无失真传输。 (2 分) H ( X ) H (0.1) 0.1 log 0.1 0.9 log 0.9 0.469 比特/符号 信源熵率为 H (b / s ) H ( X ) 3.5 1.6415 b / s ,二元无噪信道容量为 C (b / s ) 2 b / s 。 因为 H (b / s) C (b / s) ,所以根据信源信道编码定理可知,采用适当的编码方式然后通
计 算 每 信 源 符 号 平 均 码 长 为 : l 0.5327 , 编 码 器 每 秒 输 出 符 号 数 为 : (5 分) 3.5 0.5327 1.8644 2 ,所以传输满足不失真要求。 由于这种编码所得是变长码,因此在编码器与信道之间应设置缓冲器。 (2 分)
六、计算题(16 分)
三、简答题(由 4 个独立子信道组成, 子信道方 差如右图所示,其中 1、2、3、4 子信道的方差分别为 2、1、 4、3; (1)达到容量时,信道输入应该是何种分布?各子信道的 输入是否统计独立? (1+1 分)
信息论与编码理论(最全试题集+带答案+各种题型)
答:抗干扰能力强,中继时可再生,可消除噪声累计;差错可控制,可改善通信质量;便于加密和使用DSP处理技术;可综合传输各种信息,传送模拟系统时,只要在发送端增加莫属转换器,在接收端增加数模转换器即可。
7.简述信息的性质。
答:存在普遍性;有序性;相对性;可度量性;可扩充性;可存储、传输与携带性;可压缩性;可替代性;可扩散性;可共享性;时效性;
A.形式、含义和安全性
B.形式、载体和安全性
C.形式、含义和效用
D.内容、载体和可靠性
20.(D)是香农信息论最基本最重要的概念
A.信源B.信息C.消息D.熵
三.简答(
1.通信系统模型如下:
2.信息和消息的概念有何区别?
答:消息有两个特点:一是能被通信双方所理解,二是能够互相传递。相对于消息而言,信息是指包含在消息中的对通信者有意义的那部分内容,所以消息是信息的载体,消息中可能包含信息。
31.简单通信系统的模型包含的四部分分别为信源、有扰信道、信宿、干扰源。
32. 的后验概率与先念概率的比值的对数为 对 的互信息量。
33.在信息论中,互信息量等于自信息量减去条件自信息量。
34.当X和Y相互独立时,互信息为0。
35.信源各个离散消息的自信息量的数学期望为信源的平均信息量,也称信息熵。
第一章
一、填空(
1.1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2.按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
3.按照信息的地位,可以把信息分成客观信息和主观信息。
4.人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
《信息论》期末考试B卷答案
北方民族大学试卷课程代码: 01100622 课程:信息理论及编码B 卷答案:号学说明:此卷为《信息理论及编码》B 卷答案一、概念简答题(每小题6分,共30分)1、比较平均自信息(信源熵)与平均互信息的异同。
题试试考末期期学季 秋 年学- —80名姓班级业专程工息信院学程工息信气电线 - q- 答:平均自信息为 H X - -7 p q log p q ,表示信源的平均不确定度,也表示平-i 4-均每个信源消息所提供的信息量。
........................... (3分)平均互信息I X;Y P xy logX,Y。
表示从Y 获得的关于每个 X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
(3分)2、简述香农第一定理。
- 答:对于离散信源 S 进行r 元编码,只要其满足L N_匕^, ..................................... (3分)-N log r- 当N 足够长,总可以实现无失真编码。
............................. (3分) 密3、简述唯一可译变长码的判断方法?- 答:将码C 中所有可能的尾随后缀组成一个集合F ,当且仅当集合 F 中没有包含任一码字-时,码C 为唯一可译变长码。
构成集合 F 的方法: ............. (2分) 首先,观察码C 中最短的码字是否是其他码字的前缀。
若是,将其所有可能的尾随后缀排 列出。
而这些尾随后缀又可能是某些码字的前缀, 再将由这些尾随后缀产生的新的尾随后缀列出。
依此下去,直至没有一个尾随后缀是码字的前缀或没有新的尾随后缀产生为止。
.............(2分)接着,按照上述步骤将次短的码字直至所有码字可能产生的尾随后缀全部列出, 得到尾随后缀集合F 。
............. (2分) 4、简述最大离散熵定理。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2009-2010学年第二学期末考试试题
信息论与编码理论
一、(共10分)
简述最大熵原理与最小鉴别信息原理,并说明两者之间的关系。
二、(共12分)
某一无记忆信源的符号集为{0, 1},已知P(0) = 1/4,P(1) = 3/4。
1) 求符号的平均熵;
2) 有100个符号构成的序列,求某一特定序列(例如有m个“0”和(100 - m)个“1”)的自信息量的表达式;
3) 计算2)中序列的熵。
三、(共12分)
一阶马尔可夫信源的状态图如下图所示。
信源X 的符号集为{0, 1, 2}。
1) 求平稳后信源的概率分布;
2) 求)(X H ;
3) 求上述一阶马尔可夫信源的冗余度。
P P
四、(共10分)
设离散型随机变量XYZ 的联合概率满足xyz ∀)()()()(y z p x y p x p xyz p =。
求证:);();(Z Y X I Y X I ≥
五、(共12分)
设有一离散无记忆信道,输入信号为321,,x x x ,输出为321,,y y y ,其信道转移矩阵为⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡=214141412141414121Q ,61)(,32)(21==x P x P 。
试分别按理想译码准则与最大似然译码准则确定译码规则,并计算相应的平均译码差错概率。
六、(共14分)
设有一离散信道,输入X ,输出Y ,其信道转移矩阵为⎥⎦
⎤⎢⎣⎡7.01.02.02.01.07.0, 求:1)信道的信道容量及达到信道容量时的输入分布?
2)当输入X 分布为7.0)(1=x P 3.0)(2=x P 时,求平均互信息);(Y X I 及信道疑义度)(X Y H 。
七、(共15分)
某离散无记忆信源符号集为{71a a },所对应的概率分别为:0.25,0.25,0.125,0.125,0.125,0.0625,0.0625。
1) 求信源的熵)(X H ;
2)对其进行三元哈夫曼编码并计算编码的平均码长及编码效率; 3)对其进行二元Shannon 编码并计算编码的平均码长及编码效率。
八、(共15分)
设某线性分组码的生成矩阵为⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡=111000*********G 求:
1) 对应的校验矩阵H ;
2) 由最大似然译码准则求其译码表并求01100的译码;
3)求所有的校验子;
4)求10101对应的校验子及对应的译码。