信息论复习题
信息论复习必考题
第一天:
1、请问什么是信息
答案:消除不确定因素
2、信息论的奠基人是谁,为什么?
答案:香农,香农三大定律
3、单个信源符号的自信息量的计算方法
答案:概率的倒数的对数
4、信源的离散熵怎么计算,熵的物理含义是什么
答案:熵代表离散程度,离散程度越大,熵值越大。
第二天:
1、请问一个随机变量在什么概率分布的时候,它的熵值最大?怎么和生活中进行对接
答案:概率分布均匀的时候熵值最大
2、请问互信息熵的计算和物理含义是什么?想想一条河流
3、数据处理定理是什么?在数据处理当中,丢失了什么?获得了什么?为什么要数据处理呢?(从通信系统的角度来考虑)沙里淘金
第三天:
1、离散的无记忆信源序列的熵值该怎么计算,它又有什么作用呢?
2、离散的有记忆序列的熵值该怎样计算?
3、极限熵的物理含义是什么?
4、编码的一些基本概念(等长和变长,奇异和非奇异,唯一可译码、平均编码长度、码树、前缀码和非前缀码等)
5、仔细体会从等长编码和变长编码,针对什么样的信源,有什么优缺点
第四天:
1、请问香农第一定理是什么?其含义是什么?如何理解?(信源符号的个数和码字个数之间的关系)
2、。
信息论试题
信息论试题一、选择题1. 信息论的创始人是()。
A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。
A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。
A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。
A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。
A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。
2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。
3. 香农在1948年发表的论文《________》奠定了信息论的基础。
4. 在数字通信中,信道容量可以通过公式________来计算。
5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。
三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。
2. 描述香农信息论中的主要概念及其相互之间的关系。
3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。
4. 讨论信息论对于密码学和信息安全的贡献。
四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。
2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。
3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。
4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。
信息论复习题
信息论复习题信息论复习题第一、二章一、填空1、 1948年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2、信息、与信号,是通信理论中常用的三个既有联系又有区别的概念。
信息是系统中的对象,它包含在中。
消息是比较具体的概念,但不是物理的。
信号是表示的物理量。
在通信系统中,传送的本质内容是信息,发送时需要将信息表示成具体的消息,再将消息载至上,才能在实际的通信系统中传输。
3、不考虑加密处理,常用通信系统的物理模型包括信源、信源编码器、信道编码器、信道、和、、信宿七部分。
其中,信源负责向通信系统提供消息;,是消息传递的对象,即接收消息的人或机器;信道是传递消息的,是负责传送物理信号的设施。
4、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为。
5、自信息量的单位一般有。
6、必然事件的自信息是。
7、不可能事件的自信息量是。
8、两个相互独立的随机变量的联合自信息量等于。
9、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量。
10、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的。
11、若信源当前时刻发出的符号只与前m 个符号有关联,而与更前面的符号无关,则称这种信源为信源;若该信源的条件转移概率与时间起点无关,则进一步可称其为信源。
经过足够长时间,该信源处于什么状态已与初始状态无关,此时每种状态出现的概率达到了一种。
12、一维连续随机变量X 在[a ,b]区间内均匀分布时,其信源熵为。
13、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是。
14、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为。
15、对于离散信源,当时其信源熵具有最大值。
16、对于限平均功率的一维连续信源,当概率密度时,信源熵有最大值。
二、判断1、必然事件和不可能事件的自信息量都是0 。
信息论习题集
信息论习题集一、名词解释(20道)1、“本体论”的信息(P2)2、“认识论”信息(P2)3、离散信源(P7)4、自信息量(P9)5、离散平稳无记忆信源(P39)6、信源冗余度 (P51)7、连续信源 (P52) 8、信道容量 (P73) 9、强对称信道 (P75-76)10、对称信道 (P78) 11、多符号离散信道(P83) 12、连续信道 (P95)13、平均失真度 (P105) 14、实验信道 (P107) 15、率失真函数 (P107)16、信息价值率 (P127) 17、BSC 信道 (P171) 18、码的最小距离 (P174)19、线性分组码 (P175) 20、循环码 (P188)二、填空(84道)1、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。
2、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。
4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。
5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
6、 信息的 可度量性 是建立信息论的基础。
7、 统计度量 是信息度量最常用的方法。
8、 熵 是香农信息论最基本最重要的概念。
9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
信息论 复习题
【3.2】设8个等概率分布的消息通过传递概率为p的BSC进行传送,8个消息相应编成下述码字:M1=0000,M2=0101,M3=0110,M4=0011M5=1001,M6=1010,M7=1100,M8=1111试问:(1)接收到第一个数字0与M1之间的互信息;(2)接收到第二个数字也是0时,得到多少关于M1的附加互信息;(3)接收到第三个数字仍为0时,又增加了多少关于M1的互信息;(4)接收到第四个数字还是0时,再增加了多少关于M1的互信息。
解:各个符号的先验概率均为1/8(1)根据已知条件,有因此接收到第一个数字0与M1之间的互信息为:(2)根据已知条件,有因此接收到第二个数字也是0时,得到多少关于M1的互信息为:得到的附加信息为:(3)根据已知条件,有因此接收到第三个数字也是0时,得到多少关于M1的互信息为:此时得到的附加信息为:(4)根据已知条件,有因此接收到第四个符号为0时,得到的关于M1的互信息为此时得到的附加信息为【3.3】设二元对称信道的传递矩阵为(1)若P(0)=3/4,P(1)=1/4,求H(X ),H(X | Y ),H(Y | X )和I (X;Y);(2)求该信道的信道容量及其达到信道容量时的输入概率分布。
解:(1)根据已知条件,有【3.5】若X 、Y 和Z 是三个随机变量,试证明:(1)I (X;YZ) = I(X;Y) + I(X;Z | Y) = I (X;Z) + I (X;Y | Z) (2)I (X;Y | Z) = I (Y; X | Z) = H(X | Z) - H(X | YZ) (3)I (X;Y | Z) ³0当且仅当(X, Z,Y)是马氏链时等式成立。
(3)【3.10】求下列两个信道的信道容量,并加以比较因此有【4.17】在图片传输中,每帧约个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。
试计算每秒钟传送30帧图片所需信道的带宽(信噪功率比为30dB)。
信息论总复习
第一章作业题1. 设二元对称信道的传递矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132(1) 若P(0) = 3/4, P(1) = 1/4,求H (X ), H(X /Y ), H(Y /X )和I(X ;Y );(2) 求该信道的信道容量及其达到信道容量时的输入概率分布; 解:(1)symbolbit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbolbit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbolbit x y p x y p x p X Y H symbolbit x p X H jj iji j i j i i i / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/()/()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167.032413143)/()()/()()()()(5833.031413243)/()()/()()()()(/ 918.0 10log )32lg 324131lg 314131lg 314332lg 3243( )/(log )/()()/(/ 811.0)41log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==⨯+⨯-=-==⨯+⨯=+=+==⨯+⨯=+=+==⨯⨯+⨯+⨯+⨯-=-==⨯+⨯-=-=∑∑∑∑2)21)(/ 082.010log )32lg 3231lg 31(2log log );(max 222==⨯++=-==i mi x p symbolbit H m Y X I C2. 设有一批电阻,按阻值分70%是2K Ω,30%是5 K Ω;按瓦分64%是0.125W ,其余是0.25W 。
信息论基础试题
信息论基础试题
以下是一些关于信息论基础的试题:
1. 什么是信息熵?请简要解释其概念和应用。
2. 请解释“信源”、“信源熵”和“平均码长”。
3. 假设一个信源有4个符号,每个符号出现的概率分别是0.3, 0.2, 0.25和0.25,求该信源的熵和平均码长。
4. 如果一个信源的熵为3比特,那计算出的平均码长是多少?
5. 请解释“信道容量”和“香农定理”。
6. 假设一个二进制对称信道的错误概率为0.1,那么该信道的容量是多少?
7. 请解释“数据压缩”以及数据压缩的原理和方法。
8. 假设有一个压缩算法可以将原始数据压缩至原来的85%,那么压缩率是多少?
9. 请解释“纠错码”以及纠错码的作用和原理。
10. 什么是哈夫曼编码?请简要解释其原理和应用。
请注意,以上问题只是信息论基础的一部分,信息论是一个较为复杂的学科领域,以上问题只涉及其中的一些基础概念和方法。
(完整word版)信息论习题集
信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。
(“2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。
(“3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(W4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。
(M5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。
(V)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。
(V7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。
(X第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。
(V2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。
(X)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。
(X4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。
(X)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。
(X6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。
(V7、互信息的统计平均为平均互信息量,都具有非负性。
(X)8、信源剩余度越大,通信效率越高,抗干扰能力越强。
(X)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。
(X)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。
(X)11、在信息处理过程中,熵是不会增加的。
(V12、熵函数是严格上凸的。
(V13、信道疑义度永远是非负的。
(V14、对于离散平稳信源,其极限熵等于最小平均符号熵。
(V2-1同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1)“3和5同时出现”事件的自信息量;(2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量;(4)两个点数之和(即2, 3,…,12构成的子集)的熵;(5)两个点数中至少有一个是1的自信息。
信息论复习题
• 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?• 答:平均自信息为• 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
• 平均互信息•表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
2.简述最大离散熵定理。
对于一个有m 个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
• 最大熵值为3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
4.解释无失真变长信源编码定理。
答:只要 ,当N 足够长时,一定存在一种无失真编码。
5.解释有噪信道编码定理。
• 答:当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。
6.离散平稳信源• 答:若信源输出的消息是取值离散的随机序列,随机序列的任意有限维的概率分布不随时间平移而改变,则称为离散平稳信源。
7.即时码答:如果在译码过程中只要接收到每个码字的最后一个符号就可立即将该码字译出,这种码称为即时码。
8.信道容量答:信息能够可靠传输的最大信息传输速率。
9.信源信道编码定理• 答:设有一离散无记忆平稳信道的每秒容量为C ,一个离散信源每秒的熵为H ,那么,如果H < C ,总存在一种编码系统,使得信源的输出以任意小的错误概率通过信道传输;反之,如果H > C 时,对任何编码编码系统,译码差错率>010.信道疑义度• 答:设信道的输入与输出分别为X 、Y ,定义条件熵H(X/Y)为信道疑义度。
它有如下含义:• 信道疑义度表示接收到Y 条件下X 的平均不确定性;根据I(X;Y)=H(X)-H(X/Y),信道疑义度又表示X 经信道传输后信息量的损失; 接收的不确定性由信道噪声引起,在无噪情况下,H(X/Y)=0。
信息论考题及答案
一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有1H(X,Y)()()logP()()11()()log()()log ()()11()log()log ()()()()xyxyxy xy P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375(2) H(X)=2, H(Y)=1.75(3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5(4)H(X|Y)=1.1264(5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解:(1|1)P x y ===(1|1)(1)(1|)()xP y x P x P y x P x ===∑==9.015.01.085.01.085.0⨯+⨯⨯=22.0085.0=0.39一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+=二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少?三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
信息论复习题及答案
1.(15分) 彩色电视显象管的屏幕上有5×105 个象元,设每个象元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现并且各个组合之间相互独立。
① 计算每秒传送25帧图象所需要的信道容量; ② 如果在加性高斯白噪声信道上信号与噪声平均功率的比值为63,为实时传送彩色电视的图象,信道的带宽应为多大?2.(15分)已知一个信源包含八个符号消息,它们的概率分布如下表,① 该信源每秒钟内发出一个符号,求该信源的熵及信息传输速率。
② 对八个符号作二进制码元的霍夫曼编码,写出各代码组,并求出编码效率。
③ 对八个符号作三进制码元的霍夫曼编码,写出各代码组,并求出编码效率。
3.(15分)一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。
这些数符组成长度为100的数符组。
我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。
① 求出为所规定的所有源符组都提供码字所需的最小码长。
② 求信源发出一数符组,而编码器无相应码字的概率。
4.(15分) 求下图中DMC 的信道容量。
如果输入分布为{p(x=0)=1/2,p(x=1)=1/4,p(x=2)=1/4),试求输入的信息熵和经过该信道的输入、输出间的平均互信息量。
5.(15分)设二元(7, 4)线性分组码的生成矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G给出该码的一致校验矩阵并写出所有的伴随式和与之相对应的陪集首。
若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码6.(15分)证明最小错误概率译码与最大似然译码在先验等概的条件下等价。
设M =2且两个消息等概,令)0000(1=x ,)1111(2=x 。
通过信道转移概率p<1/2的信道传输。
信息论——精选推荐
信息论信号论考试复习题⼀、填空题。
1. ⾹农信息论中定义的信息是“事物运动状态和存在⽅式不确定性的描述”。
2. 消息是信息的载体。
构成消息的两个条件是能被通信双⽅所理解和可以在通信中传递和交换。
3. 信源编码的作⽤是根据失真度准则对信源的输出消息进⾏编码,⽤码字表⽰消息。
4. 信息论研究的主要问题是如何提⾼信息传输系统的有效性和可靠性。
5. 如果信源输出的消息的随机变量,可以在某⼀离散集合内取值,也可以在某⼀连续区间内取值,相应的信源就分别称为和。
——[答案:1.连续信源离散信源]6. 当条件概率分布p (y ∣x )给定时,平均互信息量I (X;Y )是输⼊概率分布p(x)的。
——【上凸函数】7. ⼋进制脉冲的平均信息量为,⼋进制脉冲所含信息量是⼆进制脉冲信息量的倍。
——【3 3】8. 熵函数的数学特性有、、、确定性、可加性、极值性、上凸性。
——【对称性⾮负性扩展性】9. 平均互信息量I (X;Y )与信源熵和条件熵之间的关系是。
【I (X;Y )=H (X )—H(X/Y)】 10. 设信源X 包含 4个不同的离散信息,当且仅当X 中各个信息出现的概率为时,信源熵达到最⼤值为,此时各个信息的⾃信息量为。
【1/4 2 2】 11. ⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越。
【⼩】 12. 信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的,⼆是信源符号分布的。
【相关性不均匀性】 13. 离散信道是输⼊和输出的随机变量的取值都是离散的信道。
14. 信道可依据输⼊输出的随机变量类型分成离散信道、连续信道、半离散或半连续信道。
15. 单符号离散信道的输⼊符号是X ,取之于{a1、a2…… an };输出符号为Y ,取值为{b1、b2、……bn },并有条件概率P(Y=bj/X=ai)=P(bj/ai)(i=1、2……m),这⼀组条件概率称为信道的传递概率或转移概率。
信息论考试卷及答案解析
考试科目名称:信息论一. 单选(每空2分,共20分)1.信道编码的目的是(C ),加密编码的目的是(D )。
A.保证无失真传输B.压缩信源的冗余度,提高通信有效性C.提高信息传输的可靠性D.提高通信系统的安全性2.下列各量不一定为正值的是(D )A.信源熵B.自信息量C.信宿熵D.互信息量3.下列各图所示信道是有噪无损信道的是(B )A.B.C.D.4.下表中符合等长编码的是( A )5.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系正确的是(A )A.H(XY)=H(X)+H(Y/X)B.H(XY)=H(X)+H(X/Y)C.H(XY)=H(Y)+H(X)D.若X和Y相互独立,H(Y)=H(YX)6.一个n位的二进制数,该数的每一位可从等概率出现的二进制码元(0,1)中任取一个,这个n位的二进制数的自信息量为(C )A.n2B.1 bitC.n bitnD.27.已知发送26个英文字母和空格,其最大信源熵为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32比特/符号;以此类推,极限熵H=1.5比特/符号。
问若用一般传送方式,冗余度为( B )∞A.0.32B.0.68C .0.63D .0.378. 某对称离散信道的信道矩阵为 ,信道容量为( B )A .)61,61,31,31(24log H C -= B .)61,61,31,31(4log H C -= C .)61,61,31,31(2log H C -= D .)61,31(2log H C -= 9. 下面不属于最佳变长编码的是( D )A .香农编码和哈夫曼编码B .费诺编码和哈夫曼编码C .费诺编码和香农编码D .算术编码和游程编码二. 综合(共80分)1. (10分)试写出信源编码的分类,并叙述各种分类编码的概念和特性。
信息论考试卷与答案..
考试科目名称:信息论一. 单选(每空2分,共20分)1.一个m位的二进制数的自信息量为(A )A.m bitB.1 bitC.m2mD.22.信源编码的目的是(A )A.提高通信有效性B.提高信息传输的可靠性C.提高通信系统的安全性D.压缩信源的冗余度3.下面属于最佳变长编码的是(C )A.算术编码和游程编码B.香农编码和游程编码C.哈夫曼编码和费诺编码D.预测编码和香农编码4.表中符合即时码的是(A )和(D )5.下列各量可能为负值的是(B )A.自信息量B.互信息量C.信息熵D.平均互信息量6.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系错误的是(D )A.H(XY)=H(X)+H(Y/X)B.若X和Y相互独立,H(Y)=H(Y/X)C.H(XY)=H(Y)+H(X/Y)D.H(XY)=H(X)+H(X/Y)7.已知发送26个英文字母(包括空格),其最大信源熵(发送概率相等)为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32=1.4比特/符号。
问若用一般传送比特/符号;以此类推,极限熵H∞方式,冗余度γ为( B )A.0.58B.0.71C.0.65D.0.298. 某信道传递矩阵为,其信道容量为( D )A .)41log 4143log 43()81,81,41,21(4log ++-=H C B .)41log 4343log 41()81,81,41,21(2log +--=H C C .)41log 4143log 43()81,81,41,21(4log +--=H CD .)41log 4143log 43()81,81,41,21(2log +--=H C9. 下列各图所示信道是对称信道的是( C )A .B .C .⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8181214181814121PD.二. 综合(共80分)1.(10分)试画出通信系统的模型,并叙述各部分的定义和作用。
《信息论》试题(精华)及答案(精华版)
期终练习,10%就是胖子 ,80%不胖不瘦 ,10%就是瘦子;已知胖子得高血压的概率 一,某地区的人群中 就是 15% ,不胖不瘦者得高血压的概率就是 10%,瘦子得高血压的概率就是 5% ,就“该地区的 某一位高血压者就是胖子”这句话包含了多少信息量;解: 设大事 A: 某人就是胖子 ; B: 某人就是不胖不瘦 C:某人就是瘦子D: 某人就是高血压者依据题意 ,可知 :P(A)=0 , 1 P(B)=0 , 8 P(C)=0 ,1P(D|A)=0 , 15 P(D|B)=0 , 1 P(D|C)=0 , 05而“该地区的某一位高血压者就是胖子” 这一消息说明在 D 大事发生的条件下 ,A 大事 的发生 ,故其概率为 依据贝叶斯定律 P(A|D),可得 :P(D) = P(A)* P(D|A) + P(B)* P(D|B) +P(C)* P(D|C) = 0, 1P(A|D) = P(AD)/P(D) = P(D|A)*P(A)/ P(D) = 0, 15*0 , 1/0, 1= 0,15故得知“该地区的某一位高血压者就是胖子”这一消息获得的多少信息量为 I(A|D) = - logP(A|D)=log(0 ,15) ≈ 2, 73 (bit): 二,设有一个马尔可夫信源 ,它的状态集为 {S 1,S 2,S 3}, 符号集为 {a 1,a 2,a 3 }, 以及在某状态下发出 p (a k | s i ) (i,k=1,2,3), 如下列图符号集的概率就是 (1) 求图中马尔可夫信源的状态极限概率并找出符号的极限概率(2) 运算信源处在某一状态下输出符号的条件熵 H(X|S=j) (j=s 1,s 2,s 3)(3) 求出马尔可夫信源熵 H解 :(1) 该信源达到平稳后 , 有以下关系成立 :Q( E 1 ) Q(E 3 ) 273727Q(E 1 )3 4 1 4 1 2 1 2 Q( E 2 ) Q(E 1 ) Q( E 2 )Q(E )可得 2 Q( E 3 ) Q(E 1 ) Q( E 2 )Q(E ) 3Q( E 1 ) Q(E 2 ) Q(E 3 ) 133 72 73 7 p(a 1)Q(E i ) p( a 1 |E i ) i 13 p(a 2 )Q(E i ) p(a 2 |E i ) i 1 3p(a ) Q(E ) p(a |E ) 3 i 3 i i 13 p(a k |S 1 ) log p(a k | S 1) 1.(5 bit/ 符号)H ( X | S 1 ) k 13(1 bit/ 符号)(2) H ( X | S 2 ) p(a k |S 2 ) log p(a k | S 2 ) k 13p(a k |S 3 ) log p(a k | S 3 ) 0(bit/ 符号)H ( X | S 3 ) k 13(3) H Q(E i ) H (X | E i ) 2 / 7*3/ 2 3/ 7*1 2 / 7*0 6 / 7 (比特 /符号 )i 1三,二元对称信道的传递矩阵为 (1) 如 P(0)=3/4,P(1)=1/4, 求 H(X),H(X|Y) 与 I(X;Y)(2) 求该信道的信道容量及其最大信道容量对应的正确输入分布2解: ⑴ H ( X ) = p(x i )log p( x i ) 75 25 0, 811(比特 /符号 )= i 1p( y 1 ) p( x 1 ) p( y 1 | x 1 ) p( x 2 ) p( y 1 | x 2 ) =0,75*0 ,6+0 , 25*0 , 4=0 , 55 p( y 2 ) p( x 1 ) p( y 2 | x 1 ) p( x 2 ) p( y 2 | x 2 ) 0, 75*0 , 4+0 , 25*0 , 6=0, 45 H (Y) 0, 992(比特 /符号 )H (Y | X ) p( x)H (Y | x 1) p(x 2 ) H (Y | x 2 ) H (0.6,0.4) H (0.4,0.6) 0.4)7(1 比特 / 符号)H ( X | Y ) H ( XY ) H (Y) H ( X ) H (Y | X ) H (Y)0, 811+0, 971-0 , 992=0, 79 (比特 /符号 )I(X;Y)=H(X)-H(X|Y) =0, 811-0, 79=0, 021(比特 /符号 )(2) 此信道为二元对称信道 ,所以信道容量为C=1-H(p)=1-H(0 , 6)=1-0 , 971=0, 029( 比特 /符号 )当输入等概分布时达到信道容量p p 22pp2244,其中p 1 p ;四,求信道的信道容量0 44 0p p 22pp22解: 这就是一个准对称信道,可把信道矩阵分为: ,N1 M 1 1 4 , N 2 4 , M 422C log r H ( p 2, p 2 ,0,4 ) Nk log Mkk 1log 2 H ( p 2 , p 2 ,0,4 )(1 4 )log(1 44)4log 4(比特/ 符号)故1H ( p 2 , p 2 ,4 ) (1 4 )log(1 4 ) log 4 当输入等概分布时达到信道容量;1XP( x) x1x2x3x4x5x6五,信源(1) 利用霍夫曼码编成二元变长的惟一可译码,并求其L,并求其L(2) 利用费诺码编成二元变长的惟一可译码(3) 利用香农码编成二元变长的惟一可译码(1) 香农编码:,并求其信源符号x 1x 2x 3x 4x 5x 6概率P(x i)0,40,20,20,10,050,05码长233455累积概率0,40,60,80,90,95码字0001110011001110011110l i PL =0 ,4×2+0,2×3+0,2×3+0,1×4+0,05×5+0,05×5=2,9(码元/信源符号)η=H(X)/( L logr)=2 ,222/2,9=0 ,7662(2) 霍夫曼编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)=0 ,9964(3)费诺编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)= 0 ,99641 21312161613121613六,设有一离散信道,传递矩阵为设P(x1 )= P(x 2)=1/4,P(x 3)=1/2,试分别按最小错误概率准就与最大似然译码准就确定译码规章并相应的运算机平均错误概率的大小;解:(1) 按最大似然译码准就,F(y1)=x1 F(y2)=x2 F(y3)=x3P(E)=1/2(1/3+1/6)+1/4 ×2×(1/3+1/6)=1/2(2) 联合概率矩阵为,就按最小错误概率准1 8 1 24 1 61121811212411214F(y1)=x3 F(y2)=x2 F(y3)=x3 P(E)= 1/8+1/24+2/12 +1/24+1/12=11/240,131,13213UP(u)八,一个三元对称信源0 1 1 1 0 1 11接收符号为 V = {0,1,2}, 其失真矩阵为 (1)求 D max 与 D min 及信源的 R(D) 函数;(2)求出达到 R(D ) 的正向试验信道的传递概率1 r2 3解 :(1) D max = min P ( u ) d(u ,v) 1 V U 3D min = P ( u ) min d (u , v) 0 j i 1由于就是三元对称信源 ,又就是等概分布 ,所以依据 r 元离散对称信源可得 R(D) =log3 - Dlog2 -H(D) = log3 - D - H(D) 0<=D<=2/3= 0 D>2/3(2)满意 R(D) 函数的信道其反向传递概率为1 D (i j )P(u i | v j ) D2 (i j )13以及有 P(v j )= 依据依据贝叶斯定律 ,可得该信道的正向传递概率为 :1 D2 D (i j )P( v j | u i ) (i j )九,设二元码为 C=[11100,01001,10010,00111](1) 求此码的最小距离 d min ;(2) 采纳最小距离译码准就 ,试问接收序列 10000,01100 与 00100 应译成什么码字?(3) 此码能订正几位码元的错误?解:(1) 码距如左图11100 01001 10010 001111110001001 10010 00111 33 4 43 3故 d min = 3(2) 码距如右图故 10000 译为 译为 11100,00100 译为 11100 或 0011110010,01100 d min 2 e 1,知此码能订正一位码元的错误;(3) 依据。
信息论习题集.doc
信息论概念复习题一、填空1、1948年,美国数学家查理发表了题为“通信的数学理论”的长篇论文,从阳创立了信息论C2、貝们研究信息论的目的是为了高效、nJ靠、安金地交换和利用各种各样的信息。
3、信息的可度量性是建立信息论的基础。
4、统计度量是信息度量最常用的方法。
5、爛是香农信息论最基本最重要的概念。
6、事物的不确定度是用时间统计发生概率的对数来描述的。
7、单符号离散信源一般用随机变最描述,而多符号离散信源一般用随机矢最描述。
8、一个随机事件发生某一结果后所带来的信息量称为口信息量,定义为其发生概率对数的负值O9、口信息量的单位一般有比特、奈特和哈特o10、必然事件的自信息是_Q_ o11、不可能事件的口信息量是二。
12、两个相互独立的随机变量的联合口信息量等于两个口信息量Z和o13、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息Z 间的平均互信息量趋丁•变小。
14、离散平稳无记忆信源X的N次扩展信源的爛等于离散信源X的爛的N倍o15、离散平稳有记忆信源的极限爛,施=辄卅(X“/X{X2・・・X NT)。
16、対于n元m阶马尔可夫信源,其状态空间共有止个不同的状态。
17、一维连续随即变量X在[a, b]区间内均匀分布时,其信源嫡为log? (b・a)。
丄log °2廊P18、平均功率为P 的高斯分布的连续信源,其信源爛,比(X) =2 o19、对于限峰值功率的连续信源,当概率密度均匀分布时连续信源爛具有最大值。
2()、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源爛有最大值。
22、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。
23、信道的输出仅与信道当前输入有关,而L过去输入无关的信道称为无记忆信道。
24、具有一一对应关系的无噪信道的信道容量C= log2n o25、对称信道的信道容量C= log.m-H mi o26、对于离散无记忆信道和信源祜N次扩展,其信道容量C、_NC_ o27、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加吋,此信道称为加性连续信道。
信息论总复习题目
二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。
()()()1lgbc aH x p x dx p x =⎰------3分 ()lg b a =-bit/自由度-------2分三、(10分)一个平均功率受限的连续信道,信道带宽为1MHz ,信道噪声为高斯白噪声。
(1)已知信道上的信号与噪声的平均功率比值为20,计算该信道的信道容量。
(2)如果信道上的信号与噪声的平均功率比值降为10,要达到相同的信道容量,信道带宽应为多少?(3)如果信道带宽降为0.5MHz ,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少?1) ()10lg 1NR c S =+------3分64.3910=⨯b/s---1分2) ()610 1.2710lg 1NR cS ==⨯+Hz---3分3) 21c w NR S =-=440----3分四、(16分)已知信源共7个符号消息,其概率空间为()12345670.20.170.20.170.150.100.01S s s s s s s s P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 试用霍夫曼编码法编成二进制变长码。
并计算信源熵、平均码长、编码后的信息传输率、编码信息率和编码效率。
要求写出详细的编码过程和计算过程。
2 01 S1 0.22 00 S3 0.23 111 S2 0.173 110 S4 0.173 101 S5 0.154 1001 S6 0.104 1000 S7 0.010.20.110.150.170.170.20.260.170.170.20.20.340.20.20.260.260.340.40.60.41.0------6分712.71i i i L P τ===∑位----2分()721log 2.61i i i H s P P ===∑bit/符号--------2分2log 2.71R r τ==’bit/码字--------2分()20.963log H s rητ==----------2分()0.963H s R τ==bit/码元--------2分五、(16分)设一个离散无记忆信源的概率空间为()120.50.5X a a P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 它们通过干扰信道,信道输出端的接收符号集为Y =[b 1,b 2],已知信源传输概率如下图所示。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1、求基本高斯信源的差熵。
(10分)
2、一个随机变量x 的概率密度函数为kx x p =)(,V x 20≤≤。
试求该信源的相对熵。
3、黑白气象传真图的消息只有黑色和白色两种,即信源{}黑,白=X ,设黑色的出现概率为3.0(=黑)
P ,白色的出现概率为7.0(=白)P 。
(1)假设图上黑白消息出现前后没有关联,求熵)(X H 。
(2)假设消息前后有关联,其依赖关系为9.0/(=白)白P ,1.0/(=白)黑P ,2.0/(=黑)白P ,8.0/(=黑)黑P ,求此平稳离散信源的熵)(2X H 。
(3)分别求上述两种信源的剩余度,比较)(X H 和)(2X H 的大小。
4、给出求一般离散信道的信道容量的计算步骤并用拉格朗日乘子法加以证明。
5、给出离散无记忆信源的信息率失真函数的参量表述并用拉格朗日乘子法加以证明。
6、若信道的输入和输出分别是N 长序列X 和Y ,且信道是无记忆的,则
∑=≤N
k k k Y X I Y X I 1
),();(,这里k X 和k Y 分别是序列X 和Y 中第k 位随机变量;并且证明当
且仅当信源也是无记忆信源时等号成立。
7、有一并联高斯加性信道,各子信道的噪声均值为0,方差为2
i σ:
!
21σ=,22σ=,23σ=,24σ=,25σ=,26σ=,27σ=,28σ=,29σ=,210σ=(W )。
输入信
号X 是10个相互统计独立、均值为0、方差为i P 的高斯变量,且满足:)(110
1
W P i i =∑=。
求
各子信道的信号功率分配方案。
8、给定语音信号样值x 的概率密度函数为x
e
x p λλ-=
2
1)(,∞<<∞-x ,求)(X H c ,并比较)(X H c 与具有同样方差的正态变量的连续熵的大小。
9、某二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢
⎣⎡5.05.010)(x p X ,其失真矩阵定义为⎥
⎦
⎤⎢⎣⎡=00a a D ,求该信源的max D ,min D 和该信源的信息率失真函数)(D R 。
10、设连续信源X ,其概率密度函数为x
a e a x p -=2
)(,失真度为y x y x d -=),(,试求此信源的)(D R 函数。
11、一个二进制非等概信源,符号集}1,0{=A ,p p p ==1)0(,p p p -==1)1(2,试验信道输出符号集}1,0{=B ,失真函数为汉明失真。
求该信源的信息率失真函数)(D R 。
12、设一个四元等概信源⎥⎦
⎤⎢⎣⎡=⎥⎦⎤⎢
⎣⎡25.025.025.025.03210
)(x p X ,接收符号集为}3,2,1,0{=Y A ,失真矩阵定义为⎥
⎥⎥⎥⎦
⎤
⎢⎢⎢
⎢⎣⎡=0111
10111101
1110D ,求max D ,min D 及信源的)(D R 函数,
并作出率失真函数曲线(取4到5个点)。
13、信源符号X 有6种字母,概率为,,,,,。
(1) 求符号熵)(X H 。
(2) 用香农编码法编成二进制变长码,计算其编码效率。
(3) 用费诺编码法编成二进制变长码,计算其编码效率。
(4) : (5) 用霍夫曼编码法编成二进制变长码,计算其编码效率。
(6) 用霍夫曼编码法编成三进制变长码,计算其编码效率。
14、信源符号X 有6种字母,概率为,,,,,。
a) 求符号熵)(X H 。
b) 用香农编码法编成二进制变长码,计算其编码效率。
c) 用费诺编码法编成二进制变长码,计算其编码效率。
d) 用霍夫曼编码法编成二进制变长码,计算其编码效率。
e) 用霍夫曼编码法编成三进制变长码,计算其编码效率。
15、有一个n 元等概率、平稳无记忆信源}1,,1,0{-=n X ,接收符号集为
}1,,1,0{-=n Y ,且规定失真矩阵为
⎥⎥⎥⎥
⎦
⎤⎢⎢⎢
⎢⎣⎡=011101110][ d {
求率失真函数)(D R 。
16、设高斯信源X 的概率密度函数为
()⎥⎦
⎤⎢⎣⎡--=
2
22exp 21
)(σσπm x x p
且失真函数定义为差方失真,()2
2
),(z y x y x d =-=。
求该信源的率失真函数的香农下限。
17、设有多维无记忆加性连续信道,输入信号序列为:()L x x x x ,,,21
=,输出信号序列为:
()L y y y y ,,,21 =,其噪声为高斯噪声,噪声序列()L n n n n ,,,21 =中的各分量是均值为0,
方差为2
i σ的高斯噪声,分两种情况计算其信道容量:
(1)在各单元时刻(L i ,,2,1 =)上的噪声都是均值为0、方差为2
σ的高斯噪声; (2)在各单元时刻(L i ,,2,1 =)上的噪声都是均值为0、方差为2
i σ的高斯噪声,但
输入信号的总平均功率受限,其约束条件为:
[]
P P x E x E L
i i L i i L i i ===⎥⎦⎤⎢⎣⎡∑∑∑===11
2
12
18、设二进制对称信道的转移概率矩阵为
{
⎥⎦
⎤⎢⎣⎡=3/23/13/13/2P
(1)若4/3)(0=x p ,4/1)(1=x p ,求)(X H ,)/(Y X H ,)/(X Y H 和);(Y X I ;
(2)求该信道的信道容量及其达到信道容量时的输入概率分布。
19、某信源发送端有两个符号:2,1,=i x i ,a x p =)(1,每秒发出一个符号。
接收端有三种符号:3,2,1,=j y j ,转移概率矩阵
⎥
⎦
⎤
⎢⎣⎡=4/14/12/102/12/1P (1)计算接收端的平均不确定性;
(2)计算由于噪声产生的不确定性)/(X Y H ;
(3)计算信道容量。
20、在干扰离散信道上传输符号1和0,在传输过程中每100个符号发生一个错传的符号。
已知2/1)1()0(==p p ,信道每秒内允许传输1000个符号。
求此信道的容量。
21、发送端有三种等概率符号),,(321x x x ,3/1)(=i x p ,接收端收到三种符号),,(321y y y ,信道转移概率矩阵为
—
⎥⎥
⎥⎦
⎤
⎢⎢⎢⎣⎡=09.01.03.03.04.02.03.05.0P
(1)计算接收端收到一个符号后得到的信息量)(Y H ; (2)计算噪声熵)/(X Y H ;
(3)计算接收端收到一个符号2y 的错误概率; (4)计算从接收端看的平均错误概率;
(5)计算从发送端看的平均错误概率; (6)从转移矩阵中能看出该信道的好坏吗 (7)计算发送端的)(X H 和)/(Y X H 。
22、设无记忆信源⎥
⎦
⎤⎢⎣⎡-=⎥⎦⎤⎢
⎣⎡3/1,3/1,3/11,0,1)(x p X ,接收符号集⎭⎬⎫
⎩⎨⎧-=21,21Y ,失真矩阵⎥⎥
⎥⎦
⎤
⎢⎢⎢⎣⎡=121121D ,试求:max D 和min D 及达到max D 、min D 时的转移概率矩阵。
23、已知二元信源⎥⎦⎤⎢⎣⎡-=⎥⎦⎤⎢
⎣⎡p p x p X 1,1,0)(以及失真矩阵[]
⎥
⎦
⎤
⎢⎣⎡=0110ij d ,试求: '
(1)min D ;(2)max D ;(3))(D R 。
24、某信源有8个符号{}8321,,,,a a a a ,概率分别为1/2,1/4,1/8,1/16,1/32,1/64,1/128,1/128,试编成这样的码:000,001,010,011,100,101,110,111的码。
求
(1)信源的符号熵)(X H 。
(2)出现一个1或一个0的概率。
(3)这种码的编码效率。
(4)相应的香农码及其编码效率。
(5)相应的费诺码及其编码效率。
25、已知符号集合{} ,,,321x x x 为无限离散消息集合,它们出现的概率分别为2/1)(1=x p ,
4/1)(2=x p ,8/1)(3=x p ,i i x p 2/1)(=等。
(1)用香农编码方法写出各个符号消息的码字。
(2)计算码字的平均信息传输速率; (3)计算信源编码效率。
26、已知一信源包含8个消息符号,其出现的概率为
{}
.0,1.0
18
)
X
P。
(=
.0,4.0,
05
04
07
.0,
.0,
06
.0,1.0,
(1)若该信源在每秒内发出一个符号,求该信源的熵和信息传输速率。
(2)对这8个符号作霍夫曼编码,写出相应码字,并求出编码效率。
(3)采用香农编码,写出相应码字,求出编码效率。
(4)采用费诺编码,写出相应码字,求出编码效率。