信息论与编码试题集与复习资料新

合集下载

信息论与编码试题集

信息论与编码试题集

信息论与编码试题集题目一:1. 请解释以下术语的含义:a) 信源熵b) 信源编码c) 香农定理d) 奈奎斯特准则e) 奇偶校验码2. 在一个二进制对称信道中,如果发送方发送的比特为0,接收方接收到的比特也为0的概率为0.9,发送方发送的比特为1,接收方接收到的比特也为1的概率为0.8。

请计算该信道的信道容量。

题目二:1. 在一个具有4个等概率输出符号的信源中,计算该信源的熵。

2. 一个典型的英文字母出现的概率如下:P(A) = 0.4, P(B) = 0.3, P(C) = 0.2, P(D) = 0.1。

请计算该信源的平均码长以及编码效率。

题目三:1. 请解释Huffman编码的原理及步骤。

2. 使用Huffman编码对以下信源的输出编码:A: 0.3,B: 0.2,C: 0.15,D: 0.1,E: 0.1,F: 0.05,G: 0.05,H: 0.05。

计算编码的平均码长和编码效率。

题目四:1. 请解释线性分组码和卷积码的区别。

2. 针对一个二进制码串11001011,使用以下生成矩阵计算该码串的卷积码:G = [1 1 0 1; 1 0 1 0]。

给出计算过程和最终编码结果。

题目五:1. 请解释码激励方法。

2. 针对一个码激励线性分组码,当收到的码字为101010时,给出该码字的输入和输出码字。

题目六:1. 请解释BCH编码的原理及应用场景。

2. 对一个BCH(n, k)码,当n=15,k=11时,请给出该BCH码的生成矩阵。

题目七:1. 请解释LDPC码以及LDPC码的译码方法。

2. 对于一个n=7,k=4的LDPC码,给出该LDPC码的校验矩阵。

题目八:1. 请比较分组密码与流密码的特点和应用场景。

2. 使用RC4流密码算法对明文"HELLO"进行加密,已知初始密钥为"KEY",给出加密后的密文。

题目九:1. 请解释区块密码与流密码的工作原理和区别。

信息论与编码题库及答案

信息论与编码题库及答案

信息论与编码题库及答案信息论是一门关于信息传输和处理的学科,主要研究信息的传输、存储与处理,以及在信息传输过程中可能产生的各种噪声和干扰。

信息论在近年来得到了广泛的应用,尤其在计算机科学、通信工程、数据处理以及加密技术等领域中得到了广泛应用。

作为信息处理学科的一个分支,编码学是信息论中重要的研究领域之一,主要研究在信息传输的过程中如何将信息进行编码,并在保证高可靠性的同时减少信息传输的开销。

现代编码学研究所涉及到的内容非常广泛,包括错误检测、纠正编码、信息压缩以及密码学等领域。

为了帮助广大信息与通信工程学习者更好地掌握编码理论及其应用,以下总结了一些编码学的题库及答案,供大家参考。

一、错误检测编码1. 什么是奇偶校验码?答:奇偶校验码是一种简单的错误检测编码方式,它采用了消息的一位奇偶性作为编码方式。

具体而言,对于一组位数固定的二进制数,在其中加入一个附加位,使得这组数的位数为偶数。

然后将这些二进制数按照某种规则排列,例如相邻的两位组成一组,计算每组中1的个数。

如果某组中1的个数是偶数,则附加位赋值为0,否则为1。

这样,如果在传输的过程中数据出现了单一位的错误,则会被检测出来。

2. 什么是海明编码?答:海明编码是一种通过添加校验位来实现错误检测和纠正的编码方式。

在海明编码中,校验位的数目为2的k次幂个,其中k 表示数据位中最大1的位置数。

具体而言,将原始信息看作一组二进制数,再将这些数按照某种规则排列,然后按照一定的算法计算出每个校验位的值,并将这些值添加到原始信息中。

在传输的过程中,如果发现了错误的位,则可以通过一系列错误检测和纠正的操作来确定和修复出错的信息位。

二、信息压缩编码1. 什么是霍夫曼编码?答:霍夫曼编码是一种基于无损数据压缩的编码方式,它的特点是可以将原始信息中出现最频繁的字符用最短的二进制码来表示,同时将出现次数较少的字符用较长的二进制码来表示。

具体来说,霍夫曼编码首先对原始信息中的字符进行统计,确定每个字符出现的频率。

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题

《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。

信息论与编码试卷及答案(多篇)

信息论与编码试卷及答案(多篇)

一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2.简述最大离散熵定理。

对于一个有m个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

最大熵值为。

3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R指信道中平均每个符号所能传送的信息量。

信道容量是一个信道所能达到的最大信息传输率。

信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。

4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。

说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。

当信道带宽为5000Hz,信噪比为30dB时求信道容量。

.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。

由得,则6.解释无失真变长信源编码定理。

.答:只要,当N足够长时,一定存在一种无失真编码。

7.解释有噪信道编码定理。

答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。

2)因为失真矩阵中每行都有一个0,所以有,而。

二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

信息论与编码第二章复习资料

信息论与编码第二章复习资料

2-1、一阶马尔可夫链信源有3个符号,转移概率为:,,,,,,,,。

画出状态图并求出各符号稳态概率。

解:由题可得状态概率矩阵为:状态转换图为:令各状态的稳态分布概率为,,,那么:, , =且: 1 稳态分布概率为:=,=,=2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8(0|11)=0.2(1|00)=0.2(1|11)=0.8(0|01)=0.5(0|1 0)=0.5(1|01)=0.5(1|10)=0.5画出状态图,并计算各符号稳态概率。

解:状态转移概率矩阵为:令各状态的稳态分布概率为、、、,利用〔2-1-17〕可得方程组。

且;解方程组得:即:2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是,求:〔1〕、“3和5同时出现〞事件的自信息量;〔2〕、“两个1同时出现〞事件的自信息量;〔3〕、两个点数的各种组合的熵或平均信息量;〔4〕、两个点数之和的熵;〔5〕、两个点数中至少有一个是1的自信息量。

解:〔1〕3和5同时出现的概率为:〔2〕两个1同时出现的概率为:〔3〕两个点数的各种组合〔无序对〕为:(1,1),(1,2),(1,3),(1,4),(1,5),(1,6)(2,2),(2,3),(2,4),(2,5),(2,6)(3,3), (3,4),(3,5),(3,6)(4,4),(4,5),(4,6)(5,5),(5,6)(6,6)其中,(1,1), (2,2), (3,3), (4,4), (5,5), (6,6)的概率为1/36,其余的概率均为1/18所以,事件〔4〕两个点数之和概率分布为:信息为熵为:〔5〕两个点数之中至少有一个是1的概率为:2-4.设在一只布袋中装有100个用手触摸感觉完全一样的木球,每个球上涂有一种颜色。

100个球的颜色有以下三种情况:〔1〕红色球和白色球各50个;〔2〕红色球99个,白色球1个;〔3〕红、黄、蓝、白色球各25个。

信息论与编码期末考试题----学生复习用1

信息论与编码期末考试题----学生复习用1

密文c=?请写出具体的步骤。
六、设有离散无记忆信源,其概率分布如下:
对其进行费诺编码,写出编码过程,求出信
源熵、平均码长和编码效率。
七、信道编码 现有生成矩阵
1. 求对应的系统校验矩阵Hs。 2求该码字集合的最小码字距离d、最大检错能力 、最大纠错能力t max 。
2. 填写下面的es表
e
s
0000000
H(Y/X) 0,I(X;Y) H(X)。
二、若连续信源输出的幅度被限定在【2,6】区域内,当输出
信号的概率密度是均匀分布时,计算该信源的相对熵,并说明 该信源的绝对熵为多少。
三、已知信源
(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长;(4分) (3)计算编码信息率;(2分) (4)计算编码后信息传输率;(2分) (5)计算编码效率。(2分)

2、 一张1024×512像素的16位彩色BMP图像能
包含的最大信息量为

3、 香农编码中,概率为的信源符号xi对应的码
字Ci的长度Ki应满足不等式

3、设有一个信道,其信道矩阵为 ,则它是
信道(填对称,准对称),其信道容量是
比特/信道符号。
三、,通过一个干扰信道,接受符号集为,信道转
移矩阵为
试求(1)H(X),H(Y),H(XY);
0000001
0000010
0000100
0001000
0010000
0100000
1000000
4. 现有接收序列为,求纠错译码输出。 5. 5. 画出该码的编码电路
(四)
4、 简答题 1. 利用公式介绍无条件熵、条件熵、联合熵和平均互信息 量之间的关系。 2. 简单介绍哈夫曼编码的步骤

信息论与编码试卷及答案

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分)二、1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。

平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。

2.简述最大离散熵定理。

对于一个有m个符号的离散信源,其最大熵是多少?最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

最大熵值为3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?信息传输率R指信道中平均每个符号所能传送的信息量。

信道容量是一个信道所能达到的最大信息传输率。

信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。

4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。

说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。

当信道带宽为5000Hz,信噪比为30dB时求信道容量。

香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。

6.由得,则7.解释无失真变长信源编码定理。

只要,当N足够长时,一定存在一种无失真编码。

8.解释有噪信道编码定理。

答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

9.10.8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。

11.2)因为失真矩阵中每行都有一个0,所以有,而。

二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

信息论与编码复习题

信息论与编码复习题

一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。

d)。

2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。

4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。

5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。

所以描述循环码的常用数学工具是(码多项式)。

6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。

7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。

8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。

9.信源编码的主要任务是(减少冗余,提高编码效率)。

10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。

11.信道编码的主要目标是(提高信息传送的可靠性)。

12.信源可分为两大类,及()信源和()信源。

13.唯一可译码又分为()码和()码。

14.游程编码的码字通常由()和()组合而成。

15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。

16.常用的译码方法有()译码和()译码。

二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。

2.可以用生成多项式来描述任何线性分组码。

3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。

4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。

5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。

6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。

7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。

信息论与编码复习题

信息论与编码复习题

1.已知一(3,1,3)卷积码编码器,输入输出关系为:试给出其编码原理框图。

答:2.求以下信道的信道容量:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=00101000000101001P , 答:P1为一一对应确定信道,因此有。

3.设某二元码书C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率?②采用最小距离译码准则,当接收序列为001010时,应译成什么码字?4.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按(0)0.6,(1)0.4P P ==发出符号,求)/(),(2132X X X H X H 和平均符号熵)(1lim 1N N X X H N∧∞→ ?5.二元无记忆信源,有31(0),(1),44P P ==求: (1)某一信源序列由100个二元符号组成,其中有m 个“1”,求其自信息量? (2)求100个符号构成的信源序列的熵。

(3)输入为等概率分布时,试写出一译码规则,使平均译码错误率e P 最小,并求此?=e P 6.设有一离散信道,其信道矩阵为⎥⎦⎤⎢⎣⎡=7.01.02.02.01.07.0P ,求: (1)最佳概率分布?(2)当3.0)(,7.0)(21==x p x p ,时,求平均互信息?);(=Y X I 信道疑义度?)/(=Y X H 答:1)是准对称信道,因此其最佳输入概率分布为5.0)()(21==x p x p 。

2)当3.0)(,7.0)(21==x p x p ,时,有则符号/18.0);(bit Y X I =3)此时可用最大似然译码准则,译码规则为且有7.二元对称信道的信道矩阵为⎥⎦⎤⎢⎣⎡9.01.01.09.0,信道传输速度为1500二元符号/秒,设信源为等概率分布,信源消息序列共有13000个二元符号,问: (1)试计算能否在10秒内将信源消息序列无失真传送完?(2)若信源概率分布为3.0)1(,7.0)0(==p p ,求无失真传送以上信源消息序列至少需要多长时间?答:1)信道容量为信源序列信息量为而10秒内信道能传递的信息量为故不能无失真地传送完。

信息论与编码复习

信息论与编码复习

信息论与编码复习
去年考点(部分):
简答题:香农第一定理P106、香农第二定理P141
计算题:马尔可夫信源P37、香农编码P110、霍夫曼编码P111、费诺编码P115、平均错误概率P131(例6.3)、例5.10。

重点:
第二章:本章为基础性内容,主要是理解专业词语的含义,记住公式,可参考笔记。

第三章:
重点3.3节,特别是马尔可夫信源P37~P40,会画状态转移图,会求状态转移概率矩阵(例3.5 P38、例3.6 P40)。

第四章:
各种信道容量的计算P58(例4.1、4.2、4.3)、离散对称信道的判别和信道容量计算P61~P64。

第五章:
定长码、码的分类P91、定长码及定长编码定理P94、编码效率P97、Kraft和McMillan不等式、唯一可译码存在条件P100、编码效率及剩余度P108、变长码编码(例 5.5 P108、例5.6 P110、例5.7 P112、例5.8 P115、例5.9 P116)。

第六章:
最大后验概率译码准则、极大似然译码规则P131、平均错误概率P131(例6.3 P131)、编码效率P150、线性分组码P150(例6.6 、6.7、6.8 P154、例5.10 P161)。

信息论与编码期末考试题(全套)

信息论与编码期末考试题(全套)

(一)一、判断题共 10 小题,满分 20 分.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ( )3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ( )5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ( )7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码.( ) 9. 率失真函数的最小值是0.( )10.必然事件和不可能事件的自信息量都是0.( )二、填空题共 6 小题,满分 20 分.1、码的检、纠错能力取决于.2、信源编码的目的是;信道编码的目的是.3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、.5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是. 7、某二元信源1()1/21/2X P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭,其失真矩阵00a D a ⎡⎤=⎢⎥⎣⎦,则该信源的max D = . 三、本题共 4 小题,满分 50 分.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦.(1) 计算接收端的平均不确定度()H Y ;(2) 计算由于噪声产生的不确定度(|)H Y X ;(3) 计算信道容量以及最佳入口分布.2、一阶马尔可夫信源的状态转移图如右图所示, 信源X 的符号集为}2,1,0{.(1)求信源平稳后的概率分布; (2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵)(X H 并与H ∞进行比较. 4、设二元)4,7(线性分组码的生成矩阵为图2-13⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G . (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则 试着对其译码.(二)一、填空题(共15分,每空1分)1、信源编码的主要目的是,信道编码的主要目的是。

信息论与编码试卷及答案

信息论与编码试卷及答案

一、(11’)填空题(1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是0 。

(3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。

(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。

(5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3 。

(6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。

(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。

(8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关二、(9')判断题(1)信息就是一种消息。

(⨯)(2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(√)(3)概率大的事件自信息量大。

(⨯)(4)互信息量可正、可负亦可为零。

(√)(5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。

(⨯)(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。

( √ ) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。

( ⨯ ) (8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。

( √ )(9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ⨯ )三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

完整word版信息论与编码理论复习题一

完整word版信息论与编码理论复习题一

信息论与编码理论复习题(一)一、填空题(1)1948 年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是。

(3)离散平稳无记忆信源X 的 N 次扩展信源的熵等于离散信源X 的熵的。

(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为___。

(5)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是。

(6)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R____C (大于、小于或者等于),则存在一种编码,当输入序列长度n 足够大,使译码错误概率任意小。

(7)平均错误概率不仅与信道本身的统计特性有关,还与______________和 ______有关。

二、综合题1..黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

给出这个只有两个符号的信源X 的数学模型。

假设图上黑白消息出现前后没有关联,求熵H X ;2)假设黑白消息出现前后有关联,其依赖关系为,,,,求其熵。

3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。

2.信源空间为X x1x2x3x4x5x6x7,试构造二元霍夫曼码,计算其平均P(X)0.2 0.19 0.18 0.170.150.10.01码长和编码效率(要求有编码过程)。

3..二元对称信道如图。

3, p 111)若p 0,求H X 、H X|Y和I X;Y ;442)求该信道的信道容量。

0 0 0 1 11 4.设一线性分组码具有一致监督矩阵H0 1 1 0 011 0 1 0 111)求此分组码n=?,k=?共有多少码字?2)求此分组码的生成矩阵G。

3)写出此分组码的所有码字。

4)若接收到码字(101001),求出伴随式并给出翻译结果。

参考答案:填空(1)香农( 2)0 ( 3)N 倍( 4)信源符号等概分布综合题1.解: 1)信源模型为2)由题意可知该信源为一阶马尔科夫信源。

信息论与编码复习题1(1)

信息论与编码复习题1(1)

一、填空题1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。

2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT(1.5)__个随机错。

3.克劳夫特不等式是唯一可译码___存在___的充要条件。

4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y )5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__加密__编码的目的是保证通信的安全性。

6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密编码的目的是保证通信的 安全性 。

7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。

8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。

9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。

10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移码估值 。

11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。

二、单项选择题1.下面表达式中正确的是( A )。

A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩色电视显像管的屏幕上有5×105个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。

信息论与编码试题集与答案(新)

信息论与编码试题集与答案(新)

一填空题(本题20分,每小题2分)1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

3、最大熵值为。

4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。

6、只要,当N足够长时,一定存在一种无失真编码。

7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成客观信息和主观信息。

人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

信息的可度量性是建立信息论的基础。

统计度量是信息度量最常用的方法。

熵是香农信息论最基本最重要的概念。

事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。

12、自信息量的单位一般有 比特、奈特和哈特 。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是 ∞ 。

15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。

18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。

信息论与编码理论(最全试题集+带答案+各种题型)

信息论与编码理论(最全试题集+带答案+各种题型)
6.相比于模拟通信系统,简述数字通信系统的优点。
答:抗干扰能力强,中继时可再生,可消除噪声累计;差错可控制,可改善通信质量;便于加密和使用DSP处理技术;可综合传输各种信息,传送模拟系统时,只要在发送端增加莫属转换器,在接收端增加数模转换器即可。
7.简述信息的性质。
答:存在普遍性;有序性;相对性;可度量性;可扩充性;可存储、传输与携带性;可压缩性;可替代性;可扩散性;可共享性;时效性;
A.形式、含义和安全性
B.形式、载体和安全性
C.形式、含义和效用
D.内容、载体和可靠性
20.(D)是香农信息论最基本最重要的概念
A.信源B.信息C.消息D.熵
三.简答(
1.通信系统模型如下:
2.信息和消息的概念有何区别?
答:消息有两个特点:一是能被通信双方所理解,二是能够互相传递。相对于消息而言,信息是指包含在消息中的对通信者有意义的那部分内容,所以消息是信息的载体,消息中可能包含信息。
31.简单通信系统的模型包含的四部分分别为信源、有扰信道、信宿、干扰源。
32. 的后验概率与先念概率的比值的对数为 对 的互信息量。
33.在信息论中,互信息量等于自信息量减去条件自信息量。
34.当X和Y相互独立时,互信息为0。
35.信源各个离散消息的自信息量的数学期望为信源的平均信息量,也称信息熵。
第一章
一、填空(
1.1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2.按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
3.按照信息的地位,可以把信息分成客观信息和主观信息。
4.人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1. 在无失真的信源中,信源输出由 R(D)来度量。

2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后 一加密_ 编码,再_信道. 编码,最后送入信道。

3•带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公 式是C Wlog(1 SNR);当归一化信道容量 C/W 趋近于零时,也即信道完全丧失了通 信能力,此时E b /N o 为-1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论 极限。

2x x 1,则信息位长度k 为_3_,校验多项式6. 设输入符号表为 X = {0 , 1},输出符号表为 Y = {0,1}。

输入信号的概率分布为 p = (1/2,1/2),失真函数为 d(0, 0) = d(1, 1) = 0 , d(0, 1) =2 , d(1 , 0) = 1,则 D min = _0_, R(D min ) 1 0[p(y/x)] = ; D max = 0.5 , R(D max )=0 11L ,相应的编码器转移概率矩阵[p(y/x)] = 17. 已知用户 A 的RSA 公开密钥(e,n)=(3,55), p 5,q密钥(d,n) = (27,55)。

若用户B 向用户A 发送m=2的加密消息,则该加密后的消息为、判断题1. 可以用克劳夫特不等式作为唯一可译码存在的判据。

()2. 线性码一定包含全零码。

()3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。

(X)4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

(X)5.离散平稳有记忆信源符号序列的平均符号熵随着序列长度 L 的增大而增大。

(X) 6.限平均功率最大熵定理指出对于相关矩阵一定的随机矢量 X ,当它是正态分布时具有最大熵。

() 7. 循环码的码集中的任何一个码字的循环移位仍是码字。

() 8. 信道容量是信道中能够传输的最小信息量。

(X) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。

(X) 10. 在已知收码R 的条件下找出可能性最大的发码C i 作为译码估计值,这种译码方H(X) 来度量;在有失真的信源中,信源输出由4.保密系统的密钥量越小,密钥熵 C)就越大。

H(K)就越 小,其密文中含有的关于明文的信息量 I(M ;信道 5. 已知n = 7的循环码g(x)3 h(x)=—x x 1 x 41bit/symbol ,相应的编码器转移概率矩阵 11,则(n)40 ,他的秘密法叫做最佳译码。

()三、计算题某系统(7, 4)码c( G C5 C4C3C2G C0) (m3 m2 m1 m°C2 G c°)其三位校验位与信息位的关系为:C2m3叶m°C1m3m2m1c 0m2m1m°(1)求对应的生成矩阵和校验矩阵;(2 )计算该码的最小距离;(3 )列出可纠差错图案和对应的伴随式;(4)若接收码字R=1110011,求发码。

100011010 1I 1100解:1.0100011G H1 1 11 001000101110 1 11 100100011012. d min=33.4. RH T=[001] 接收出错E=0000001 R+E=C =(发码)四、计算题X Y01已知X,Y的联合概率p x,y为:求H X ,H Y ,H X,Y ,I X;Y01/31/31亠1/3解:p(x 0) 2/3 p(x 1) 1/3p(y 0) 1/ 3 p(y 1) 2/3H X H Y H (1/ 3,2/3) 0.918 bit/symbolH X,Y H (1/3,1/ 3,1/ 3)=1.585 bit/symbolI X;Y H(X) H (Y) H(X,Y) 0.251 bit/symbol、计算题一阶齐次马尔可夫信源消息集X {a!> a2, a3},状态集S{ S|, S2, S3},且令S i a i,i 1,2,3,条件转移概率为P(a j/S)1 4 14 121 3 1 3 1 3, (1)画出该马氏链的状态转移图;2 3 13 0(2)计算信源的极限熵。

解:⑴1 1 24吗1W2 3 W3 W i!W i 3 W2 3W3 W2 W1 0.4(2)1W11W2W3T w2 0.3/ w30.3 w1w2w31H(X|S1)=H(1/4,1/4,1/2)=1.5 比特/符号H(X|S2)=H(1/3,1/3,1/3)=1.585 比特/符号H(X|S3)=H(2/3,1/3)= 0.918 比特/符号3 Hiw. H 1 iX |S. i 0.4 1.5 0.3 1.585 0.3 0.918 1.351 比特/符号六、计算题若有- 信源X X1x22,每秒钟发出2.55个信源符号。

P0.80.2将此信源的输出符号送入某一个二元信道中进行传输 (假设信道是无噪无损的,容量为1bit/二元符号),而信道每秒钟只传递2个二元符号。

(1 ) 试问信源不通过编码(即 x i 0,X 2 1在信道中传输) (2) 能否直接与信道连接?(3) 若通过适当编码能否在此信道中进行无失真传输? (4) 试构造一种哈夫曼编码(两个符号一起编码), (5)使该信源可以在此信道中无失真传输。

解:1•不能,此时信源符号通过 0, 1在信道中传输,2.55二元符号/s>2二元符号/s信息理论与编码试卷A 答案中南大学考试试卷200 -- 2010 学年 丄学期期末考试试题时间100分钟2.55* H(0.8,0.2) = 1.84 < 1*20 X 1X 1 0.64―0.64 -11 X 1X 2 0.163.100 X2X1 0.160/ 匕 0.161101X2X20.0』—► 0.640 1.0.3*此时 pK j 0.64 0.16*2 1.56/2*2.55=1.989 二元符号 0.2*31.56二元符号/2个信源符号/s < 2二元符号 /s解:(1)11 P RP 211(2) Clog 2 H((1)22)(1 )2 2 2 (1 ) 2 (1 ) (1 )2 242.从信息率进行比较, 可以进行无失真传输七、计算题两个BSC 信道的级联如右图所示: (1) 写出信道转移矩阵; (2) 求这个信道的信道容量。

信息论基础课程32学时_学分 考试形式: 闭 卷专业年级:通信07级 ___________ 总分100分,占总评成绩70%注:此页不作答题纸,请将答案写在答题纸上一填空题(本题20分,每小题2分)1无失真信源编码的中心任务是编码后的信息率压缩接近到 _J _____ 限失真压缩中心任务是在给定的失真度条件下,信息率压缩接近到_2_ ____ 。

2信息论是应用近代数理统计方法研究信息的传输、存储与处理的科学,故称为_3 ; 1948年香农在贝尔杂志上发表了两篇有关的“通信的数学理论”文章,该文用熵对信源的4的度量,同时也是衡量 _5—大小的一个尺度;表现在通信领域里, 发送端发送什么有一个 不确定量,通过信道传输,接收端收到信息后,对发送端发送什么仍然存在一个不确定量, 把这两个不确定量差值用6来表示,它表现了通信信道流通的7,若把它取最大值,就是通信线路的_8_,若把它取最小值,就是 _9_。

3若分组码H 阵列列线性无关数为 n,则纠错码的最小距离 d min 为10 。

二 简答题 (本题20分,每小题4分)1. 根据信息理论当前无失真压宿在压宿空间和速度两个方向还有研究价值吗?2. 我们知道,“猫”(调制解调器的俗称)是在模拟链路上传输数字数据的设备,它可以在 一个音频电话线上传输二进制数据,并且没有太高的错误率。

现在,我们上网用的“猫”的 速度已可达到56Kbps 了,但是,如果你用网络蚂蚁或其它软件从网上下载东西时,你会发 现很多时候网络传输的速度都很低,远低于 56Kbps (通常音频电话连接支持的频率范围为300Hz 到3300Hz ,而一般链路典型的信噪比是 30dB )(摘自中新网) 3.结合信息论课程针对”信息”研究对象 ,说明怎样研究一个对象4. 用纠错编码基本原理分析由下列两种生成矩阵形成线性分组码的优劣fl I 0 1 0^1G —1010101 \ J5.新华社电,2008年5月16日下午6时半,离汶川地震发生整整100个小时。

虚弱得已近 昏迷的刘德云被救援官兵抬出来时, 看到了自己的女儿。

随即,他的目光指向自己的左手腕。

女儿扑上去,发现父亲左手腕上歪歪扭扭写着一句话:“我欠王老大 3000元。

”请列出上面这段话中 信号、消息、信息。

c —■0 1 1 10 110 1(1)1 )(2)三计算编码题(本题60分)1. 从大量统计资料知道,男性中红绿色盲的发病率为7%女性发病率为0.5%。

(10分)(1)若问一位女士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量?从计算的结果得出一个什么结论?(2)如果问一位女士,问她回答(是或否)前平均不确定性和回答(是或否)后得到的信息量各为多少?2•黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。

设黑色出现的概率为P(黑)=0.5,白色出现的概率为P(白)=0.5。

(10分)(1)假设图上黑白消息出现前后没有关联,求信源的H4商;(2)假设消息只前后有关联,其依赖关系为P(白/白)=0.8 , P(黑/白)=0.2 , P(白/黑)=0.4 , P(黑/黑)=0.6,求信源的H4商;(3)比较上面两个卡的大小,并说明其物理含义。

3. 离散无记忆信源P(x1)=8/16 ; P(x2)= 3/16 ; P(x3)= 4/16 ; P(x4)=1/16 ; (10 分)(1) 计算对信源的逐个符号进行二元定长编码码长和编码效率;(2) 对信源编二进制哈夫曼码,并计算平均码长和编码效率。

(3) 你对哈夫曼码实现新信源为等概的理解。

2 14. 设二元对称信道的传递矩阵为 3 33 3若P(0) = 3/4, P(1) = 1/4,求该信道的信道容量及其达到信道容量时的输入概率分布;并说明物理含义。

(10分)5.设信源X x1X2通过一干扰信道,接收符号为Y = { y1, y2 },信道转移P(X)0.6 0.45矩阵为616,求: (10 分)44(1)收到消息y j(j=1)后,获得的关于X i (i=2)的信息量;⑵信源X和信宿Y的信息熵;信道疑义度H(X/Y)和噪声熵H(Y/X);(3)接收到信息Y后获得的平均互信息量。

相关文档
最新文档