信息论复习题

合集下载

信息论复习题

信息论复习题

信息论复习题1、求基本高斯信源的差熵。

(10分)2、一个随机变量x 的概率密度函数为kx x p =)(,V x 20≤≤。

试求该信源的相对熵。

3、黑白气象传真图的消息只有黑色和白色两种,即信源{}黑,白=X ,设黑色的出现概率为3.0(=黑)P ,白色的出现概率为7.0(=白)P 。

(1)假设图上黑白消息出现前后没有关联,求熵)(X H 。

(2)假设消息前后有关联,其依赖关系为9.0/(=白)白P ,1.0/(=白)黑P ,2.0/(=黑)白P ,8.0/(=黑)黑P ,求此平稳离散信源的熵)(2X H 。

(3)分别求上述两种信源的剩余度,比较)(X H 和)(2X H 的大小。

4、给出求一般离散信道的信道容量的计算步骤并用拉格朗日乘子法加以证明。

5、给出离散无记忆信源的信息率失真函数的参量表述并用拉格朗日乘子法加以证明。

6、若信道的输入和输出分别是N 长序列X 和Y ,且信道是无记忆的,则∑=≤Nk k k Y X I Y X I 1),();(,这里k X 和k Y 分别是序列X 和Y 中第k 位随机变量;并且证明当且仅当信源也是无记忆信源时等号成立。

7、有一并联高斯加性信道,各子信道的噪声均值为0,方差为2i σ:21σ=0.1,22σ=0.2,23σ=0.3,24σ=0.4,25σ=0.5,26σ=0.6,27σ=0.7,28σ=0.8,29σ=0.9,210σ=1.0(W )。

输入信号X 是10个相互统计独立、均值为0、方差为i P 的高斯变量,且满足:)(1101W P i i=∑=。

求各子信道的信号功率分配方案。

8、给定语音信号样值x的概率密度函数为x e x p λλ-=21)(,∞<<∞-x ,求)(X H c ,并比较)(X H c 与具有同样方差的正态变量的连续熵的大小。

9、某二元信源=5.05.010)(x p X ,其失真矩阵定义为??=00a a D ,求该信源的max D ,min D 和该信源的信息率失真函数)(D R 。

信息论复习资料

信息论复习资料

判断30名词解释4*5计算3道20分第一章1、自信息和互信息P6 公式2、信道P9 概念第二章1、离散平稳信源P18概念2、离散无记忆信源P19概念3、时齐马尔可夫信源P20概念4、自信息P22概念5、信息熵P25概念6、信息熵的基本性质P281)对称性2)确定性3)非负性4)扩展性5)可加性6)强可加性7)递增性8)极值性9)上凸性7、联合熵条件熵P42公式P43例题8、马尔克夫信源P54公式P55例题9、信源剩余度P5810、熵的相对率信源剩余度P5811、课后作业:2、4、13、21、22第三章1、有记忆信道P73概念2、二元对称信道BSC P743、前向概率、后向概率、先验概率、后验概率P764、条件熵信道疑义度、平均互信息P775、平均互信息、联合熵、信道疑义度、噪声熵计算公式P786、损失熵噪声熵 P797、平均互信息的特性P821)非负性2)极值性3)交互性4)凸状性8、信息传输率R P869、无噪无损信道P87概念10、有噪无损信道P88概念11、对称离散信道 P89概念12、对称离散信道的信道容量P90公式张亚威2012/06/20张亚威2012/06/2116、 数据处理定理 P113定理 17、 信道剩余度 P118公式 18、 课后作业:1、 3、 9第五章1、 编码:实质上是对信源的原始符号按一定的数学规则进行的一种变换。

2、 等长码 P172概念3、 等长信源编码定理 P1784、 编码效率 P1805、 克拉夫特不等式 P1846、 香农第一定理 P1917、 码的剩余度 P194第六章1、 最大后验概率准则 最小错误概率准则 P2002、 最大似然译码准则 P2013、 费诺不等式 P2024、 信息传输率(码率) P2055、 香农第二定理 P2156、 课后习题 3、第八章1、 霍夫曼码 最佳码 P2732、 费诺码 P2793、 课后习题 11、第八章1、 编码原则 译码原则 P3072、 定理9.1 P3133、 分组码的码率 P314公式4、 课后习题 3、一、 填空题1、 在现代通信系统中,信源编码主要用于解决信息传输中的 有效性 ,信道编码主要用于解决信息传输中的 可靠性 ,加密编码主要用于解决信息传输中的 安全性 。

信息论考试题

信息论考试题

一.填空1.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。

2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。

3.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。

4.离散对称信道输入等概率时,输出为 等概 分布。

5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。

6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。

12设有DMC,其转移矩阵为[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2/16/13/13/12/16/16/13/12/1|XY P ,若信道输入概率为[][]25.025.05.0=X P ,试确定最佳译码规则和极大似然译码规则,并计算出相应的平均差错率。

解:⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8/124/112/112/18/124/112/16/14/1][XYP最佳译码规则:⎪⎩⎪⎨⎧===331211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/6-1/8=11/24;极大似然规则:⎪⎩⎪⎨⎧===332211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/8-1/8=1/2。

信息论 复习题

信息论 复习题

【】设8个等概率分布的消息通过传递概率为p的BSC进行传送,8个消息相应编成下述码字:M1=0000,M2=0101,M3=0110,M4=0011M5=1001,M6=1010,M7=1100,M8=1111试问:〔1〕接收到第一个数字0与M1之间的互信息;〔2〕接收到第二个数字也是0时,得到多少关于M1的附加互信息;〔3〕接收到第三个数字仍为0时,又增加了多少关于M1的互信息;〔4〕接收到第四个数字还是0时,再增加了多少关于M1的互信息。

解:各个符号的先验概率均为1/8(1)根据条件,有因此接收到第一个数字0与M1之间的互信息为:〔2〕根据条件,有因此接收到第二个数字也是0时,得到多少关于M1的互信息为:得到的附加信息为:〔3〕根据条件,有因此接收到第三个数字也是0时,得到多少关于M1的互信息为:此时得到的附加信息为:〔4〕根据条件,有因此接收到第四个符号为0时,得到的关于M1的互信息为此时得到的附加信息为【】设二元对称信道的传递矩阵为〔1〕假设P(0)=3/4,P(1)=1/4,求H(X ),H(X | Y ),H(Y | X )和I (X;Y);〔2〕求该信道的信道容量及其到达信道容量时的输入概率分布。

解:〔1〕根据条件,有【】假设X 、Y 和Z 是三个随机变量,试证明:〔1〕I (X;YZ) = I(X;Y) + I(X;Z | Y) = I (X;Z) + I (X;Y | Z) 〔2〕I (X;Y | Z) = I (Y; X | Z) = H(X | Z) - H(X | YZ) 〔3〕I (X;Y | Z) ³0当且仅当(X, Z,Y)是马氏链时等式成立。

(3)【】求以下两个信道的信道容量,并加以比拟因此有【】在图片传输中,每帧约个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。

试计算每秒钟传送30帧图片所需信道的带宽〔信噪功率比为30dB〕。

信息论复习必考题

信息论复习必考题

第一天:
1、请问什么是信息
答案:消除不确定因素
2、信息论的奠基人是谁,为什么?
答案:香农,香农三大定律
3、单个信源符号的自信息量的计算方法
答案:概率的倒数的对数
4、信源的离散熵怎么计算,熵的物理含义是什么
答案:熵代表离散程度,离散程度越大,熵值越大。

第二天:
1、请问一个随机变量在什么概率分布的时候,它的熵值最大?怎么和生活中进行对接
答案:概率分布均匀的时候熵值最大
2、请问互信息熵的计算和物理含义是什么?想想一条河流
3、数据处理定理是什么?在数据处理当中,丢失了什么?获得了什么?为什么要数据处理呢?(从通信系统的角度来考虑)沙里淘金
第三天:
1、离散的无记忆信源序列的熵值该怎么计算,它又有什么作用呢?
2、离散的有记忆序列的熵值该怎样计算?
3、极限熵的物理含义是什么?
4、编码的一些基本概念(等长和变长,奇异和非奇异,唯一可译码、平均编码长度、码树、前缀码和非前缀码等)
5、仔细体会从等长编码和变长编码,针对什么样的信源,有什么优缺点
第四天:
1、请问香农第一定理是什么?其含义是什么?如何理解?(信源符号的个数和码字个数之间的关系)
2、。

(完整word版)信息论试卷

(完整word版)信息论试卷

一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。

(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。

A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。

(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。

(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。

(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。

(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。

(T)8、平稳的离散无记忆信道不可用一维概率描述。

(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。

3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。

信息论试题

信息论试题

信息论试题一、选择题1. 信息论的创始人是()。

A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。

A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。

A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。

A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。

A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。

2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。

3. 香农在1948年发表的论文《________》奠定了信息论的基础。

4. 在数字通信中,信道容量可以通过公式________来计算。

5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。

三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。

2. 描述香农信息论中的主要概念及其相互之间的关系。

3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。

4. 讨论信息论对于密码学和信息安全的贡献。

四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。

2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。

3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。

4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。

信息论典型试题及答案

信息论典型试题及答案
(3)根据香农公式:
第五章
5.1将下表所列的信源进行六种不同的二进制编码。
(1)求这些码中哪些是惟一可译码。
(2)哪些码是非延长码
(3)对所有惟一可译码求出其平均码长 。
消息
C1
C2
C3
C4
C5
C6
1/2
000
0
0
0
0
0
1/4
001
01
10
10
10
100
1/16
010
011
110
110
1100
101
27.能够描述无失真信源编码定理
例1:.黑白气象传真图的消息只有黑色和白色两种,求:
1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵H(X);
2)假设黑白消息出现前后有关联,其依赖关系为:P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求其熵H2(X);
10.互信息的性质是什么?
11.熵的表达式、单位、含义是什么?
12.单符号离散信源最大熵是多少?信源概率如何分布时能达到?
13.熵的性质是什么?
14.联合熵、条件熵和熵的关系。
15.平均互信息的定义是什么?平均互信息的表达式怎么推导?
16.平均互信息的含义?
17.信道疑义度、损失熵和噪声熵的含义?
18.平均互信息的性质?(能够证明,并说明每个性质的含义)
解:
由题意可知该二元信道的转移概率矩阵为:
为一个BSC信道
所以由BSC信道的信道容量计算公式得到:
3.14电视图像编码中,若每帧为500行,每行划分为600个像素,每个像素采用8电平量化,且每秒传送30帧图像。试求所需的信息速率(bit/s)。

信息论复习题

信息论复习题

信息论复习题信息论复习题第一、二章一、填空1、 1948年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

2、信息、与信号,是通信理论中常用的三个既有联系又有区别的概念。

信息是系统中的对象,它包含在中。

消息是比较具体的概念,但不是物理的。

信号是表示的物理量。

在通信系统中,传送的本质内容是信息,发送时需要将信息表示成具体的消息,再将消息载至上,才能在实际的通信系统中传输。

3、不考虑加密处理,常用通信系统的物理模型包括信源、信源编码器、信道编码器、信道、和、、信宿七部分。

其中,信源负责向通信系统提供消息;,是消息传递的对象,即接收消息的人或机器;信道是传递消息的,是负责传送物理信号的设施。

4、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为。

5、自信息量的单位一般有。

6、必然事件的自信息是。

7、不可能事件的自信息量是。

8、两个相互独立的随机变量的联合自信息量等于。

9、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量。

10、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的。

11、若信源当前时刻发出的符号只与前m 个符号有关联,而与更前面的符号无关,则称这种信源为信源;若该信源的条件转移概率与时间起点无关,则进一步可称其为信源。

经过足够长时间,该信源处于什么状态已与初始状态无关,此时每种状态出现的概率达到了一种。

12、一维连续随机变量X 在[a ,b]区间内均匀分布时,其信源熵为。

13、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是。

14、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为。

15、对于离散信源,当时其信源熵具有最大值。

16、对于限平均功率的一维连续信源,当概率密度时,信源熵有最大值。

二、判断1、必然事件和不可能事件的自信息量都是0 。

信息论复习题期末答案

信息论复习题期末答案

信息论复习题期末答案1. 信息论的创始人是谁?答案:信息论的创始人是克劳德·香农。

2. 信息熵的概念是什么?答案:信息熵是衡量信息量的一个指标,它描述了信息的不确定性或随机性。

在信息论中,熵越高,信息的不确定性越大。

3. 请简述信源编码定理。

答案:信源编码定理指出,对于一个具有确定概率分布的离散无记忆信源,存在一种编码方式,使得信源的平均编码长度接近信源熵的值,且当信源长度趋于无穷大时,编码长度与信源熵之间的差距趋于零。

4. 什么是信道容量?答案:信道容量是指在特定的通信信道中,能够以任意小的错误概率传输信息的最大速率。

它是信道的最大信息传输率,通常用比特每秒(bps)来表示。

5. 香农公式是如何定义信道容量的?答案:香农公式定义信道容量为信道输入和输出之间的互信息量的最大值,可以表示为C = B log2(1 + S/N),其中C是信道容量,B是信道带宽,S是信号功率,N是噪声功率。

6. 差错控制编码的目的是什么?答案:差错控制编码的目的是为了检测和纠正在数据传输过程中可能发生的错误,以提高数据传输的可靠性。

7. 什么是线性码?答案:线性码是一种特殊的编码方式,其中任意两个合法编码的线性组合仍然是一个合法编码。

线性码通常可以用生成矩阵和校验矩阵来表示。

8. 卷积码和块码有什么区别?答案:卷积码和块码都是差错控制编码的类型,但它们的主要区别在于编码的结构和处理方式。

卷积码是连续的,其编码过程是按时间序列进行的,而块码是离散的,其编码过程是针对数据块进行的。

9. 什么是信道编码定理?答案:信道编码定理指出,对于任何给定的信道和任何小于信道容量的错误概率,都存在一种编码方式,可以使得错误概率趋近于零。

10. 请解释什么是信道编码的译码算法。

答案:信道编码的译码算法是一种用于从接收到的编码信号中恢复原始信息的方法。

常见的译码算法包括维特比算法、最大似然译码和最小均方误差译码等。

这些算法旨在最小化译码错误的概率。

信息论总复习题目

信息论总复习题目

二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。

()()()1lgbc aH x p x dx p x =⎰------3分 ()lg b a =-bit/自由度-------2分三、(10分)一个平均功率受限的连续信道,信道带宽为1MHz ,信道噪声为高斯白噪声。

(1)已知信道上的信号与噪声的平均功率比值为20,计算该信道的信道容量。

(2)如果信道上的信号与噪声的平均功率比值降为10,要达到相同的信道容量,信道带宽应为多少?(3)如果信道带宽降为0.5MHz ,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少?1) ()10lg 1NR c S =+------3分64.3910=⨯b/s---1分2) ()610 1.2710lg 1NR cS ==⨯+Hz---3分3) 21c w NR S =-=440----3分四、(16分)已知信源共7个符号消息,其概率空间为()12345670.20.170.20.170.150.100.01S s s s s s s s P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 试用霍夫曼编码法编成二进制变长码。

并计算信源熵、平均码长、编码后的信息传输率、编码信息率和编码效率。

要求写出详细的编码过程和计算过程。

2 01 S1 0.22 00 S3 0.23 111 S2 0.173 110 S4 0.173 101 S5 0.154 1001 S6 0.104 1000 S7 0.010.20.110.150.170.170.20.260.170.170.20.20.340.20.20.260.260.340.40.60.41.0------6分712.71i i i L P τ===∑位----2分()721log 2.61i i i H s P P ===∑bit/符号--------2分2log 2.71R r τ==’bit/码字--------2分()20.963log H s rητ==----------2分()0.963H s R τ==bit/码元--------2分五、(16分)设一个离散无记忆信源的概率空间为()120.50.5X a a P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 它们通过干扰信道,信道输出端的接收符号集为Y =[b 1,b 2],已知信源传输概率如下图所示。

信息论总复习

信息论总复习

第一章作业题1. 设二元对称信道的传递矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132(1) 若P(0) = 3/4, P(1) = 1/4,求H (X ), H(X /Y ), H(Y /X )和I(X ;Y );(2) 求该信道的信道容量及其达到信道容量时的输入概率分布; 解:(1)symbolbit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbolbit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbolbit x y p x y p x p X Y H symbolbit x p X H jj iji j i j i i i / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/()/()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167.032413143)/()()/()()()()(5833.031413243)/()()/()()()()(/ 918.0 10log )32lg 324131lg 314131lg 314332lg 3243( )/(log )/()()/(/ 811.0)41log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==⨯+⨯-=-==⨯+⨯=+=+==⨯+⨯=+=+==⨯⨯+⨯+⨯+⨯-=-==⨯+⨯-=-=∑∑∑∑2)21)(/ 082.010log )32lg 3231lg 31(2log log );(max 222==⨯++=-==i mi x p symbolbit H m Y X I C2. 设有一批电阻,按阻值分70%是2K Ω,30%是5 K Ω;按瓦分64%是0.125W ,其余是0.25W 。

信息论复习题

信息论复习题

• 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?• 答:平均自信息为• 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

• 平均互信息•表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2.简述最大离散熵定理。

对于一个有m 个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

• 最大熵值为3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。

信道容量是一个信道所能达到的最大信息传输率。

信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

4.解释无失真变长信源编码定理。

答:只要 ,当N 足够长时,一定存在一种无失真编码。

5.解释有噪信道编码定理。

• 答:当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

6.离散平稳信源• 答:若信源输出的消息是取值离散的随机序列,随机序列的任意有限维的概率分布不随时间平移而改变,则称为离散平稳信源。

7.即时码答:如果在译码过程中只要接收到每个码字的最后一个符号就可立即将该码字译出,这种码称为即时码。

8.信道容量答:信息能够可靠传输的最大信息传输速率。

9.信源信道编码定理• 答:设有一离散无记忆平稳信道的每秒容量为C ,一个离散信源每秒的熵为H ,那么,如果H < C ,总存在一种编码系统,使得信源的输出以任意小的错误概率通过信道传输;反之,如果H > C 时,对任何编码编码系统,译码差错率>010.信道疑义度• 答:设信道的输入与输出分别为X 、Y ,定义条件熵H(X/Y)为信道疑义度。

它有如下含义:• 信道疑义度表示接收到Y 条件下X 的平均不确定性;根据I(X;Y)=H(X)-H(X/Y),信道疑义度又表示X 经信道传输后信息量的损失; 接收的不确定性由信道噪声引起,在无噪情况下,H(X/Y)=0。

信息论考题及答案

信息论考题及答案

一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有1H(X,Y)()()logP()()11()()log()()log ()()11()log()log ()()()()xyxyxy xy P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑二、(50分)联合总体X ,Y 具有如下联合分布。

XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375(2) H(X)=2, H(Y)=1.75(3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5(4)H(X|Y)=1.1264(5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。

输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解:(1|1)P x y ===(1|1)(1)(1|)()xP y x P x P y x P x ===∑==9.015.01.085.01.085.0⨯+⨯⨯=22.0085.0=0.39一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+=二、(50分)联合总体X ,Y 具有如下联合分布。

XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少?三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。

信息论复习题及答案

信息论复习题及答案

1.(15分) 彩色电视显象管的屏幕上有5×105 个象元,设每个象元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现并且各个组合之间相互独立。

① 计算每秒传送25帧图象所需要的信道容量; ② 如果在加性高斯白噪声信道上信号与噪声平均功率的比值为63,为实时传送彩色电视的图象,信道的带宽应为多大?2.(15分)已知一个信源包含八个符号消息,它们的概率分布如下表,① 该信源每秒钟内发出一个符号,求该信源的熵及信息传输速率。

② 对八个符号作二进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

③ 对八个符号作三进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

3.(15分)一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。

这些数符组成长度为100的数符组。

我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。

① 求出为所规定的所有源符组都提供码字所需的最小码长。

② 求信源发出一数符组,而编码器无相应码字的概率。

4.(15分) 求下图中DMC 的信道容量。

如果输入分布为{p(x=0)=1/2,p(x=1)=1/4,p(x=2)=1/4),试求输入的信息熵和经过该信道的输入、输出间的平均互信息量。

5.(15分)设二元(7, 4)线性分组码的生成矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G给出该码的一致校验矩阵并写出所有的伴随式和与之相对应的陪集首。

若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码6.(15分)证明最小错误概率译码与最大似然译码在先验等概的条件下等价。

设M =2且两个消息等概,令)0000(1=x ,)1111(2=x 。

通过信道转移概率p<1/2的信道传输。

信息论——精选推荐

信息论——精选推荐

信息论信号论考试复习题⼀、填空题。

1. ⾹农信息论中定义的信息是“事物运动状态和存在⽅式不确定性的描述”。

2. 消息是信息的载体。

构成消息的两个条件是能被通信双⽅所理解和可以在通信中传递和交换。

3. 信源编码的作⽤是根据失真度准则对信源的输出消息进⾏编码,⽤码字表⽰消息。

4. 信息论研究的主要问题是如何提⾼信息传输系统的有效性和可靠性。

5. 如果信源输出的消息的随机变量,可以在某⼀离散集合内取值,也可以在某⼀连续区间内取值,相应的信源就分别称为和。

——[答案:1.连续信源离散信源]6. 当条件概率分布p (y ∣x )给定时,平均互信息量I (X;Y )是输⼊概率分布p(x)的。

——【上凸函数】7. ⼋进制脉冲的平均信息量为,⼋进制脉冲所含信息量是⼆进制脉冲信息量的倍。

——【3 3】8. 熵函数的数学特性有、、、确定性、可加性、极值性、上凸性。

——【对称性⾮负性扩展性】9. 平均互信息量I (X;Y )与信源熵和条件熵之间的关系是。

【I (X;Y )=H (X )—H(X/Y)】 10. 设信源X 包含 4个不同的离散信息,当且仅当X 中各个信息出现的概率为时,信源熵达到最⼤值为,此时各个信息的⾃信息量为。

【1/4 2 2】 11. ⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越。

【⼩】 12. 信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的,⼆是信源符号分布的。

【相关性不均匀性】 13. 离散信道是输⼊和输出的随机变量的取值都是离散的信道。

14. 信道可依据输⼊输出的随机变量类型分成离散信道、连续信道、半离散或半连续信道。

15. 单符号离散信道的输⼊符号是X ,取之于{a1、a2…… an };输出符号为Y ,取值为{b1、b2、……bn },并有条件概率P(Y=bj/X=ai)=P(bj/ai)(i=1、2……m),这⼀组条件概率称为信道的传递概率或转移概率。

信息论与编码期末考试题----学生复习用

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。

2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。

3、三进制信源的最小熵为0,最大熵为32log bit/符号。

4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。

5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。

6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。

7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。

8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22212x f x eσπσ-=时,信源具有最大熵,其值为值21log 22e πσ。

9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。

(2)()()1222H X X H X =≥()()12333H X X X H X =(3)假设信道输入用X 表示,信道输出用Y 表示。

在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。

三、已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。

(2分)(1)010101111.00.20.20.20.20.10.11S 2S 3S 4S 5S 6S编码结果为:1234560001100101110111S S S S S S ====== (2)610.420.63 2.6i i i L P ρ===⨯+⨯=∑码元符号(3)bit log r=2.6R L '=符号(4)() 2.53bit0.9732.6H S R L ===码元其中,()()bit 0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号 (5)()()0.973log H S H S L rLη===四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。

信息论考试卷与答案..

信息论考试卷与答案..

考试科目名称:信息论一. 单选(每空2分,共20分)1.一个m位的二进制数的自信息量为(A )A.m bitB.1 bitC.m2mD.22.信源编码的目的是(A )A.提高通信有效性B.提高信息传输的可靠性C.提高通信系统的安全性D.压缩信源的冗余度3.下面属于最佳变长编码的是(C )A.算术编码和游程编码B.香农编码和游程编码C.哈夫曼编码和费诺编码D.预测编码和香农编码4.表中符合即时码的是(A )和(D )5.下列各量可能为负值的是(B )A.自信息量B.互信息量C.信息熵D.平均互信息量6.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系错误的是(D )A.H(XY)=H(X)+H(Y/X)B.若X和Y相互独立,H(Y)=H(Y/X)C.H(XY)=H(Y)+H(X/Y)D.H(XY)=H(X)+H(X/Y)7.已知发送26个英文字母(包括空格),其最大信源熵(发送概率相等)为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32=1.4比特/符号。

问若用一般传送比特/符号;以此类推,极限熵H∞方式,冗余度γ为( B )A.0.58B.0.71C.0.65D.0.298. 某信道传递矩阵为,其信道容量为( D )A .)41log 4143log 43()81,81,41,21(4log ++-=H C B .)41log 4343log 41()81,81,41,21(2log +--=H C C .)41log 4143log 43()81,81,41,21(4log +--=H CD .)41log 4143log 43()81,81,41,21(2log +--=H C9. 下列各图所示信道是对称信道的是( C )A .B .C .⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8181214181814121PD.二. 综合(共80分)1.(10分)试画出通信系统的模型,并叙述各部分的定义和作用。

《信息论》试题(精华)及答案(精华版)

《信息论》试题(精华)及答案(精华版)

期终练习,10%就是胖子 ,80%不胖不瘦 ,10%就是瘦子;已知胖子得高血压的概率 一,某地区的人群中 就是 15% ,不胖不瘦者得高血压的概率就是 10%,瘦子得高血压的概率就是 5% ,就“该地区的 某一位高血压者就是胖子”这句话包含了多少信息量;解: 设大事 A: 某人就是胖子 ; B: 某人就是不胖不瘦 C:某人就是瘦子D: 某人就是高血压者依据题意 ,可知 :P(A)=0 , 1 P(B)=0 , 8 P(C)=0 ,1P(D|A)=0 , 15 P(D|B)=0 , 1 P(D|C)=0 , 05而“该地区的某一位高血压者就是胖子” 这一消息说明在 D 大事发生的条件下 ,A 大事 的发生 ,故其概率为 依据贝叶斯定律 P(A|D),可得 :P(D) = P(A)* P(D|A) + P(B)* P(D|B) +P(C)* P(D|C) = 0, 1P(A|D) = P(AD)/P(D) = P(D|A)*P(A)/ P(D) = 0, 15*0 , 1/0, 1= 0,15故得知“该地区的某一位高血压者就是胖子”这一消息获得的多少信息量为 I(A|D) = - logP(A|D)=log(0 ,15) ≈ 2, 73 (bit): 二,设有一个马尔可夫信源 ,它的状态集为 {S 1,S 2,S 3}, 符号集为 {a 1,a 2,a 3 }, 以及在某状态下发出 p (a k | s i ) (i,k=1,2,3), 如下列图符号集的概率就是 (1) 求图中马尔可夫信源的状态极限概率并找出符号的极限概率(2) 运算信源处在某一状态下输出符号的条件熵 H(X|S=j) (j=s 1,s 2,s 3)(3) 求出马尔可夫信源熵 H解 :(1) 该信源达到平稳后 , 有以下关系成立 :Q( E 1 ) Q(E 3 ) 273727Q(E 1 )3 4 1 4 1 2 1 2 Q( E 2 ) Q(E 1 ) Q( E 2 )Q(E )可得 2 Q( E 3 ) Q(E 1 ) Q( E 2 )Q(E ) 3Q( E 1 ) Q(E 2 ) Q(E 3 ) 133 72 73 7 p(a 1)Q(E i ) p( a 1 |E i ) i 13 p(a 2 )Q(E i ) p(a 2 |E i ) i 1 3p(a ) Q(E ) p(a |E ) 3 i 3 i i 13 p(a k |S 1 ) log p(a k | S 1) 1.(5 bit/ 符号)H ( X | S 1 ) k 13(1 bit/ 符号)(2) H ( X | S 2 ) p(a k |S 2 ) log p(a k | S 2 ) k 13p(a k |S 3 ) log p(a k | S 3 ) 0(bit/ 符号)H ( X | S 3 ) k 13(3) H Q(E i ) H (X | E i ) 2 / 7*3/ 2 3/ 7*1 2 / 7*0 6 / 7 (比特 /符号 )i 1三,二元对称信道的传递矩阵为 (1) 如 P(0)=3/4,P(1)=1/4, 求 H(X),H(X|Y) 与 I(X;Y)(2) 求该信道的信道容量及其最大信道容量对应的正确输入分布2解: ⑴ H ( X ) = p(x i )log p( x i ) 75 25 0, 811(比特 /符号 )= i 1p( y 1 ) p( x 1 ) p( y 1 | x 1 ) p( x 2 ) p( y 1 | x 2 ) =0,75*0 ,6+0 , 25*0 , 4=0 , 55 p( y 2 ) p( x 1 ) p( y 2 | x 1 ) p( x 2 ) p( y 2 | x 2 ) 0, 75*0 , 4+0 , 25*0 , 6=0, 45 H (Y) 0, 992(比特 /符号 )H (Y | X ) p( x)H (Y | x 1) p(x 2 ) H (Y | x 2 ) H (0.6,0.4) H (0.4,0.6) 0.4)7(1 比特 / 符号)H ( X | Y ) H ( XY ) H (Y) H ( X ) H (Y | X ) H (Y)0, 811+0, 971-0 , 992=0, 79 (比特 /符号 )I(X;Y)=H(X)-H(X|Y) =0, 811-0, 79=0, 021(比特 /符号 )(2) 此信道为二元对称信道 ,所以信道容量为C=1-H(p)=1-H(0 , 6)=1-0 , 971=0, 029( 比特 /符号 )当输入等概分布时达到信道容量p p 22pp2244,其中p 1 p ;四,求信道的信道容量0 44 0p p 22pp22解: 这就是一个准对称信道,可把信道矩阵分为: ,N1 M 1 1 4 , N 2 4 , M 422C log r H ( p 2, p 2 ,0,4 ) Nk log Mkk 1log 2 H ( p 2 , p 2 ,0,4 )(1 4 )log(1 44)4log 4(比特/ 符号)故1H ( p 2 , p 2 ,4 ) (1 4 )log(1 4 ) log 4 当输入等概分布时达到信道容量;1XP( x) x1x2x3x4x5x6五,信源(1) 利用霍夫曼码编成二元变长的惟一可译码,并求其L,并求其L(2) 利用费诺码编成二元变长的惟一可译码(3) 利用香农码编成二元变长的惟一可译码(1) 香农编码:,并求其信源符号x 1x 2x 3x 4x 5x 6概率P(x i)0,40,20,20,10,050,05码长233455累积概率0,40,60,80,90,95码字0001110011001110011110l i PL =0 ,4×2+0,2×3+0,2×3+0,1×4+0,05×5+0,05×5=2,9(码元/信源符号)η=H(X)/( L logr)=2 ,222/2,9=0 ,7662(2) 霍夫曼编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)=0 ,9964(3)费诺编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)= 0 ,99641 21312161613121613六,设有一离散信道,传递矩阵为设P(x1 )= P(x 2)=1/4,P(x 3)=1/2,试分别按最小错误概率准就与最大似然译码准就确定译码规章并相应的运算机平均错误概率的大小;解:(1) 按最大似然译码准就,F(y1)=x1 F(y2)=x2 F(y3)=x3P(E)=1/2(1/3+1/6)+1/4 ×2×(1/3+1/6)=1/2(2) 联合概率矩阵为,就按最小错误概率准1 8 1 24 1 61121811212411214F(y1)=x3 F(y2)=x2 F(y3)=x3 P(E)= 1/8+1/24+2/12 +1/24+1/12=11/240,131,13213UP(u)八,一个三元对称信源0 1 1 1 0 1 11接收符号为 V = {0,1,2}, 其失真矩阵为 (1)求 D max 与 D min 及信源的 R(D) 函数;(2)求出达到 R(D ) 的正向试验信道的传递概率1 r2 3解 :(1) D max = min P ( u ) d(u ,v) 1 V U 3D min = P ( u ) min d (u , v) 0 j i 1由于就是三元对称信源 ,又就是等概分布 ,所以依据 r 元离散对称信源可得 R(D) =log3 - Dlog2 -H(D) = log3 - D - H(D) 0<=D<=2/3= 0 D>2/3(2)满意 R(D) 函数的信道其反向传递概率为1 D (i j )P(u i | v j ) D2 (i j )13以及有 P(v j )= 依据依据贝叶斯定律 ,可得该信道的正向传递概率为 :1 D2 D (i j )P( v j | u i ) (i j )九,设二元码为 C=[11100,01001,10010,00111](1) 求此码的最小距离 d min ;(2) 采纳最小距离译码准就 ,试问接收序列 10000,01100 与 00100 应译成什么码字?(3) 此码能订正几位码元的错误?解:(1) 码距如左图11100 01001 10010 001111110001001 10010 00111 33 4 43 3故 d min = 3(2) 码距如右图故 10000 译为 译为 11100,00100 译为 11100 或 0011110010,01100 d min 2 e 1,知此码能订正一位码元的错误;(3) 依据。

信息论习题集

信息论习题集

信息论概念复习题一、填空1、1948年美国数学家香农发表了题为“通信的数学理论”的长篇论文从而创立了信息论。

2、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

3、信息的可度量性是建立信息论的基础。

4、统计度量是信息度量最常用的方法。

5、熵是香农信息论最基本最重要的概念。

6、事物的不确定度是用时间统计发生概率的对数来描述的。

7、单符号离散信源一般用随机变量描述而多符号离散信源一般用随机矢量描述。

8、一个随机事件发生某一结果后所带来的信息量称为自信息量定义为其发生概率对数的负值。

9、自信息量的单位一般有比特、奈特和哈特。

10、必然事件的自信息是0 。

11、不可能事件的自信息量是∞ 。

12、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

13、数据处理定理当消息经过多级处理后随着处理器数目的增多输入消息与输出消息之间的平均互信息量趋于变小。

14、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。

15、离散平稳有记忆信源的极限熵H/lim121NNNXXXXH。

16、对于n元m阶马尔可夫信源其状态空间共有nm 个不同的状态。

17、一维连续随即变量X在ab区间内均匀分布时其信源熵为log2b-a 。

18、平均功率为P的高斯分布的连续信源其信源熵HcXeP2log212。

19、对于限峰值功率的连续信源当概率密度均匀分布时连续信源熵具有最大值。

20、对于限平均功率的一维连续信源当概率密度高斯分布时信源熵有最大值。

22、根据输入输出信号的特点可将信道分成离散信道、连续信道、半离散或半连续信道。

23、信道的输出仅与信道当前输入有关而与过去输入无关的信道称为无记忆信道。

24、具有一一对应关系的无噪信道的信道容量C log2n 。

25、对称信道的信道容量C log2m-Hmi 。

26、对于离散无记忆信道和信源的N次扩展其信道容量CN NC 。

27、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时此信道称为加性连续信道。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1、求基本高斯信源的差熵。

(10分)
2、一个随机变量x 的概率密度函数为kx x p =)(,V x 20≤≤。

试求该信源的相对熵。

3、黑白气象传真图的消息只有黑色和白色两种,即信源{}
黑,白=X ,设黑色的出现概率为3.0(=黑)P ,白色的出现概率为7.0(=白)P 。

(1)假设图上黑白消息出现前后没有关联,求熵)(X H 。

(2)假设消息前后有关联,其依赖关系为9.0/(=白)白P ,1.0/(=白)黑P ,
2.0/(=黑)白P ,8.0/(=黑)黑P ,求此平稳离散信源的熵)(2X H 。

(3)分别求上述两种信源的剩余度,比较)(X H 和)(2X H 的大小。

4、给出求一般离散信道的信道容量的计算步骤并用拉格朗日乘子法加以证明。

5、给出离散无记忆信源的信息率失真函数的参量表述并用拉格朗日乘子法加以证明。

6、若信道的输入和输出分别是N 长序列X 和Y ,且信道是无记忆的,则
∑=≤N
k k k Y X I Y X I 1
),();(,这里k X 和k Y 分别是序列X 和Y 中第k 位随机变量;并且证明当
且仅当信源也是无记忆信源时等号成立。

7、有一并联高斯加性信道,各子信道的噪声均值为0,方差为2
i σ:
21σ=0.1,22σ=0.2,23σ=0.3,24σ=0.4,25σ=0.5,26σ=0.6,27σ=0.7,28σ=0.8,29σ=0.9,
210σ=1.0(W )。

输入信号X 是10个相互统计独立、均值为0、方差为i P 的高斯变量,且满足:
)(110
1
W P i i =∑=。

求各子信道的信号功率分配方案。

8、给定语音信号样值x 的概率密度函数为x
e x p λλ-=
2
1)(,∞<<∞-x ,求)(X H c ,并比较)(X H c 与具有同样方差的正态变量的连续熵的大小。

9、某二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢
⎣⎡5.05.010)(x p X ,其失真矩阵定义为⎥

⎤⎢⎣⎡=00a a D ,求该信源的max D ,min D 和该信源的信息率失真函数)(D R 。

10、设连续信源X ,其概率密度函数为x
a e a x p -=2
)(,失真度为y x y x d -=),(,试求此信源的)(D R 函数。

11、一个二进制非等概信源,符号集}1,0{=A ,p p p ==1)0(,p p p -==1)1(2,试验信道输出符号集}1,0{=B ,失真函数为汉明失真。

求该信源的信息率失真函数)(D R 。

12、设一个四元等概信源⎥⎦
⎤⎢⎣⎡=⎥⎦⎤⎢
⎣⎡25.025.025.025.03210
)(x p X ,接收符号集为}3,2,1,0{=Y A ,
失真矩阵定义为⎥⎥⎥⎥⎦
⎤⎢⎢⎢⎢⎣⎡=01
11
10111101
1110
D ,求m a x D ,min D 及信源的)(D R 函数,并作出率失真函数曲线(取4到5个点)。

13、信源符号X 有6种字母,概率为0.3,0.24,0.20,0.14,0.08,0.04。

(1) 求符号熵)(X H 。

(2) 用香农编码法编成二进制变长码,计算其编码效率。

(3) 用费诺编码法编成二进制变长码,计算其编码效率。

(4) 用霍夫曼编码法编成二进制变长码,计算其编码效率。

(5) 用霍夫曼编码法编成三进制变长码,计算其编码效率。

14、信源符号X 有6种字母,概率为0.3,0.22,0.18,0.16,0.08,0.06。

a) 求符号熵)(X H 。

b) 用香农编码法编成二进制变长码,计算其编码效率。

c) 用费诺编码法编成二进制变长码,计算其编码效率。

d) 用霍夫曼编码法编成二进制变长码,计算其编码效率。

e) 用霍夫曼编码法编成三进制变长码,计算其编码效率。

15、有一个n 元等概率、平稳无记忆信源}1,,1,0{-=n X ,接收符号集为
}1,,1,0{-=n Y ,且规定失真矩阵为


⎥⎥⎦
⎤⎢⎢⎢
⎢⎣⎡=011
101110][ d 求率失真函数)(D R 。

16、设高斯信源X 的概率密度函数为
()⎥⎦
⎤⎢⎣⎡--=
2
22exp 21
)(σσπm x x p 且失真函数定义为差方失真,()22
),(z y x y x d =-=。

求该信源的率失真函数的香农下限。

17、设有多维无记忆加性连续信道,输入信号序列为:()L x x x x ,,,21
=,输出信号序列为:
()L y y y y ,,,21 =,
其噪声为高斯噪声,噪声序列()L n n n n ,,,21
=中的各分量是均值为0,方差为2i σ的高斯噪声,分两种情况计算其信道容量:
(1)在各单元时刻(L i ,,2,1 =)上的噪声都是均值为0、方差为2
σ的高斯噪声; (2)在各单元时刻(L i ,,2,1 =)上的噪声都是均值为0、方差为2i σ的高斯噪声,但
输入信号的总平均功率受限,其约束条件为:
[]
P P x E x E L
i i L i i L i i ===⎥⎦⎤⎢⎣⎡∑∑∑===11
2
12
18、设二进制对称信道的转移概率矩阵为



⎢⎣⎡=3/23/13/13/2P (1)若4/3)(0=x p ,4/1)(1=x p ,求)(X H ,)/(Y X H ,)/(X Y H 和);(Y X I ;
(2)求该信道的信道容量及其达到信道容量时的输入概率分布。

19、某信源发送端有两个符号:2,1,=i x i ,a x p =)(1,每秒发出一个符号。

接收端有三种符号:3,2,1,=j y j ,转移概率矩阵
⎥⎦

⎢⎣⎡=4/14/12/102/12/1P
(1)计算接收端的平均不确定性;
(2)计算由于噪声产生的不确定性)/(X Y H ;
(3)计算信道容量。

20、在干扰离散信道上传输符号1和0,在传输过程中每100个符号发生一个错传的符号。

已知2/1)1()0(==p p ,信道每秒内允许传输1000个符号。

求此信道的容量。

21、发送端有三种等概率符号),,(321x x x ,3/1)(=i x p ,接收端收到三种符号),,(321y y y ,信道转移概率矩阵为
⎥⎥
⎥⎦

⎢⎢⎢⎣⎡=09.01.03.03.04.02.03.05.0P
(1)计算接收端收到一个符号后得到的信息量)(Y H ;
(2)计算噪声熵)/(X Y H ;
(3)计算接收端收到一个符号2y 的错误概率; (4)计算从接收端看的平均错误概率; (5)计算从发送端看的平均错误概率; (6)从转移矩阵中能看出该信道的好坏吗? (7)计算发送端的)(X H 和)/(Y X H 。

22、设无记忆信源⎥

⎤⎢⎣⎡-=⎥⎦⎤⎢
⎣⎡3/1,3/1,3/11,0,1)(x p X ,接收符号集⎭⎬⎫
⎩⎨⎧-=21,21Y ,失真矩阵⎥⎥⎥⎦

⎢⎢⎢⎣⎡=121121D ,试求:
max D 和min D 及达到max D 、min D 时的转移概率矩阵。

23、已知二元信源⎥⎦⎤⎢⎣⎡-=⎥⎦⎤⎢
⎣⎡p p x p X 1,1,0)(以及失真矩阵[]



⎢⎣⎡=0110ij d ,试求: (1)min D ;(2)max D ;(3))(D R 。

24、某信源有8个符号{}8321,,,,a a a a ,概率分别为1/2,1/4,1/8,1/16,1/32,1/64,1/128,1/128,试编成这样的码:000,001,010,011,100,101,110,111的码。


(1)信源的符号熵)(X H 。

(2)出现一个1或一个0的概率。

(3)这种码的编码效率。

(4)相应的香农码及其编码效率。

(5)相应的费诺码及其编码效率。

25、已知符号集合{} ,,,321x x x 为无限离散消息集合,它们出现的概率分别为2/1)(1=x p ,
4/1)(2=x p ,8/1)(3=x p ,i i x p 2/1)(=等。

(1)用香农编码方法写出各个符号消息的码字。

(2)计算码字的平均信息传输速率; (3)计算信源编码效率。

26、已知一信源包含8个消息符号,其出现的概率为
{}04.0,07.0,1.0,06.0,05.0,4.0,18.0,1.0)(=X P 。

(1)若该信源在每秒内发出一个符号,求该信源的熵和信息传输速率。

(2)对这8个符号作霍夫曼编码,写出相应码字,并求出编码效率。

(3)采用香农编码,写出相应码字,求出编码效率。

(4)采用费诺编码,写出相应码字,求出编码效率。

相关文档
最新文档