信息论复习题
信息论考试题
一.填空1.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。
2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。
3.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。
4.离散对称信道输入等概率时,输出为 等概 分布。
5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。
6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。
12设有DMC,其转移矩阵为[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2/16/13/13/12/16/16/13/12/1|XY P ,若信道输入概率为[][]25.025.05.0=X P ,试确定最佳译码规则和极大似然译码规则,并计算出相应的平均差错率。
解:⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8/124/112/112/18/124/112/16/14/1][XYP最佳译码规则:⎪⎩⎪⎨⎧===331211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/6-1/8=11/24;极大似然规则:⎪⎩⎪⎨⎧===332211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/8-1/8=1/2。
(完整word版)信息论习题集
信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。
(√)2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。
(√)3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√)4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。
(√)5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。
(√)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。
(√)7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。
(×)第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。
(√)2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。
(×)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。
(×)4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。
(×)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。
(×)6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。
(√)7、互信息的统计平均为平均互信息量,都具有非负性。
(×)8、信源剩余度越大,通信效率越高,抗干扰能力越强。
(×)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。
(×)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。
(×)11、在信息处理过程中,熵是不会增加的。
(√)12、熵函数是严格上凸的。
(√)13、信道疑义度永远是非负的。
(√)14、对于离散平稳信源,其极限熵等于最小平均符号熵。
信息论 复习题
【】设8个等概率分布的消息通过传递概率为p的BSC进行传送,8个消息相应编成下述码字:M1=0000,M2=0101,M3=0110,M4=0011M5=1001,M6=1010,M7=1100,M8=1111试问:〔1〕接收到第一个数字0与M1之间的互信息;〔2〕接收到第二个数字也是0时,得到多少关于M1的附加互信息;〔3〕接收到第三个数字仍为0时,又增加了多少关于M1的互信息;〔4〕接收到第四个数字还是0时,再增加了多少关于M1的互信息。
解:各个符号的先验概率均为1/8(1)根据条件,有因此接收到第一个数字0与M1之间的互信息为:〔2〕根据条件,有因此接收到第二个数字也是0时,得到多少关于M1的互信息为:得到的附加信息为:〔3〕根据条件,有因此接收到第三个数字也是0时,得到多少关于M1的互信息为:此时得到的附加信息为:〔4〕根据条件,有因此接收到第四个符号为0时,得到的关于M1的互信息为此时得到的附加信息为【】设二元对称信道的传递矩阵为〔1〕假设P(0)=3/4,P(1)=1/4,求H(X ),H(X | Y ),H(Y | X )和I (X;Y);〔2〕求该信道的信道容量及其到达信道容量时的输入概率分布。
解:〔1〕根据条件,有【】假设X 、Y 和Z 是三个随机变量,试证明:〔1〕I (X;YZ) = I(X;Y) + I(X;Z | Y) = I (X;Z) + I (X;Y | Z) 〔2〕I (X;Y | Z) = I (Y; X | Z) = H(X | Z) - H(X | YZ) 〔3〕I (X;Y | Z) ³0当且仅当(X, Z,Y)是马氏链时等式成立。
(3)【】求以下两个信道的信道容量,并加以比拟因此有【】在图片传输中,每帧约个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。
试计算每秒钟传送30帧图片所需信道的带宽〔信噪功率比为30dB〕。
信息论复习必考题
第一天:
1、请问什么是信息
答案:消除不确定因素
2、信息论的奠基人是谁,为什么?
答案:香农,香农三大定律
3、单个信源符号的自信息量的计算方法
答案:概率的倒数的对数
4、信源的离散熵怎么计算,熵的物理含义是什么
答案:熵代表离散程度,离散程度越大,熵值越大。
第二天:
1、请问一个随机变量在什么概率分布的时候,它的熵值最大?怎么和生活中进行对接
答案:概率分布均匀的时候熵值最大
2、请问互信息熵的计算和物理含义是什么?想想一条河流
3、数据处理定理是什么?在数据处理当中,丢失了什么?获得了什么?为什么要数据处理呢?(从通信系统的角度来考虑)沙里淘金
第三天:
1、离散的无记忆信源序列的熵值该怎么计算,它又有什么作用呢?
2、离散的有记忆序列的熵值该怎样计算?
3、极限熵的物理含义是什么?
4、编码的一些基本概念(等长和变长,奇异和非奇异,唯一可译码、平均编码长度、码树、前缀码和非前缀码等)
5、仔细体会从等长编码和变长编码,针对什么样的信源,有什么优缺点
第四天:
1、请问香农第一定理是什么?其含义是什么?如何理解?(信源符号的个数和码字个数之间的关系)
2、。
(完整word版)信息论试卷
一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。
(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。
A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。
(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。
(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。
(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。
(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。
(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。
(T)8、平稳的离散无记忆信道不可用一维概率描述。
(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。
3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。
信息论试题
信息论试题一、选择题1. 信息论的创始人是()。
A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。
A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。
A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。
A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。
A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。
2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。
3. 香农在1948年发表的论文《________》奠定了信息论的基础。
4. 在数字通信中,信道容量可以通过公式________来计算。
5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。
三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。
2. 描述香农信息论中的主要概念及其相互之间的关系。
3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。
4. 讨论信息论对于密码学和信息安全的贡献。
四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。
2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。
3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。
4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。
南邮信息论复习
1 4 , 1 2
(1) 画出该马氏链的状态转移图;
(2) 计算 H ( X / S1) 、 H ( X / S2 ) 、 H ( X / S3 ) ;
(3) 计算信源的极限熵。
1 3
S1
1
解: (1) 2
1 31
4
1 13 4
1
S2
4
S3
1
4
1
2 (4’)
(2) H(X|S1)=H(1/3,1/3,1/3)=1.58 比特/符号 H(X|S2)=H(1/4,1/2,1/4)=1.5 比特/符号= H(X|S3)
(2) 输入等概分布,p0=p1=0.5
(3’)
3. 一 马 尔 可 夫 信 源 消 息 集 X∈{ a1, a2 , a3 } , 状 态 集 S∈{ S1, S2 , S3 } 。 条 件 转 移 概 率 为
[ ] 1 3 1 3 1 3
P(a j
/ Si )
= 1 1
4 4
12 14
(6’)
0111001
5.
已知(7,3)线性分组码的生成矩阵
G
=
1110010
,
0101110
(1) 求该码的码集;
(2) 求对应的系统形式生成矩阵 Gs 和校验矩阵 H;
(3) 该码的最小码距 dmin 是多少?纠错能力 t =?
(4) 列出可纠差错图案 E 和对应伴随式 S(针对系统码);
H ( X / Y ) =H ( X ) + H (Y / X ) − H (Y ) = 0.6比特符/ 号
I ( X ;Y ) = H (Y ) − H (Y / X ) = 0.12 比特/符号
信息论复习题
信息论复习题信息论复习题第一、二章一、填空1、 1948年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2、信息、与信号,是通信理论中常用的三个既有联系又有区别的概念。
信息是系统中的对象,它包含在中。
消息是比较具体的概念,但不是物理的。
信号是表示的物理量。
在通信系统中,传送的本质内容是信息,发送时需要将信息表示成具体的消息,再将消息载至上,才能在实际的通信系统中传输。
3、不考虑加密处理,常用通信系统的物理模型包括信源、信源编码器、信道编码器、信道、和、、信宿七部分。
其中,信源负责向通信系统提供消息;,是消息传递的对象,即接收消息的人或机器;信道是传递消息的,是负责传送物理信号的设施。
4、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为。
5、自信息量的单位一般有。
6、必然事件的自信息是。
7、不可能事件的自信息量是。
8、两个相互独立的随机变量的联合自信息量等于。
9、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量。
10、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的。
11、若信源当前时刻发出的符号只与前m 个符号有关联,而与更前面的符号无关,则称这种信源为信源;若该信源的条件转移概率与时间起点无关,则进一步可称其为信源。
经过足够长时间,该信源处于什么状态已与初始状态无关,此时每种状态出现的概率达到了一种。
12、一维连续随机变量X 在[a ,b]区间内均匀分布时,其信源熵为。
13、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是。
14、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为。
15、对于离散信源,当时其信源熵具有最大值。
16、对于限平均功率的一维连续信源,当概率密度时,信源熵有最大值。
二、判断1、必然事件和不可能事件的自信息量都是0 。
信息论复习题期末答案
信息论复习题期末答案1. 信息论的创始人是谁?答案:信息论的创始人是克劳德·香农。
2. 信息熵的概念是什么?答案:信息熵是衡量信息量的一个指标,它描述了信息的不确定性或随机性。
在信息论中,熵越高,信息的不确定性越大。
3. 请简述信源编码定理。
答案:信源编码定理指出,对于一个具有确定概率分布的离散无记忆信源,存在一种编码方式,使得信源的平均编码长度接近信源熵的值,且当信源长度趋于无穷大时,编码长度与信源熵之间的差距趋于零。
4. 什么是信道容量?答案:信道容量是指在特定的通信信道中,能够以任意小的错误概率传输信息的最大速率。
它是信道的最大信息传输率,通常用比特每秒(bps)来表示。
5. 香农公式是如何定义信道容量的?答案:香农公式定义信道容量为信道输入和输出之间的互信息量的最大值,可以表示为C = B log2(1 + S/N),其中C是信道容量,B是信道带宽,S是信号功率,N是噪声功率。
6. 差错控制编码的目的是什么?答案:差错控制编码的目的是为了检测和纠正在数据传输过程中可能发生的错误,以提高数据传输的可靠性。
7. 什么是线性码?答案:线性码是一种特殊的编码方式,其中任意两个合法编码的线性组合仍然是一个合法编码。
线性码通常可以用生成矩阵和校验矩阵来表示。
8. 卷积码和块码有什么区别?答案:卷积码和块码都是差错控制编码的类型,但它们的主要区别在于编码的结构和处理方式。
卷积码是连续的,其编码过程是按时间序列进行的,而块码是离散的,其编码过程是针对数据块进行的。
9. 什么是信道编码定理?答案:信道编码定理指出,对于任何给定的信道和任何小于信道容量的错误概率,都存在一种编码方式,可以使得错误概率趋近于零。
10. 请解释什么是信道编码的译码算法。
答案:信道编码的译码算法是一种用于从接收到的编码信号中恢复原始信息的方法。
常见的译码算法包括维特比算法、最大似然译码和最小均方误差译码等。
这些算法旨在最小化译码错误的概率。
信息论 复习题
【3.2】设8个等概率分布的消息通过传递概率为p的BSC进行传送,8个消息相应编成下述码字:M1=0000,M2=0101,M3=0110,M4=0011M5=1001,M6=1010,M7=1100,M8=1111试问:(1)接收到第一个数字0与M1之间的互信息;(2)接收到第二个数字也是0时,得到多少关于M1的附加互信息;(3)接收到第三个数字仍为0时,又增加了多少关于M1的互信息;(4)接收到第四个数字还是0时,再增加了多少关于M1的互信息。
解:各个符号的先验概率均为1/8(1)根据已知条件,有因此接收到第一个数字0与M1之间的互信息为:(2)根据已知条件,有因此接收到第二个数字也是0时,得到多少关于M1的互信息为:得到的附加信息为:(3)根据已知条件,有因此接收到第三个数字也是0时,得到多少关于M1的互信息为:此时得到的附加信息为:(4)根据已知条件,有因此接收到第四个符号为0时,得到的关于M1的互信息为此时得到的附加信息为【3.3】设二元对称信道的传递矩阵为(1)若P(0)=3/4,P(1)=1/4,求H(X ),H(X | Y ),H(Y | X )和I (X;Y);(2)求该信道的信道容量及其达到信道容量时的输入概率分布。
解:(1)根据已知条件,有【3.5】若X 、Y 和Z 是三个随机变量,试证明:(1)I (X;YZ) = I(X;Y) + I(X;Z | Y) = I (X;Z) + I (X;Y | Z) (2)I (X;Y | Z) = I (Y; X | Z) = H(X | Z) - H(X | YZ) (3)I (X;Y | Z) ³0当且仅当(X, Z,Y)是马氏链时等式成立。
(3)【3.10】求下列两个信道的信道容量,并加以比较因此有【4.17】在图片传输中,每帧约个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。
试计算每秒钟传送30帧图片所需信道的带宽(信噪功率比为30dB)。
信息论总复习题目
二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。
()()()1lgbc aH x p x dx p x =⎰------3分 ()lg b a =-bit/自由度-------2分三、(10分)一个平均功率受限的连续信道,信道带宽为1MHz ,信道噪声为高斯白噪声。
(1)已知信道上的信号与噪声的平均功率比值为20,计算该信道的信道容量。
(2)如果信道上的信号与噪声的平均功率比值降为10,要达到相同的信道容量,信道带宽应为多少?(3)如果信道带宽降为0.5MHz ,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少?1) ()10lg 1NR c S =+------3分64.3910=⨯b/s---1分2) ()610 1.2710lg 1NR cS ==⨯+Hz---3分3) 21c w NR S =-=440----3分四、(16分)已知信源共7个符号消息,其概率空间为()12345670.20.170.20.170.150.100.01S s s s s s s s P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 试用霍夫曼编码法编成二进制变长码。
并计算信源熵、平均码长、编码后的信息传输率、编码信息率和编码效率。
要求写出详细的编码过程和计算过程。
2 01 S1 0.22 00 S3 0.23 111 S2 0.173 110 S4 0.173 101 S5 0.154 1001 S6 0.104 1000 S7 0.010.20.110.150.170.170.20.260.170.170.20.20.340.20.20.260.260.340.40.60.41.0------6分712.71i i i L P τ===∑位----2分()721log 2.61i i i H s P P ===∑bit/符号--------2分2log 2.71R r τ==’bit/码字--------2分()20.963log H s rητ==----------2分()0.963H s R τ==bit/码元--------2分五、(16分)设一个离散无记忆信源的概率空间为()120.50.5X a a P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 它们通过干扰信道,信道输出端的接收符号集为Y =[b 1,b 2],已知信源传输概率如下图所示。
信息论总复习
第一章作业题1. 设二元对称信道的传递矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132(1) 若P(0) = 3/4, P(1) = 1/4,求H (X ), H(X /Y ), H(Y /X )和I(X ;Y );(2) 求该信道的信道容量及其达到信道容量时的输入概率分布; 解:(1)symbolbit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbolbit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbolbit x y p x y p x p X Y H symbolbit x p X H jj iji j i j i i i / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/()/()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167.032413143)/()()/()()()()(5833.031413243)/()()/()()()()(/ 918.0 10log )32lg 324131lg 314131lg 314332lg 3243( )/(log )/()()/(/ 811.0)41log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==⨯+⨯-=-==⨯+⨯=+=+==⨯+⨯=+=+==⨯⨯+⨯+⨯+⨯-=-==⨯+⨯-=-=∑∑∑∑2)21)(/ 082.010log )32lg 3231lg 31(2log log );(max 222==⨯++=-==i mi x p symbolbit H m Y X I C2. 设有一批电阻,按阻值分70%是2K Ω,30%是5 K Ω;按瓦分64%是0.125W ,其余是0.25W 。
信息论复习题
• 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?• 答:平均自信息为• 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
• 平均互信息•表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
2.简述最大离散熵定理。
对于一个有m 个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
• 最大熵值为3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
4.解释无失真变长信源编码定理。
答:只要 ,当N 足够长时,一定存在一种无失真编码。
5.解释有噪信道编码定理。
• 答:当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。
6.离散平稳信源• 答:若信源输出的消息是取值离散的随机序列,随机序列的任意有限维的概率分布不随时间平移而改变,则称为离散平稳信源。
7.即时码答:如果在译码过程中只要接收到每个码字的最后一个符号就可立即将该码字译出,这种码称为即时码。
8.信道容量答:信息能够可靠传输的最大信息传输速率。
9.信源信道编码定理• 答:设有一离散无记忆平稳信道的每秒容量为C ,一个离散信源每秒的熵为H ,那么,如果H < C ,总存在一种编码系统,使得信源的输出以任意小的错误概率通过信道传输;反之,如果H > C 时,对任何编码编码系统,译码差错率>010.信道疑义度• 答:设信道的输入与输出分别为X 、Y ,定义条件熵H(X/Y)为信道疑义度。
它有如下含义:• 信道疑义度表示接收到Y 条件下X 的平均不确定性;根据I(X;Y)=H(X)-H(X/Y),信道疑义度又表示X 经信道传输后信息量的损失; 接收的不确定性由信道噪声引起,在无噪情况下,H(X/Y)=0。
信息论考题及答案
一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有1H(X,Y)()()logP()()11()()log()()log ()()11()log()log ()()()()xyxyxy xy P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375(2) H(X)=2, H(Y)=1.75(3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5(4)H(X|Y)=1.1264(5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解:(1|1)P x y ===(1|1)(1)(1|)()xP y x P x P y x P x ===∑==9.015.01.085.01.085.0⨯+⨯⨯=22.0085.0=0.39一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+=二、(50分)联合总体X ,Y 具有如下联合分布。
XY分别计算(1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少?(3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少?三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。
信息论——精选推荐
信息论信号论考试复习题⼀、填空题。
1. ⾹农信息论中定义的信息是“事物运动状态和存在⽅式不确定性的描述”。
2. 消息是信息的载体。
构成消息的两个条件是能被通信双⽅所理解和可以在通信中传递和交换。
3. 信源编码的作⽤是根据失真度准则对信源的输出消息进⾏编码,⽤码字表⽰消息。
4. 信息论研究的主要问题是如何提⾼信息传输系统的有效性和可靠性。
5. 如果信源输出的消息的随机变量,可以在某⼀离散集合内取值,也可以在某⼀连续区间内取值,相应的信源就分别称为和。
——[答案:1.连续信源离散信源]6. 当条件概率分布p (y ∣x )给定时,平均互信息量I (X;Y )是输⼊概率分布p(x)的。
——【上凸函数】7. ⼋进制脉冲的平均信息量为,⼋进制脉冲所含信息量是⼆进制脉冲信息量的倍。
——【3 3】8. 熵函数的数学特性有、、、确定性、可加性、极值性、上凸性。
——【对称性⾮负性扩展性】9. 平均互信息量I (X;Y )与信源熵和条件熵之间的关系是。
【I (X;Y )=H (X )—H(X/Y)】 10. 设信源X 包含 4个不同的离散信息,当且仅当X 中各个信息出现的概率为时,信源熵达到最⼤值为,此时各个信息的⾃信息量为。
【1/4 2 2】 11. ⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越。
【⼩】 12. 信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的,⼆是信源符号分布的。
【相关性不均匀性】 13. 离散信道是输⼊和输出的随机变量的取值都是离散的信道。
14. 信道可依据输⼊输出的随机变量类型分成离散信道、连续信道、半离散或半连续信道。
15. 单符号离散信道的输⼊符号是X ,取之于{a1、a2…… an };输出符号为Y ,取值为{b1、b2、……bn },并有条件概率P(Y=bj/X=ai)=P(bj/ai)(i=1、2……m),这⼀组条件概率称为信道的传递概率或转移概率。
信息论与编码期末考试题----学生复习用
《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为32log bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22212x f x eσπσ-=时,信源具有最大熵,其值为值21log 22e πσ。
9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。
(2)()()1222H X X H X =≥()()12333H X X X H X =(3)假设信道输入用X 表示,信道输出用Y 表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
三、已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。
(2分)(1)010101111.00.20.20.20.20.10.11S 2S 3S 4S 5S 6S编码结果为:1234560001100101110111S S S S S S ====== (2)610.420.63 2.6i i i L P ρ===⨯+⨯=∑码元符号(3)bit log r=2.6R L '=符号(4)() 2.53bit0.9732.6H S R L ===码元其中,()()bit 0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号 (5)()()0.973log H S H S L rLη===四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
信息论复习题
1、求基本高斯信源的差熵。
(10分)2、一个随机变量x 的概率密度函数为kx x p =)(,V x 20≤≤。
试求该信源的相对熵。
3、黑白气象传真图的消息只有黑色和白色两种,即信源{}黑,白=X ,设黑色的出现概率为3.0(=黑)P ,白色的出现概率为7.0(=白)P 。
(1)假设图上黑白消息出现前后没有关联,求熵)(X H 。
(2)假设消息前后有关联,其依赖关系为9.0/(=白)白P ,1.0/(=白)黑P ,2.0/(=黑)白P ,8.0/(=黑)黑P ,求此平稳离散信源的熵)(2X H 。
(3)分别求上述两种信源的剩余度,比较)(X H 和)(2X H 的大小。
4、给出求一般离散信道的信道容量的计算步骤并用拉格朗日乘子法加以证明。
5、给出离散无记忆信源的信息率失真函数的参量表述并用拉格朗日乘子法加以证明。
6、若信道的输入和输出分别是N 长序列X 和Y ,且信道是无记忆的,则 ∑=≤Nk k k Y X I Y X I 1),();(,这里k X 和k Y 分别是序列X 和Y 中第k 位随机变量;并且证明当且仅当信源也是无记忆信源时等号成立。
7、有一并联高斯加性信道,各子信道的噪声均值为0,方差为2i σ: 21σ=0.1,22σ=0.2,23σ=0.3,24σ=0.4,25σ=0.5,26σ=0.6,27σ=0.7,28σ=0.8,29σ=0.9,210σ=1.0(W )。
输入信号X 是10个相互统计独立、均值为0、方差为i P 的高斯变量,且满足:)(1101W P i i=∑=。
求各子信道的信号功率分配方案。
8、给定语音信号样值x 的概率密度函数为x e x p λλ-=21)(,∞<<∞-x ,求)(X H c ,并比较)(X H c 与具有同样方差的正态变量的连续熵的大小。
9、某二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡5.05.010)(x p X ,其失真矩阵定义为⎥⎦⎤⎢⎣⎡=00a a D ,求该信源的max D ,min D 和该信源的信息率失真函数)(D R 。
信息论复习题及答案
1.(15分) 彩色电视显象管的屏幕上有5×105 个象元,设每个象元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现并且各个组合之间相互独立。
① 计算每秒传送25帧图象所需要的信道容量;② 如果在加性高斯白噪声信道上信号与噪声平均功率的比值为63,为实时传送彩色电视的图象,信道的带宽应为多大?2.(15分)已知一个信源包含八个符号消息,它们的概率分布如下表,① 该信源每秒钟内发出一个符号,求该信源的熵及信息传输速率。
② 对八个符号作二进制码元的霍夫曼编码,写出各代码组,并求出编码效率。
③ 对八个符号作三进制码元的霍夫曼编码,写出各代码组,并求出编码效率。
3.(15分)一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。
这些数符组成长度为100的数符组。
我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。
① 求出为所规定的所有源符组都提供码字所需的最小码长。
② 求信源发出一数符组,而编码器无相应码字的概率。
4.(15分) 求下图中DMC 的信道容量。
如果输入分布为{p(x=0)=1/2,p(x=1)=1/4,p(x=2)=1/4),试求输入的信息熵和经过该信道的输入、输出间的平均互信息量。
5.(15分)设二元(7, 4)线性分组码的生成矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G给出该码的一致校验矩阵并写出所有的伴随式和与之相对应的陪集首。
若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码6.(15分)证明最小错误概率译码与最大似然译码在先验等概的条件下等价。
设M =2且两个消息等概,令)0000(1=x ,)1111(2=x 。
通过信道转移概率p<1/2的信道传输。
若将译码区间分为}1000,0100,0010,0001,0000{1=Y }0111,011,1101,110,1111{2=Y }0101,1010,1001,0110,1100,0011{3=Y 试给出译码错误概率和有错而不能判决的概率。
《信息论》试题(精华)及答案(精华版)
期终练习,10%就是胖子 ,80%不胖不瘦 ,10%就是瘦子;已知胖子得高血压的概率 一,某地区的人群中 就是 15% ,不胖不瘦者得高血压的概率就是 10%,瘦子得高血压的概率就是 5% ,就“该地区的 某一位高血压者就是胖子”这句话包含了多少信息量;解: 设大事 A: 某人就是胖子 ; B: 某人就是不胖不瘦 C:某人就是瘦子D: 某人就是高血压者依据题意 ,可知 :P(A)=0 , 1 P(B)=0 , 8 P(C)=0 ,1P(D|A)=0 , 15 P(D|B)=0 , 1 P(D|C)=0 , 05而“该地区的某一位高血压者就是胖子” 这一消息说明在 D 大事发生的条件下 ,A 大事 的发生 ,故其概率为 依据贝叶斯定律 P(A|D),可得 :P(D) = P(A)* P(D|A) + P(B)* P(D|B) +P(C)* P(D|C) = 0, 1P(A|D) = P(AD)/P(D) = P(D|A)*P(A)/ P(D) = 0, 15*0 , 1/0, 1= 0,15故得知“该地区的某一位高血压者就是胖子”这一消息获得的多少信息量为 I(A|D) = - logP(A|D)=log(0 ,15) ≈ 2, 73 (bit): 二,设有一个马尔可夫信源 ,它的状态集为 {S 1,S 2,S 3}, 符号集为 {a 1,a 2,a 3 }, 以及在某状态下发出 p (a k | s i ) (i,k=1,2,3), 如下列图符号集的概率就是 (1) 求图中马尔可夫信源的状态极限概率并找出符号的极限概率(2) 运算信源处在某一状态下输出符号的条件熵 H(X|S=j) (j=s 1,s 2,s 3)(3) 求出马尔可夫信源熵 H解 :(1) 该信源达到平稳后 , 有以下关系成立 :Q( E 1 ) Q(E 3 ) 273727Q(E 1 )3 4 1 4 1 2 1 2 Q( E 2 ) Q(E 1 ) Q( E 2 )Q(E )可得 2 Q( E 3 ) Q(E 1 ) Q( E 2 )Q(E ) 3Q( E 1 ) Q(E 2 ) Q(E 3 ) 133 72 73 7 p(a 1)Q(E i ) p( a 1 |E i ) i 13 p(a 2 )Q(E i ) p(a 2 |E i ) i 1 3p(a ) Q(E ) p(a |E ) 3 i 3 i i 13 p(a k |S 1 ) log p(a k | S 1) 1.(5 bit/ 符号)H ( X | S 1 ) k 13(1 bit/ 符号)(2) H ( X | S 2 ) p(a k |S 2 ) log p(a k | S 2 ) k 13p(a k |S 3 ) log p(a k | S 3 ) 0(bit/ 符号)H ( X | S 3 ) k 13(3) H Q(E i ) H (X | E i ) 2 / 7*3/ 2 3/ 7*1 2 / 7*0 6 / 7 (比特 /符号 )i 1三,二元对称信道的传递矩阵为 (1) 如 P(0)=3/4,P(1)=1/4, 求 H(X),H(X|Y) 与 I(X;Y)(2) 求该信道的信道容量及其最大信道容量对应的正确输入分布2解: ⑴ H ( X ) = p(x i )log p( x i ) 75 25 0, 811(比特 /符号 )= i 1p( y 1 ) p( x 1 ) p( y 1 | x 1 ) p( x 2 ) p( y 1 | x 2 ) =0,75*0 ,6+0 , 25*0 , 4=0 , 55 p( y 2 ) p( x 1 ) p( y 2 | x 1 ) p( x 2 ) p( y 2 | x 2 ) 0, 75*0 , 4+0 , 25*0 , 6=0, 45 H (Y) 0, 992(比特 /符号 )H (Y | X ) p( x)H (Y | x 1) p(x 2 ) H (Y | x 2 ) H (0.6,0.4) H (0.4,0.6) 0.4)7(1 比特 / 符号)H ( X | Y ) H ( XY ) H (Y) H ( X ) H (Y | X ) H (Y)0, 811+0, 971-0 , 992=0, 79 (比特 /符号 )I(X;Y)=H(X)-H(X|Y) =0, 811-0, 79=0, 021(比特 /符号 )(2) 此信道为二元对称信道 ,所以信道容量为C=1-H(p)=1-H(0 , 6)=1-0 , 971=0, 029( 比特 /符号 )当输入等概分布时达到信道容量p p 22pp2244,其中p 1 p ;四,求信道的信道容量0 44 0p p 22pp22解: 这就是一个准对称信道,可把信道矩阵分为: ,N1 M 1 1 4 , N 2 4 , M 422C log r H ( p 2, p 2 ,0,4 ) Nk log Mkk 1log 2 H ( p 2 , p 2 ,0,4 )(1 4 )log(1 44)4log 4(比特/ 符号)故1H ( p 2 , p 2 ,4 ) (1 4 )log(1 4 ) log 4 当输入等概分布时达到信道容量;1XP( x) x1x2x3x4x5x6五,信源(1) 利用霍夫曼码编成二元变长的惟一可译码,并求其L,并求其L(2) 利用费诺码编成二元变长的惟一可译码(3) 利用香农码编成二元变长的惟一可译码(1) 香农编码:,并求其信源符号x 1x 2x 3x 4x 5x 6概率P(x i)0,40,20,20,10,050,05码长233455累积概率0,40,60,80,90,95码字0001110011001110011110l i PL =0 ,4×2+0,2×3+0,2×3+0,1×4+0,05×5+0,05×5=2,9(码元/信源符号)η=H(X)/( L logr)=2 ,222/2,9=0 ,7662(2) 霍夫曼编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)=0 ,9964(3)费诺编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)= 0 ,99641 21312161613121613六,设有一离散信道,传递矩阵为设P(x1 )= P(x 2)=1/4,P(x 3)=1/2,试分别按最小错误概率准就与最大似然译码准就确定译码规章并相应的运算机平均错误概率的大小;解:(1) 按最大似然译码准就,F(y1)=x1 F(y2)=x2 F(y3)=x3P(E)=1/2(1/3+1/6)+1/4 ×2×(1/3+1/6)=1/2(2) 联合概率矩阵为,就按最小错误概率准1 8 1 24 1 61121811212411214F(y1)=x3 F(y2)=x2 F(y3)=x3 P(E)= 1/8+1/24+2/12 +1/24+1/12=11/240,131,13213UP(u)八,一个三元对称信源0 1 1 1 0 1 11接收符号为 V = {0,1,2}, 其失真矩阵为 (1)求 D max 与 D min 及信源的 R(D) 函数;(2)求出达到 R(D ) 的正向试验信道的传递概率1 r2 3解 :(1) D max = min P ( u ) d(u ,v) 1 V U 3D min = P ( u ) min d (u , v) 0 j i 1由于就是三元对称信源 ,又就是等概分布 ,所以依据 r 元离散对称信源可得 R(D) =log3 - Dlog2 -H(D) = log3 - D - H(D) 0<=D<=2/3= 0 D>2/3(2)满意 R(D) 函数的信道其反向传递概率为1 D (i j )P(u i | v j ) D2 (i j )13以及有 P(v j )= 依据依据贝叶斯定律 ,可得该信道的正向传递概率为 :1 D2 D (i j )P( v j | u i ) (i j )九,设二元码为 C=[11100,01001,10010,00111](1) 求此码的最小距离 d min ;(2) 采纳最小距离译码准就 ,试问接收序列 10000,01100 与 00100 应译成什么码字?(3) 此码能订正几位码元的错误?解:(1) 码距如左图11100 01001 10010 001111110001001 10010 00111 33 4 43 3故 d min = 3(2) 码距如右图故 10000 译为 译为 11100,00100 译为 11100 或 0011110010,01100 d min 2 e 1,知此码能订正一位码元的错误;(3) 依据。
信息论习题集.doc
信息论概念复习题一、填空1、1948年,美国数学家查理发表了题为“通信的数学理论”的长篇论文,从阳创立了信息论C2、貝们研究信息论的目的是为了高效、nJ靠、安金地交换和利用各种各样的信息。
3、信息的可度量性是建立信息论的基础。
4、统计度量是信息度量最常用的方法。
5、爛是香农信息论最基本最重要的概念。
6、事物的不确定度是用时间统计发生概率的对数来描述的。
7、单符号离散信源一般用随机变最描述,而多符号离散信源一般用随机矢最描述。
8、一个随机事件发生某一结果后所带来的信息量称为口信息量,定义为其发生概率对数的负值O9、口信息量的单位一般有比特、奈特和哈特o10、必然事件的自信息是_Q_ o11、不可能事件的口信息量是二。
12、两个相互独立的随机变量的联合口信息量等于两个口信息量Z和o13、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息Z 间的平均互信息量趋丁•变小。
14、离散平稳无记忆信源X的N次扩展信源的爛等于离散信源X的爛的N倍o15、离散平稳有记忆信源的极限爛,施=辄卅(X“/X{X2・・・X NT)。
16、対于n元m阶马尔可夫信源,其状态空间共有止个不同的状态。
17、一维连续随即变量X在[a, b]区间内均匀分布时,其信源嫡为log? (b・a)。
丄log °2廊P18、平均功率为P 的高斯分布的连续信源,其信源爛,比(X) =2 o19、对于限峰值功率的连续信源,当概率密度均匀分布时连续信源爛具有最大值。
2()、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源爛有最大值。
22、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。
23、信道的输出仅与信道当前输入有关,而L过去输入无关的信道称为无记忆信道。
24、具有一一对应关系的无噪信道的信道容量C= log2n o25、对称信道的信道容量C= log.m-H mi o26、对于离散无记忆信道和信源祜N次扩展,其信道容量C、_NC_ o27、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加吋,此信道称为加性连续信道。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
位计算,共需3秒钟传输。
(2)统计图像中各灰度级的出现次数:
如果考虑信源符号的统计特性,对上述灰度级进行编码,如下图所示。
得如下码字:
【8.10】有一个含有8个消息的无记忆信源,其概率各自为0.2, 0.15, 0.15, 0.1, 0.1,
0.1, 0.1, 0.1。试编成两种三元非延长码,使它们的平均码长相同,但具有不同的
【8.4】信源空间为
码符号为X{0,1,2},试构造一种三元的紧致码。
解:
原信源有8个信源符号,为了有效利用短码,需对原信源进行扩展,添加1
个概率为0的信源符号,使其满足9=2*3+3成立。编码过程如下:
【8.5】某气象员报告气象状态,有四种可能的消息:晴、去、雨和雾。若每个
消息是等概率的,那么发送每个消息最少所需的二元脉冲数是多少?又若四个消
如果按上述情况进行编码,必定要满足 ,根据
可得,
因此完成上述编码的概率分布为:
【8.3】设信源符号集
(1)求H(S)和信源冗余度;
(2)设码符号为X{0,1},编出S的紧致码,并求S的紧致码的平均码长
;
(3)把信源的N次无记忆扩展信源 编成紧致码,试求出N2,3,4,时
的平均码长 ;
(4)计算上述N1,2,3,4这四种码的编码效率和码冗余度。
而如果码长 满足上述不等式,根据Kraft不等式构造即时码的方法,可
以构造出码长为 的即时码,具体构造过程略,参照课本相关定理。
【5.5】若有一信源
每秒钟发出2.66个信源符号。将此信源的输出符号送入某一个二元信道中进行
传输(假设信道是无噪无损的),而信道每秒钟只传递两个二元符号。试问信源
不通过编码能否直接与信道连接?若通过适当编码能否中在信道中进行无失真
传输?若能连接,试说明如何编码并说明原因。
解:如果不通过编码,即信道的两个码符号对应两个信源符号,而信道传输码符
号的速度小于信源发出信源符号的速度,因此势必会造成信源符号的堆积,因此
不通过编码是无法将信源与信道直接连接。信源平均每秒发出的信息量为
而该信道的信道容量为1比特/符号,平均每秒能够传输的最大信息量为2比特,
扩展信源的平均码长为:
当 时,根据香农第一定理,平均码长为:
(5)编码效率为:
因此有不进行信源扩展时,编码效率为:
进行一次扩展时,编码效率为:
进行二次扩展时,编码效率为:当 时,编码效率趋向于1。
因此,从本题结论可看出,对于变长紧致码,扩展信源的次数不需很大时就
可以达到高效的无失真编码,这一点与等长码有很大的不同。
令D5=D0D1,上序列变为:D4D3D3D5D1D1D4D1D0D5D1
令D6=D5D1上序列变为:D4D3D3D6D1D4D1D0D6D0D1D1D1D1
令D7=D1D1=11,上序列变为D4D3D3D6D1D4D1D0D6D0D7D7
其中D0=0,D1=1,D2=00,D3=10,D4=0000,D5=01,D6=011,D7=11
息出现的概率分别为1/4 1/8 1/8和1/2,问在此情况下消息所需的二元脉冲数是多
少?如何编码?解:平均每个消息携带的信息量为2比特,因此发送每个消息最少需要的二元脉冲数为2。如果四个消息非等概率分布,采用紧致码编码,可使得所需要的二元
脉冲数最少,编码过程如下:
平均码长为:
二元码符号/信源符号
即在此情况下消息所需的二元脉冲数为1.75个。
程编码方案:第一步,根据0的游程长度编成8个码字,第二步,将8个码字变
换成二元变长码,如下表所示。
(1)试问最后的二元变长码是否是否是惟一可译码;
(2)试求中间码对应的信源序列的平均长度 ;
(3)试求中间码对应的二元变长码码字的平均长度 ;
(4)计算比值 ,解释它的意义,并计算这种游程编码的编码效率;
【8.9】现有一幅已离散量化后的图像,图像的灰度量化分成8级,见下表。表
中数字为相应像素上的灰度级。
另有一无损无噪二元信道,单位时间(秒)内传输100个二元符号。
(1)现将图像通过给定的信道传输,不考虑图像的任何统计特性,并采用二元等长码,问需要多长时间才能传完这幅图像?
(2)若考虑图像的统计特性(不考虑图像的像素之间的依赖性),求此图像的
因此
解:
【5.2】有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了
对应的码A、B、C、D、E和F。
(1)求这些码中哪些是惟一可译码;
(2)求哪些码是非延长码(即时码);
(3)求对所有惟一可译码求出其平均码长L。
解:(1)上述码字中,A为等长码,且为非奇异码,因此码A为惟一可译码;
码B中,根据惟一可译码的判断方法,可求得其尾随后缀集合为
信源熵H(S),并对灰度级进行霍夫曼最佳二元编码,问平均每个像素需
用多少二元码符号来表示?这时需多少时间才能传送完这幅图像?
(3)从理论上简要说明这幅图像还可以压缩,而且平均每个像素所需的二元码
符号数可以小于H(S)比特。
解:(1)采用二元等长码,不考虑信源符号的统计特性,平均每个灰度需要3
位二进制表示,在10*10的图像上,共需300位二进制表示,以每秒传输100
(2)求该信道的信道容量及其达到信道容量时的输入概率分布。
解:(1)根据已知条件,有
【3.5】若X、Y和Z是三个随机变量,试证明:
(1)I (X;YZ)=I(X;Y)+I(X;Z | Y)=I (X;Z)+I (X;Y | Z)
(2)I (X;Y | Z)=I (Y; X | Z)=H(X | Z)-H(X | YZ)
解:(1)信源熵为H(S)P(x)logP(x)0.469比特/符号
因此得信源冗余度为
(2)对其进行紧致码编码,二个信源符号一个编码为0,一个编码为1,因
此平均码长为1码符号/信源符号;
(3)对原码字进行二次扩展,其信源空间为:
进行Huffman编码,得码字如下:
平均码长为:
对原信源进行三次扩展,得扩展信源空间为进行Huffman编码,码字如下:
(3)I (X;Y | Z)30当且仅当(X, Z,Y)是马氏链时等式成立。
(3)
【3.10】求下列两个信道的信道容量,并加以比较
因此有
【4.17】在图片传输中,每帧约个像素,为了能很好地重现图像,需分16个亮度电平,并假设亮度电平等概率分布。试计算每秒钟传送30帧图片所需
信道的带宽(信噪功率比为30dB)。
解:每秒需要传输的信息量为:
【4.18】设在平均功率受限高斯加性波形信道中,信道带宽为3kHz,又设(信
号功率+噪声功率)/噪声功率=10dB。
(1)试计算该信道传送的最大信息率(单位时间);
(2)若功率信噪比降为5dB,要达到相同的最大信息传输率,信道带宽应为多
少?解:(1)根据已知条件有,
(2)如果功率信噪比降为5dB,即
{1,11,111,1111,11111},且其中任何后缀均不为码字,因此码B是惟一可译码。码
C为逗点码,因此码C为惟一可译码;码D不是惟一可译码,因为其尾随后缀
集合中包含0,而0又是码字;码E的尾随后缀集合为空集,因此码E是惟一可
译码;码F不是惟一可译码,因为其尾随后缀集合中包含0,而0又是码字,因
因此通过编码可以实现二者的连接。若要连接,需要对扩展信源的信源符号进行编码,目的是使送入信道的信息
量小于信道每秒能接收的最大信息量(或使每秒钟编码后送入信道的码符号个数
必须小于信道所能接受的最大码符号个数),具体编码方法将在第八章进行。
【5.6】设某无记忆二元信源,概率(1) 0.1 1 p=P=,(0) 0.9 0 p=P=,采用下述游
码长的方差,并计算平均码长和方差,说明哪一种码更实用些。
解:进行三元编码,需增补一个概率为0的信源符号,两种编码方法如下所示。
【8.15】对输入数据流分别用LZ-77算法、LZ-78
算法,LZW算法、K-Y算法进行编码,并计算各种方法的压缩率。
解:采用LZ-77编码,所得的编码序列为:
(0,0,0)(1,3,1)(0,0,1)(2,2,1)(6,3,1)(5,3,0)(13,3,0)(9,3,1)(14,3,eof)
解:(1)该码是非延长码,因此肯定是惟一可译码;
(2)由于信源本身是无记忆的,因此各信源符号的概率如下表所示。
因此信源序列的平均长度为
(3)中间码对应的二元变长码码长为
(4)
,
反应了每个信源符号需要的二元码符号数。平均每个信源符号的信息量为
编码效率为
【8.2】设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样霍夫
得到的附加信息为:
(3)根据已知条件,有
因此接收到第三个数字也是0时,得到多少关于M1的互信息为:
此时得到的附加信息为:
(4)根据已知条件,有
因此接收到第四个符号为0时,得到的关于M1的互信息为
此时得到的附加信息为
【3.3】设二元对称信道的传递矩阵为
(1)若P(0)=3/4,P(1)=1/4,求H(X ),H(X | Y ),H(Y | X )和I (X;Y);
此F不是惟一可译码。
(2)码A、C、E是即时码(非延长码)
(3)码A的平均码长为3;码B的平均码长为2.125;码C的平均码长为
2.125;码F的平均码长为2。
【5.3】证明定理5.6,若存在一个码长为l1,l2,,lq的惟一可译码,则一定存在具有相同码长的即时码。
如果存在码长为 的惟一可译码,则 必定满足如下不等式
【3.2】设8个等概率分布的消息通过传递概率为p的BSC进行传送,8个消息