信息论考试题
信息论考试题及答案
![信息论考试题及答案](https://img.taocdn.com/s3/m/d2465e3d195f312b3069a543.png)
1.有二元对称信道编码:1)已知信源X,41,4310==p p ,求H(X),H(X|Y),I(X,Y)。
2)求信道容量C 。
解:由题意可知,(X,Y )服从如下的联合分布Y,X0101/21/1211/41/6X 的边际分布是(3/4,1/4),Y 的边际分布是(7/12,5/12))(811.03log 432)41log 4143log 43(log )(210bit p p X H i i i =-=+-=-=∑=)bit (749.07log 1275log 1253log 433252,53(125)71,76(127)|()()|(22210=++--=+====∑=H H i Y X H i Y p Y X H i )bit (062.07log 1275log 12538)|()(),(22=--=-=Y X H X H Y X I )(082.03log 35)31(1)(12bit H p H C =-=-=-=2.最小熵。
求出)(),...,,(21p H p p p H n =最小值是多少,因为p 的范围是在n 维概率向量集合上的最小值是多少?找到所有达到这个最小值时的p。
解:我们希望找到所有的概率向量),...,,(21n p p p p =,让∑-=i ii p p p H log )(达到最小,现在有时等式成立或当且仅当10,0log =≥-i i i p p p ,因此,唯一可能使得H(p)最小化的概率向量是对于某些i 和j 满足.,0,1i j p p j i ≠==这里有n 个这样的向量,比如)1,...,0,0(),0,...,1,0(),0,...,0,1(,此时H(p)的最小值为0。
3.赫夫曼码。
考虑随机变量⎪⎪⎭⎫ ⎝⎛=02.003.004.004.012.026.049.07654321x x x x x x x X (a)求X 的二元赫夫曼码。
信息论基础理论与应用考试题及答案
![信息论基础理论与应用考试题及答案](https://img.taocdn.com/s3/m/fdab688ea417866fb94a8e84.png)
信息论基础理论与应用考试题一﹑填空题(每题2分,共20分)1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑XX 性和认证性,使信息传输系统达到最优化。
(考点:信息论的研究目的)2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成531010⨯个不同的画面。
按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。
(考点:信息量的概念与计算)3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。
(考点:信道按噪声统计特性的分类)4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。
若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。
(考点:等长码编码位数的计算)5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。
(考点:错误概率和译码准则的概念)6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。
(考点:纠错码的分类)7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。
(考点:线性分组码的基本概念)8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =⎡⎤==-⎢⎥⎣⎦∑)。
(考点:平均信息量的定义)9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e(e≥t)个随机错误,则要求(d≥t+e+1)。
(考点:线性分组码的纠检错能力概念)10.和离散信道一样,对于固定的连续信道和波形信道都有一个最大的信息传输速率,称之为(信道容量)。
信息论基础考试试题
![信息论基础考试试题](https://img.taocdn.com/s3/m/4cf5945b6fdb6f1aff00bed5b9f3f90f77c64d41.png)
信息论基础考试试题一、信息论基础考试试题考试试题内容如下:1. 简述信息论的定义和基本原理。
信息论是由克劳德·香农提出的一门数学理论,主要研究信息的量和信息传输的可靠性。
其基本原理包括信源编码、信道编码和信道容量三个方面。
其中,信源编码是将信息源的符号序列编码为短码字节,减少信息传输的冗余;信道编码是为了在承载信息传输的信道中降低传输过程中的错误率和噪声干扰;信道容量则是指在给定的信道条件下,能够传输的最大信息速率。
2. 请定义信息熵,并给出其计算公式。
信息熵是用来衡量一个随机变量的不确定性或者信息量的多少。
假设一个离散随机变量X,其取值的概率分布为P(X),那么信息熵的计算公式为:H(X) = -Σ[P(x)log2P(x)]其中,Σ表示求和运算,x为随机变量X的所有取值。
3. 解释条件熵和联合熵的概念。
条件熵是指在给定某个随机变量的取值条件下,另一个随机变量的不确定性或信息量。
设有两个离散随机变量X和Y,X的条件熵H(X|Y)即为在已知Y的条件下,X的信息熵。
联合熵是指同时考虑两个或多个随机变量的不确定性或信息量。
对于随机变量X和Y,它们的联合熵H(X,Y)表示同时考虑X和Y的信息熵。
4. 请解释互信息的概念,并给出其计算公式。
互信息是用来衡量两个随机变量之间的相关程度或者依赖关系。
对于离散随机变量X和Y,互信息的计算公式为:I(X;Y) = ΣΣ[P(x,y)log2(P(x,y)/(P(x)P(y)))]其中,ΣΣ表示双重求和运算,P(x,y)表示X和Y同时发生的概率,P(x)和P(y)分别为X和Y的边缘概率。
5. 请简要介绍信道编码理论中的三个重要概念:纠错码、检测码和调制。
纠错码是一种用于在传输过程中恢复误差的编码技术。
通过添加冗余信息,可以在接收端检测和纠正传输过程中产生的错误。
检测码是用于在传输过程中检测错误的编码技术。
它可以发现传输中是否存在错误,但无法纠正错误。
调制是指将数字信号转换为模拟信号或者模拟信号转换为数字信号的过程。
信息论 智力题目
![信息论 智力题目](https://img.taocdn.com/s3/m/14a1604b6d85ec3a87c24028915f804d2b168786.png)
信息论智力题目
这是一道关于信息论的智力题目:
在某个地区,有三种体型的人群:胖子、不胖不瘦的人和瘦子。
他们得高血压的概率也不同。
现在的问题是,如果我们知道某人是高血压患者,那么这句话包含了多少关于这个人身体状况的信息?
假设胖子得高血压的概率为15%,不胖不瘦者得高血压的概率为10%,瘦
子得高血压的概率为5%。
胖子占该地区的10%,不胖不瘦者占80%,瘦
子占10%。
我们需要计算这句话“该地区的某一位高血压者是胖子”包含了多少信息量。
根据信息论,信息量是衡量不确定性的减少程度。
如果某事件的发生概率很高,那么该事件的信息量就较小;如果某事件的发生概率很低,那么该事件的信息量就较大。
首先,我们要计算在不知道某人是胖子的情况下,他是高血压患者的信息量。
这等于总的得高血压的概率(也就是胖子、不胖不瘦者和瘦子的得高血压概率之和)。
然后,我们要计算在知道某人是胖子的情况下,他是高血压患者的信息量。
这等于胖子得高血压的概率。
最后,通过这两个信息量的差值,我们可以得到“该地区的某一位高血压者是胖子”这句话的信息量。
这个差值就是我们要找的答案。
信息论考试题(填空简答)
![信息论考试题(填空简答)](https://img.taocdn.com/s3/m/a2e2f9f0dd36a32d7275812b.png)
一.填空题(每空1分,共20分)1.香农信息论的三个基本概念分别为_______________ 、_____________ 、 ____________ 。
2•对离散无记忆信源来说,当信源呈_______________ 分布情况下,信源熵取最大值。
3•写出平均互信息的三种表达公式________________ 、_____________ 、 ____________ 。
4.若连续信源输出的平均功率和均值被限定,则其输出信号幅度的概率密度函数为______________ 时,信源具有最大熵值;若连续信源输出非负信号的均值受限,则其输出信号幅度呈____________ 分布时,信源具有最大熵值。
5. ________________________________ 信道容量是为了解决通信的_________________________ 问题,而信息率失真函数是为了解决通信的___________ 问题。
6. ______________________________________________________ 费诺编码比较适合于的信源。
7•无记忆编码信道的每一个二元符号输出可以用多个比特表示,理想情况下为实数,此时的无记忆二进制信道又称为__________________________ 。
&差错控制的4种基本方式是:_________________ 、_____________ 、 ____________ 、______________ 。
9 . (n,k)线性码能纠t个错误,并能发现I个错误(l>t),码的最小距离为:10.循环码码矢的i次循环移位等效于将码多项式乘___________________ 后再模______________ 。
二.简答题(每小题5分,共30分)1 •分别说明平均符号熵与极限熵的物理含义并写出它们的数学表达式。
2•写出二进制均匀信道的数学表达式,并画出信道容量C与信道转移概率 p的曲线图。
信息论考试简答题
![信息论考试简答题](https://img.taocdn.com/s3/m/f1aa70b76394dd88d0d233d4b14e852458fb3987.png)
简答题:1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么?答:3类,分别是:信源编码,信道编码,和加密编码。
2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
答:通信系统模型如下:数据处理定理为:串联信道的输入输出X、Y、Z 组成一个马尔可夫链,且有,。
说明经数据处理后,一般只会增加信息的损失。
3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为:表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息:表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
4.简述最大离散熵定理。
对于一个有m个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
最大熵值为。
5.熵的性质什么?答:非负性,对称性,确定性,香农辅助定理,最大熵定理。
6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。
7.信道疑义度的概念和物理含义?答:概念:)|(log )()|(j i j i j i b a p b a p Y X H ∑∑-=物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。
8.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。
答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。
由得,则9.解释无失真变长信源编码定理? 答:只要,当N 足够长时,一定存在一种无失真编码。
《信息论》期末考试试题( 卷)标准答案
![《信息论》期末考试试题( 卷)标准答案](https://img.taocdn.com/s3/m/13053db379563c1ec4da717d.png)
。
4) R(D)是满足 D 准则下平均传送每信源符号的所需的最少比特数,它是定义域 上的严格递减函数。
5) AWGN 信道下实现可靠通信的信噪比下界为-1.59dB,此时对应的频谱利用率 为 0。
6)若某离散无记忆信源有 N 个符号,并且每个符号等概出现,对这个信源进行 二元 Huffman 编码,当 N = 2i (i 是正整数)时,每个码字的长度是 i ,平 均码长是 i 。
2 1) 求此马氏源的平稳分布;(4 分) 2) 求此马氏源的熵;(3 分) 3)求平稳马氏源的二次扩展源的所有符号概率;(3 分) 4)对此二次扩展源进行二元 Huffman 编码并求编码后平均码长和编码效率。 (3+2 分)
解:
1) 此马氏源的平稳分布: (π1
π2
π3
) =(1 3
1 3
1 3
)
3 × 1 × (− 1 log 1 − 1 log 1 − 1 log 1) = 1.5比特/信源符号 2) 此马氏源的熵: 3 2 2 4 4 4 4
3)平稳马氏源的二次扩展源的所有符号及概率为: p(x1x2 ) = p(x1 ) p(x2 x1)
1 00: 6
1 11: 6
1 22: 6
编码效率为: l 19
2.(共 10 分)有两枚硬币,第一枚是正常的硬币,它的一面是国徽,另一面是 面值;第二枚是不正常的硬币,它的两面都是面值。现随机地抽取一枚硬币,进 行 2 次抛掷试验,观察硬币朝上的一面,其结果为:面值、面值。
1)求该试验结果与事件“取出的是第一枚硬币”之间的互信息;(4 分)
1) 求该信道的信道容量;(2 分)
2) 当传输速率达到容量时,确定 M 与 n 的关系。(2 分)
信息论与编码考试题(附答案版)
![信息论与编码考试题(附答案版)](https://img.taocdn.com/s3/m/dcdb8a5827284b73f342501d.png)
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln(2 ⅇ 2))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
信息论考试卷及答案
![信息论考试卷及答案](https://img.taocdn.com/s3/m/e5b1d578571252d380eb6294dd88d0d233d43c3b.png)
信息论考试卷及答案考试科⽬名称:信息论⼀. 单选(每空2分,共20分)1.信道编码的⽬的是(C ),加密编码的⽬的是(D )。
A.保证⽆失真传输B.压缩信源的冗余度,提⾼通信有效性C.提⾼信息传输的可靠性D.提⾼通信系统的安全性2.下列各量不⼀定为正值的是(D )A.信源熵B.⾃信息量C.信宿熵D.互信息量3.下列各图所⽰信道是有噪⽆损信道的是(B )A.B.C.D.4.下表中符合等长编码的是( A )5.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系正确的是(A )A.H(XY)=H(X)+H(Y/X)B.H(XY)=H(X)+H(X/Y)C.H(XY)=H(Y)+H(X)D.若X和Y相互独⽴,H(Y)=H(YX)6.⼀个n位的⼆进制数,该数的每⼀位可从等概率出现的⼆进制码元(0,1)中任取⼀个,这个n位的⼆进制数的⾃信息量为(C )A.n2B.1 bitC.n bitnD.27.已知发送26个英⽂字母和空格,其最⼤信源熵为H0 = log27 = 4.76⽐特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03⽐特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32⽐特/符号;以此类推,极限熵H=1.5⽐特/符号。
问若⽤⼀般传送⽅式,冗余度为( B )∞A.0.32B.0.68C .0.63D .0.378. 某对称离散信道的信道矩阵为,信道容量为( B )A .)61,61,31,31(24log H C -= B .)61,61,31,31(4log H C -= C .)61,61,31,31(2log H C -= D .)61,31(2log H C -= 9. 下⾯不属于最佳变长编码的是( D )A .⾹农编码和哈夫曼编码B .费诺编码和哈夫曼编码C .费诺编码和⾹农编码D .算术编码和游程编码⼆. 综合(共80分)1. (10分)试写出信源编码的分类,并叙述各种分类编码的概念和特性。
信息论与编码考试题(附答案版)
![信息论与编码考试题(附答案版)](https://img.taocdn.com/s3/m/24a505283b3567ec112d8a61.png)
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(,1/-2.,ln(-,2πⅇ,σ-2...))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
信息编码论期末考试试题
![信息编码论期末考试试题](https://img.taocdn.com/s3/m/e37dbf835122aaea998fcc22bcd126fff6055d7d.png)
信息编码论期末考试试题一、单项选择题(每题2分,共20分)1. 信息论的奠基人是:A. 爱因斯坦B. 牛顿C. 香农D. 麦克斯韦2. 下列哪个不是编码的基本原则?A. 唯一性B. 可识别性C. 可逆性D. 复杂性3. 熵是衡量信息量的一个指标,它在信息论中的定义是:A. 信息的不确定性B. 信息的确定性C. 信息的有序性D. 信息的无序性4. 在信息编码中,冗余度是指:A. 编码中多余的部分A. 编码中重复的部分C. 编码中必需的部分D. 编码中缺失的部分5. 以下哪个编码方式不是基于概率的?A. 霍夫曼编码B. 香农-费诺编码C. 游程编码D. ASCII编码二、填空题(每题2分,共20分)1. 信息论中的信息量通常用______来衡量。
2. 信息的传输速率是指单位时间内传输的______。
3. 在编码理论中,______编码是一种无损压缩编码。
4. 信息论中的信噪比是指______与______的比例。
5. 编码的目的是减少信息的______,提高信息的传输效率。
三、简答题(每题10分,共30分)1. 简述信息论中熵的概念及其计算公式。
2. 描述霍夫曼编码的基本原理及其在数据压缩中的应用。
3. 阐述信道容量的概念,并解释如何通过信道编码来逼近信道容量。
四、计算题(每题15分,共30分)1. 给定一组字符及其出现概率:A(0.4), B(0.25), C(0.15), D(0.1), E(0.1)。
请使用霍夫曼编码为这组字符设计一个最优编码方案,并计算该编码方案的平均码长。
2. 假设一个信道的信噪比为10dB,信道带宽为3000Hz,请计算该信道的最大数据传输速率(香农极限)。
五、论述题(共20分)1. 论述信息编码在现代通信系统中的重要性,并举例说明其在实际应用中的作用。
请考生在规定的时间内完成以上试题,注意保持答题卡的整洁,字迹清晰。
祝您考试顺利!。
信息论编码(考试)
![信息论编码(考试)](https://img.taocdn.com/s3/m/ff604a09b52acfc789ebc9b4.png)
信息论编码考试题1.设某二元码为C={00011,10110,01101,11000} (1)计算此码的最小距离d min ;(2)采用最小距离译码准则,接收到序列01100,00100应译成什么码字? (3)此码能纠正几位码元的错误?2.由符号集{0,1}组成的二阶马氏链,转移概率为: p(0/00)=0.7,p(0/11)=0.8,p(1/00)=0.3,p(1/11)=0.2, p(0/01)=0.6,p(0/10)=0.5,p(1/01)=0.4,p(1/10)=0.5. 画出状态转移图,并计算出各状态的稳态概率。
3.已知信源的数学模型⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡05.005.01.025.025.03.0x x x x x x )X (P X 654321对该信源编二进制哈夫曼码,用图表表示编码过程,并求该霍夫曼码的平均码长和编码效率。
4.已知信道矩阵P(Y/X) =⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡6.01.03.03.06.01.01.03.06.0;(1)该信道为什么信道?(2)求该信道的信道容量C ,并说明达到信道容量时信源的概率分布P(X)。
5.如果你在已知今天是星期四的情况下问你的朋友“明天是星期几?”,则答案中你能获得多少信息量?(假设已知星期一至星期日的排序)6.判断码 {01,111,011,00,010,110}是否是及时码?说明原因。
附加题:1.证明:平均互信息量同信息熵之间满足:I(X;Y)=H(X)+H(Y)-H(XY) 证明:()()()()()()()()()()Y X H X H y x p y xp x p y xp x p y x p y x p Y X I XXYj i j iYi j iXYi j i j i -=⎥⎦⎤⎢⎣⎡---==∑∑∑∑∑∑log log log;同理()()()X Y H Y H Y X I -=;则 ()()()Y X I Y H X Y H ;-= 因为 ()()()X Y H X H XY H +=故()()()()Y X I Y H X H XY H ;-+= 即()()()()XY H Y H X H Y X I -+=;2.由符号集合{0,1}组成的二阶马氏链,转移概率为:p(0/00)=0.8,p(0/11)=0.7,p(1/00)=0.2,p(1/11)=0.3,p(0/01)=0.5,p(0/10)=0.4,p(1/01)=0.5,p(1/10)=0.6。
《信息论》期末考试B卷答案
![《信息论》期末考试B卷答案](https://img.taocdn.com/s3/m/4cb5fc84d15abe23482f4d94.png)
北方民族大学试卷课程代码: 01100622 课程:信息理论及编码B 卷答案:号学说明:此卷为《信息理论及编码》B 卷答案一、概念简答题(每小题6分,共30分)1、比较平均自信息(信源熵)与平均互信息的异同。
题试试考末期期学季 秋 年学- —80名姓班级业专程工息信院学程工息信气电线 - q- 答:平均自信息为 H X - -7 p q log p q ,表示信源的平均不确定度,也表示平-i 4-均每个信源消息所提供的信息量。
........................... (3分)平均互信息I X;Y P xy logX,Y。
表示从Y 获得的关于每个 X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
(3分)2、简述香农第一定理。
- 答:对于离散信源 S 进行r 元编码,只要其满足L N_匕^, ..................................... (3分)-N log r- 当N 足够长,总可以实现无失真编码。
............................. (3分) 密3、简述唯一可译变长码的判断方法?- 答:将码C 中所有可能的尾随后缀组成一个集合F ,当且仅当集合 F 中没有包含任一码字-时,码C 为唯一可译变长码。
构成集合 F 的方法: ............. (2分) 首先,观察码C 中最短的码字是否是其他码字的前缀。
若是,将其所有可能的尾随后缀排 列出。
而这些尾随后缀又可能是某些码字的前缀, 再将由这些尾随后缀产生的新的尾随后缀列出。
依此下去,直至没有一个尾随后缀是码字的前缀或没有新的尾随后缀产生为止。
.............(2分)接着,按照上述步骤将次短的码字直至所有码字可能产生的尾随后缀全部列出, 得到尾随后缀集合F 。
............. (2分) 4、简述最大离散熵定理。
信息论期末考试试题1
![信息论期末考试试题1](https://img.taocdn.com/s3/m/a2b5e70e58eef8c75fbfc77da26925c52cc591b8.png)
信息论期末考试试题1安徽⼤学2011—2012学年第1学期《信息论》考试试卷(AB 合卷)院/系年级专业姓名学号⼀、填空题1、接收端收到y 后,获得关于发送的符号是x 的信息量是。
2、⾹农信息的定义。
3、在已知事件z Z ∈的条件下,接收到y 后获得关于事件x 的条件互信息(;|)I x y z 的表达式为。
4、通信系统模型主要分成五个部分分别为:。
5、研究信息传输系统的⽬的就是要找到信息传输过程的共同规律,以提⾼信息传输的可靠性、有效性、和,使信息传输系统达到最优化。
6、某信源S 共有32个信源符号,其实际熵H ∞=1.4⽐特/符号,则该信源剩余度为。
7、信道固定的情况下,平均互信息(;)I X Y 是输⼊信源概率分布()Px 的型凸函数。
信源固定的情况下,平均互信息(;)I X Y 是信道传递概率(|)P y x 的型凸函数。
8、当信源与信道连接时,若信息传输率达到了信道容量,则称此信源与信道达到匹配。
信道剩余度定义为。
9、已知信源X 的熵H (X )=0.92⽐特/符号,则该信源的五次⽆记忆扩展信源X 5的信息熵5()H X = 。
10、将∞H ,6H ,0H ,4H ,1H 从⼤到⼩排列为。
11、根据⾹农第⼀定理,对于离散⽆记忆信源S ,⽤含r 个字母的码符号集对N 长信源符号序列进⾏变长编码,总能找到⼀种⽆失真的唯⼀可译码,使每个信源符号所需平均码长满⾜:。
12、多项式剩余类环[]())q F x f x 是域的充要条件为。
13、多项式剩余类环[](1)n q F x x -的任⼀理想的⽣成元()g x 与1n x -关系为。
14、有限域122F 的全部⼦域为。
15、国际标准书号(ISBN )由⼗位数字12345678910a a a a a a a a a a 组成(诸i a ∈11F ,满⾜:1010(mod11)ii ia=≡∑),其中前九位均为0-9,末位0-10,当末位为10时⽤X 表⽰。
信息论考试题判读题
![信息论考试题判读题](https://img.taocdn.com/s3/m/aa03b2d784254b35eefd3411.png)
1.信息就是一种消息。
( )2.互信息量可正可负,也可为零。
( )3.当随机变量相互独立时,条件熵等于信源熵。
( )4.信源熵具有严格的下凸性。
( )5.连续信源和离散信源的平均互信息量都具有非负性。
( )6.一维高斯分布的连续信源,其信源熵只与其均值和方差有关。
( )7.所谓信道容量就是信道中能够传送的最大信息量。
( )8.信道的信息传输速率就是平均互信息量,即(;)R I X Y = bit/符号。
( )9.信道容量C 不仅与信道统计特性有关,还与输入信源的概率分布有关( )10.求信道容量是互信息量(;)I X Y 求极大值的问题。
( )11.对于无损信道,其信道容量为()max ()p x C H Y = 。
( )12.高斯白噪声信道是平均功率受限条件下的最差信道。
( )13、唯一可译码是一个码的任意一串有限长的码符号序列只能被唯一地译成所对应的信源符号序列,等长非奇异码一定是唯一可译码。
( )14、一个熵为H (S )的离散无记忆信源。
若对信源长为N 的符号序列进行等长编码,设码字是从r 个符号组成的码符号集中选取L 个码符号组成的,若对于任意ε>0,只要满足lN ≥()log H S r +ε,几乎可实现无失真编码。
( )15、信源编码的目是提高传输有效性,即用尽可能短的码符号序列代表信源符号。
( )16、无失真信源编码定理证明,如果对信源序列进行编码,当序列长度足够长时 ,存在无失真编码使得传送每个信源符号所需的比特数接近信源的熵。
( )17、对于定长码, 只要非奇异就唯一可译。
这就要求码字的数目不少于被编码的信源序列的个数。
( )18、满足Kraft 不等式并不一定唯一可译,因为奇异码可能满足kraft 不等式。
( )19.信源的熵为无限大,而信道容量总是有限的,所以不可能实现无失真传输。
( )20.在一定失真度D的条件下,尽可能用最少的码符号来传送信源消息,使信源的消息尽快地传送出去,以提高通信的可靠性。
信息论与编码期末考试题
![信息论与编码期末考试题](https://img.taocdn.com/s3/m/01ef2669a36925c52cc58bd63186bceb19e8ed34.png)
信息论与编码期末考试题信息论与编码期末考试题(一)一、判断题. 1. 当随机变量和相互独立时,条件熵等于信源熵. ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ()9. 率失真函数的最小值是. ()10.必然事件和不可能事件的自信息量都是. ()二、填空题 1、码的检、纠错能力取决于 . 2、信源编码的目的是;信道编码的目的是 . 3、把信息组原封不动地搬到码字前位的码就叫做 . 4、香农信息论中的三大极限定理是、、 . 5、设信道的输入与输出随机序列分别为和,那么成立的条件 .. 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . 7、某二元信源,其失真矩阵,那么该信源的= . 三、计算题. 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为. (1)计算接收端的平均不确定度;(2)计算由于噪声产生的不确定度;(3)计算信道容量以及最正确入口分布. 2、一阶马尔可夫信源的状态转移图如右图所示,信源的符号集为. (1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵并与进行比拟. 3、设码符号为,信源空间为试构造一种三元紧致码. 4、设二元线性分组码的生成矩阵为. (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)假设接收矢量,试计算出其对应的伴随式并按照最小距离译码准那么试着对其译码. (二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。
信息论——精选推荐
![信息论——精选推荐](https://img.taocdn.com/s3/m/23a884fd5ff7ba0d4a7302768e9951e79b89691c.png)
信息论信号论考试复习题⼀、填空题。
1. ⾹农信息论中定义的信息是“事物运动状态和存在⽅式不确定性的描述”。
2. 消息是信息的载体。
构成消息的两个条件是能被通信双⽅所理解和可以在通信中传递和交换。
3. 信源编码的作⽤是根据失真度准则对信源的输出消息进⾏编码,⽤码字表⽰消息。
4. 信息论研究的主要问题是如何提⾼信息传输系统的有效性和可靠性。
5. 如果信源输出的消息的随机变量,可以在某⼀离散集合内取值,也可以在某⼀连续区间内取值,相应的信源就分别称为和。
——[答案:1.连续信源离散信源]6. 当条件概率分布p (y ∣x )给定时,平均互信息量I (X;Y )是输⼊概率分布p(x)的。
——【上凸函数】7. ⼋进制脉冲的平均信息量为,⼋进制脉冲所含信息量是⼆进制脉冲信息量的倍。
——【3 3】8. 熵函数的数学特性有、、、确定性、可加性、极值性、上凸性。
——【对称性⾮负性扩展性】9. 平均互信息量I (X;Y )与信源熵和条件熵之间的关系是。
【I (X;Y )=H (X )—H(X/Y)】 10. 设信源X 包含 4个不同的离散信息,当且仅当X 中各个信息出现的概率为时,信源熵达到最⼤值为,此时各个信息的⾃信息量为。
【1/4 2 2】 11. ⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越。
【⼩】 12. 信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的,⼆是信源符号分布的。
【相关性不均匀性】 13. 离散信道是输⼊和输出的随机变量的取值都是离散的信道。
14. 信道可依据输⼊输出的随机变量类型分成离散信道、连续信道、半离散或半连续信道。
15. 单符号离散信道的输⼊符号是X ,取之于{a1、a2…… an };输出符号为Y ,取值为{b1、b2、……bn },并有条件概率P(Y=bj/X=ai)=P(bj/ai)(i=1、2……m),这⼀组条件概率称为信道的传递概率或转移概率。
《信息论》期末考试试题(A 卷)标准答案
![《信息论》期末考试试题(A 卷)标准答案](https://img.taocdn.com/s3/m/62df59ac6c175f0e7dd13715.png)
北京邮电大学2006——2007学年第 一 学期《信息论》期末考试试题(A 卷)标准答案姓名 班级 学号 分数一、判断题(正确打√,错误打×)(共10分,每小题1分)1)异前置码是即时码; (√) 2)最大似然准则等价于最小汉明距离准则; (×) 3)离散信源记忆的长度越大,信源的符号熵越小; (√) 4)一维高斯信源的熵只与其均值和方差有关; (×) 5)为达到并联加性高斯噪声信道容量,在信道输入总功率给定条件下应给噪声方差大的子信道分配更多的功率; (×) 6)只要信息传输速率小于信道容量,总可以找到一种编码方式使得当编码序列足够长时传输差错率任意小; (√) 7)离散无记忆信源的N 次扩展源的熵是原信源熵的N 倍; (√) 8)仙农的AWGN 信道容量公式是在信道输入的平均功率和幅度受限条件下推导出来的; (×) 9)当马氏源的初始状态s 和输出nx x x ,,,10 给定后,那么状态1,21,,+n s s s 就能唯一确定; (√) 10)当平均失真大于其上限D max 时,率失真函数R (D )= 0 。
(√)二、填空题(共20分,每空2分)1) 设信源的熵为0.8比特/符号,对信源序列进行单符号编码,码序列为0、1二元序列,如果编码效率为100%,那么每信源符号平均码长为 0.8 ,码序列中“0 ”符号出现的概率为 1/2 ,信息传输速率为 1 比特/码符号。
2) 一阶平稳马氏源的符号转移概率为2.0)0|0(12|=X X p ,6.0)1|1(12|=X X p ,那么符号的平稳分布为=)0(X p 1/3 ,=)1(X p 2/3 ;信源的符号熵为 0.8879 比特/符号。
3)一维连续随机变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。
4)在输入平均功率相同的情况下, 高斯分布使加性噪声信道容量最小。
5) 二元等概信源的熵为 1 比特/符号,当信源输出序列长度L足够长时,典型序列的个数约等于2L。
《信息论》期末考试试题(A卷)标准答案
![《信息论》期末考试试题(A卷)标准答案](https://img.taocdn.com/s3/m/0048afa60029bd64783e2c9b.png)
2 次扩展信源符号 00 01 10 11 概 率 0.81 0.09 0.09 0.01 编 0 10 110 111 码
(3 分)
计算每信源符号平均码长为: l (1 0.19 0.10) / 2 0.645 ,编码器每秒输出 符号数为: 3.5 0.645 2.2575 2 ,所以传输不满足失真要求。 将信源的 3 次扩展源进行 Huffman 编码,结果为:
3
(1) 信源符号速率 3.5 大于信道传输速率 2,所以信源直接与信道相接,不能保证无失 真传输。 (3 分) (2) 采用适当的编码方式可以通过信道进行无失真传输。 (2 分) H ( X ) H (0.1) 0.1 log 0.1 0.9 log 0.9 0.469 比特/符号 信源熵率为 H (b / s ) H ( X ) 3.5 1.6415 b / s ,二元无噪信道容量为 C (b / s ) 2 b / s 。 因为 H (b / s) C (b / s) ,所以根据信源信道编码定理可知,采用适当的编码方式然后通
计 算 每 信 源 符 号 平 均 码 长 为 : l 0.5327 , 编 码 器 每 秒 输 出 符 号 数 为 : (5 分) 3.5 0.5327 1.8644 2 ,所以传输满足不失真要求。 由于这种编码所得是变长码,因此在编码器与信道之间应设置缓冲器。 (2 分)
六、计算题(16 分)
三、简答题(由 4 个独立子信道组成, 子信道方 差如右图所示,其中 1、2、3、4 子信道的方差分别为 2、1、 4、3; (1)达到容量时,信道输入应该是何种分布?各子信道的 输入是否统计独立? (1+1 分)
信息论与编码理论(最全试题集+带答案+各种题型)
![信息论与编码理论(最全试题集+带答案+各种题型)](https://img.taocdn.com/s3/m/f79b7e60be1e650e52ea99bf.png)
答:抗干扰能力强,中继时可再生,可消除噪声累计;差错可控制,可改善通信质量;便于加密和使用DSP处理技术;可综合传输各种信息,传送模拟系统时,只要在发送端增加莫属转换器,在接收端增加数模转换器即可。
7.简述信息的性质。
答:存在普遍性;有序性;相对性;可度量性;可扩充性;可存储、传输与携带性;可压缩性;可替代性;可扩散性;可共享性;时效性;
A.形式、含义和安全性
B.形式、载体和安全性
C.形式、含义和效用
D.内容、载体和可靠性
20.(D)是香农信息论最基本最重要的概念
A.信源B.信息C.消息D.熵
三.简答(
1.通信系统模型如下:
2.信息和消息的概念有何区别?
答:消息有两个特点:一是能被通信双方所理解,二是能够互相传递。相对于消息而言,信息是指包含在消息中的对通信者有意义的那部分内容,所以消息是信息的载体,消息中可能包含信息。
31.简单通信系统的模型包含的四部分分别为信源、有扰信道、信宿、干扰源。
32. 的后验概率与先念概率的比值的对数为 对 的互信息量。
33.在信息论中,互信息量等于自信息量减去条件自信息量。
34.当X和Y相互独立时,互信息为0。
35.信源各个离散消息的自信息量的数学期望为信源的平均信息量,也称信息熵。
第一章
一、填空(
1.1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2.按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
3.按照信息的地位,可以把信息分成客观信息和主观信息。
4.人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
一.填空1.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。
2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。
3.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。
4.离散对称信道输入等概率时,输出为 等概 分布。
5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。
6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。
12设有DMC,其转移矩阵为[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2/16/13/13/12/16/16/13/12/1|XY P ,若信道输入概率为[][]25.025.05.0=X P ,试确定最佳译码规则和极大似然译码规则,并计算出相应的平均差错率。
解:⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8/124/112/112/18/124/112/16/14/1][XYP最佳译码规则:⎪⎩⎪⎨⎧===331211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/6-1/8=11/24;极大似然规则:⎪⎩⎪⎨⎧===332211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/8-1/8=1/2。
13信息的基本概念在于它的 不确定性 。
14按照信源发出的消息在时间和幅度上的分布情况,可将信源分成 离散 信源和连续 信源两大类。
14一个随机事件的 自信息量 定义为其出现概率对数的负值。
16按树图法构成的码一定满足 即时码 的定义。
17 有扰离散信道编码定理 称为香农第二极限定理。
18纠错码的检、纠错能力是指 检测、纠正错误码元的数目 。
19信道一般指传输信息的物理媒介,分为 有线 信道和 无线 信道。
20信源编码的主要目的是 提高通信系统的有效性 。
21设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___1/4___时,信源熵达到最大值,为__2__,此时各个消息的自信息量为__2 __。
22.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能 纠正__1____个随机错。
23.克劳夫特不等式是唯一可译码___存在___的充要条件。
24.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y)___。
25_信源___提高通信的有效性,_信道____目的是提高通信的可靠性,_加密__编码的目的是保证通信的安全性。
26.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密编码的目的是保证通信的 安全性 。
27.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8__时,信 源熵达到最大值,为___3____。
28.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越_小___。
29.信源的冗余度来自两个方面,一是信源符号之间的__相关性__,二是信源符号分布的 __不均匀性__。
30.最大后验概率译码指的是 译码器要在已知r 的条件下找出可能性最大的发码 作为译码估值 ,即令 =maxP( |r)_ __。
31.常用的检纠错方法有__前向纠错___、反馈重发和混合纠错三种。
32.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。
33.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。
34.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。
35.离散对称信道输入等概率时,输出为 等概 分布。
36.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。
37.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。
38在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。
39要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后_____加密____编码,再______信道_____编码,最后送入信道。
40带限A WGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。
41保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。
42已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 31x x ++ 。
43设输入符号表为X ={0,1},输出符号表为Y ={0,1}。
输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001⎡⎤⎢⎥⎣⎦;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010⎡⎤⎢⎥⎣⎦。
二.选择题1. 给定x i 条件下随机事件y j 所包含的不确定度和条件自信息量p (y j /x i ),(D )A .数量上不等,单位不同B .数量上不等,单位相同C .数量上相等,单位不同D .数量上相等,单位相同 2. 条件熵和无条件熵的关系是:(C )A .H (Y /X )<H (Y )B .H (Y /X )>H (Y )C .H (Y /X )≤H (Y )D .H (Y /X )≥H (Y ) 3. 根据树图法构成规则,(D )A .在树根上安排码字B .在树枝上安排码字C .在中间节点上安排码字D .在终端节点上安排码字 4. 下列说法正确的是:(C )A .奇异码是唯一可译码B .非奇异码是唯一可译码C .非奇异码不一定是唯一可译码D .非奇异码不是唯一可译码 5. 下面哪一项不属于熵的性质:(B )A .非负性B .完备性C .对称性D .确定性 6.下面表达式中正确的是(A )。
A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(7.彩色电视显像管的屏幕上有5×105 个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。
每秒传送25帧图像所需要的信道容量(C )。
A. 50⨯106 B. 75⨯106 C. 125⨯106 D. 250⨯1068.已知某无记忆三符号信源a,b,c 等概分布,接收端为二符号集,其失真矩阵为d=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡1 21 12 1,则信源的最大平均失真度max D 为( D )。
A. 1/3B. 2/3C. 3/3D. 4/3 9.线性分组码不具有的性质是( C )。
A.任意多个码字的线性组合仍是码字 B.最小汉明距离等于最小非0重量 C.最小汉明距离为3D.任一码字和其校验矩阵的乘积c m H T =0 10.率失真函数的下限为( B )。
A .H(U) B.0 C.I(U; V) D.没有下限 11.纠错编码中,下列哪种措施不能减小差错概率( D )。
A. 增大信道容量B. 增大码长C. 减小码率D. 减小带宽12.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。
一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量( A )。
A. 0bitB. log6bitC. 6bitD. log240bit 13.下列陈述中,不正确的是( D )。
A.离散无记忆信道中,H(Y)是输入概率向量的凸函数B.满足格拉夫特不等式的码字为惟一可译码C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、纠错能力越强D.满足格拉夫特不等式的信源是惟一可译码14.一个随即变量x的概率密度函数P(x)= x /2,V≤x,则信源的相对熵为( C )。
0≤2A . 0.5bit B. 0.72bit C. 1bit D. 1.44bit15.下列离散信源,熵最大的是( D )。
A. H(1/3,1/3,1/3);B. H(1/2,1/2);C. H(0.9,0.1);D. H(1/2,1/4,1/8,1/8)16.下列不属于消息的是( B )。
A.文字B.信号C.图像D.语言17.为提高通信系统传输消息有效性,信源编码采用的方法是(A)。
A.压缩信源的冗余度B.在信息比特中适当加入冗余比特C.研究码的生成矩阵D.对多组信息进行交织处理18最大似然译码等价于最大后验概率译码的条件是( D )。
A.离散无记忆信道B.无错编码C.无扰信道D.消息先验等概19.下列说法正确的是( C )。