《信息论》期末考试B卷答案
《信息论》期末考试试题(A 卷) 标准答案
(2) 通过错误概率为 p, 0 ≤ p ≤ 1/ 2 的二元删除信道,求最佳译码准则的判决
函数和平均译码错误率;
(2+2=4 分)
(3) 通过(1)与(2)的串联信道,求最佳译码准则的判决函数和平均译码错误
率,并与(1)和(2)的平均译码错误率进行比较,得到怎样的结论?
(2+2+3=7 分)
(4) 根据(3)的结果,求信源经过串联信道后信息量损失的上界? (3 分)
①确定
σ12
,
σ
2 2
和
P
的关系;
②写出信道容量表达式;
(3+3+3=9 分)
③写出达到容量时信道的输入概率密度 p(x1, x2 ) ; 解:
(1) E[x12 ] = 0 ,则
(3+3=6 分)
①
σ
2 1
≥
σ
2 2
+
P
,
②
C
=
1 2
log(1 +
P σ 22
)
,
(2) E[x22 ] > 0 ,则
从零均值的高斯分布,且相互独立,方差分别为 σ12
和σ22
,且 σ12
>
σ
2 2
,信道输
入均值为零, E x12 + x22 ≤ P ;
(1) 当达到信道容量时, E[x12 ] = 0 ;
(3+3=6 分)
①确定σ12 ,σ 22 和 P 的关系;
②写出信道容量表达式;
(2) 当达到信道容量时, E[x22 ] > 0 ;
(2 分)
(3) 写出香农第三定理中存在平均失真不大于 D 的信源编码充要条件;
《信息论基础》试卷(期末)(B卷)
《信息论基础》试卷(期末)(B卷)重庆邮电⼤学2007/2008学年2学期《信息论基础》试卷(期末)(B 卷)(半开卷)⼀、填空题(共20分,每空1分)1、通信系统中,编码的主要⽬的有两个,分别是和。
2、离散⽆记忆信源存在剩余度的原因是。
3、当时,信源熵为最⼤值。
⼋进制信源的最⼤熵为,最⼩熵为。
4、⽆失真信源编码的平均码长最⼩理论极限制为。
5、⼀个事件发⽣概率为0.125,则⾃相关量为。
6、根据信原输出随机序列中随机变量前后之间有⽆统计依赖性,信原可以分为和。
7、噪声瞬时值的概率密度函数服从分布,同时功率谱密度为的噪声称为⾼斯⽩噪声。
8、当时,信源与信道达到匹配。
9、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是⾼斯分布或正态分布或时,信源具有最⼤熵,其值为值。
9、在下⾯空格中选择填⼊数学符号“,,,=≥≤>”或“?” (1)H(XY) H(Y)+H(X|Y) H(Y)+H(X)(2)假设信道输⼊⽤X 表⽰,信道输出⽤Y 表⽰。
在有噪⽆损信道中, H(X/Y) 0, H(Y/X) 0, I(X;Y) H(X)。
⼆、(6分)若连续信源输出的幅度被限定在【1,3】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
三、(16分)已知信源12345S P 0.250.20.20.20.15s s s s s =(1)⽤霍夫曼编码法编成⼆进制变长码;(4分)(2)计算平均码长—L ;(4分)(3)计算编码信息率R ';(4分)(4)计算编码后信息传输率R ;(2分)(5)计算编码效率η。
(2分)四、(12分)已知⼀个平均功率受限的连续信号,通过带宽W 10MHz =的⾼斯⽩噪声信道,试计算(1)若信噪⽐为10,信道容量为多少?(4分)(2)若信道容量不变,信噪⽐降为5,信道带宽为多少?(4分)(3)若信道通频带减为5MHz 时,要保持相同的信道容量,信道上的信号与噪声的平均功率⽐值应等于多少?(4分)五、(16分)某个信息源发出符号的概率为:12()(),P a P a =3()0.4,P a =假设该信息源发出的符号前后有关联,其依赖关系为:112122321333312133(|);(|);(|);(|);(|);(|);443344P a a P a a P a a P a a P a a P a a ======(1)画出状态转移图(4分)(2)计算稳态概率(4分)(3)计算信源的极限熵(4分)(4)计算稳态下H1,H2及其对应的剩余度。
信息论与编码期末考试题
信息论与编码期末考试题(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(XH . ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ()9. 率失真函数的最小值是0. ()10.必然事件和不可能事件的自信息量都是0. ()二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 ..6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X =,其失真矩阵00a D a ??=,则该信源的max D = . 三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??=. (1)计算接收端的平均不确定度()H Y ;(2)计算由于噪声产生的不确定度(|)H Y X ;(3)计算信道容量以及最佳入口分布.(二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。
信息论与编码考试题(附答案版)
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
(完整word版)信息论试卷
一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。
(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。
A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。
(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。
(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。
(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。
(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。
(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。
(T)8、平稳的离散无记忆信道不可用一维概率描述。
(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。
3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。
《信息论》期末考试试题( 卷)标准答案
2.(共 10 分)有两枚硬币,第一枚是正常的硬币,它的一面是国徽,另一面是 面值;第二枚是不正常的硬币,它的两面都是面值。现随机地抽取一枚硬币,进 行 2 次抛掷试验,观察硬币朝上的一面,其结果为:面值、面值。
1)求该试验结果与事件“取出的是第一枚硬币”之间的互信息;(4 分)
=
E( XS + αS 2 ) σ SσU
=
αQ σ SσU
I (U ; S) = H (U ) + H (S ) − H (US )
=
1 2
log
2πe σ
2 U
+
1 2
log
2πeσ
2 S
+
log 2πeσUσ S
1− ρ2
=
1 2
log
σ
σ σ2 2
SU
σ2 2
US
− (αQ)
2
=
1 log P + α 2Q
2 1 d = 1 0 7)若失真矩阵为 3 1 ,输入等概,则 Dmin = 2/3 , Dmax = 2/3 。
三、简答题(6 分)
1.仙农第二定理指出了“高效率、高可靠性”的信道编码存在性,
1)“高效率”的含义是什么?
(1 分)
2)“高可靠性” 的含义是什么?
(1 分)
3)存在这种信道编码的必要条件是什么?
1− ρ2
=
1 log
σ
2 U
σ
2 Y
2
σ
2 U
σ
2 Y
−
(P
+ αQ)2
=
1 log
(P + Q + N )(P + α 2Q)
信息论与编码考题标准答案
信 息 论 与 编 码 考题与标准答案第一题 选择题1.信息是( b )a. 是事物运动状态或存在方式的描述b.是事物运动状态或存在方式的不确定性的描述c.消息、文字、图象d.信号 2.下列表达式哪一个是正确的(e )a. H (X /Y )=H (Y /X )b. )();(0Y H Y X I <≤c.)/()(),(X Y H X H Y X I -=d. )()/(Y H Y X H ≤e. H (XY )=H (X )+H (Y /X )3.离散信源序列长度为L ,其序列熵可以表示为( b )a. )()(1X LH X H =b.c. ∑==Ll lXH X H 1)()(d. )()(X H X H L =4.若代表信源的N 维随机变量的取值被限制在一定的范围之内,则连续信源为( c ),具有最大熵。
a. 指数分布b. 正态分布c. 均匀分布d. 泊松分布 5.对于平均互信息);(Y X I ,下列说法正确的是( b )a. 当)(i x p 一定时,是信道传递概率)(i j x y p 的上凸函数,存在极大值b. 当)(i x p 一定时,是信道传递概率)(i j x y p 的下凸函数,存在极小值c.当)(i j x y p 一定时,是先验概率)(i x p 的上凸函数,存在极小值d.当)(i j x y p 一定时,是先验概率)(i x p 的下凸函数,存在极小值 6.当信道输入呈( c )分布时,强对称离散信道能够传输最大的平均信息量,即达到信道容量 a. 均匀分布 b. 固定分布 c. 等概率分布 d. 正态分布7.当信道为高斯加性连续信道时,可以通过以下哪些方法提高抗干扰性(b d ) a. 减小带宽 b. 增大发射功率 c. 减小发射功率 d.增加带宽第二题 设信源 ⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6.04.0)(21x x X p X 通过一干扰信道,接收符号为Y={y 1,y 2},信道传递矩阵为⎥⎦⎤⎢⎣⎡43416165 求:(1) 信源 X 中事件 x 1 和 x 2 分别含有的自信息量。
信息论基础及答案
《信息论基础》试卷答案一、填空题(共25分,每空1分)1、连续信源的绝对熵为 无穷大。
(或()()lg lim lg p x p x dx +∞-∞∆→∞--∆⎰) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。
3、无记忆信源是指 信源先后发生的符号彼此统计独立 。
4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。
根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。
5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。
6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。
7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 22x-)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22e π)。
8、即时码是指 任一码字都不是其它码字的前缀 。
9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。
10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。
11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。
12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。
13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。
14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。
信息论与编码期末复习试题2套含答案(大学期末复习资料)
莆田学院期末考试试卷(A)卷2011 — 2012 学年第一学期课程名称:信息论与编码适用年级/专业: 09/电信(通信)试卷类别开卷()闭卷(√)学历层次本科考试用时 120分钟《.考生注意:答案要全部抄到答题纸上,做在试卷上不给分.........................》.一、简答题(每小题8分,共32分)1.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
2. 香农信息论研究了哪些内容?试讲述香农第二编码定理。
3. 什么是唯一可译码?什么是即时码(前缀码)?构造唯一可译码的充要条件?(10分)4. 什么是信源编码?什么是信道编码?为何要进行这两者编码?二、证明题(每小题6分,共6分)对于任意的事件X、Y,试证明下列不等式成立:H(X|Y)<=H(X),并说明等式成立的条件。
三、计算题(第1、5题各16分,第2题12分,第3题10分,第4题8分,共62分)1.(16分)一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。
设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。
求(1)假设图上黑白消息出现前后没有关联,求熵H(X);(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。
2.(12分)一信源产生概率为P(1)=0.005, P(0)=0.995的统计独立二进制数符。
这些数符组成长度为100的数符组。
我们为每一个少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。
(1)求出为所规定的所有源符组都提供码字所需的最小码长。
(2)求信源发出一数符组,而编码器无相应码字的概率。
3.(10分)已知一个(6,3)线性分组码的全部码字为001011,110011,010110,101110,100101,111000,011101,000000。
信息论练习答案
一、填空题1. 对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。
2. 连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 。
3. 信源编码的目的是: 提高通信的有效性 。
4. BSC 信道即:无记忆二进制对称信道 。
5. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。
6、若把掷骰子的结果作为一离散信源,则其信源熵为 log 26 。
7、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。
8、单符号的失真度或失真函数d (x i ,y j )表示信源发出一个符号x i ,信宿再现y j 所引起的 误差或失真 。
9、连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 。
10、对于二元序列0011110000001111100111100111,其相应的游程序列是 24652423 。
二、设有12枚同值硬币,其中有一枚为假币,且只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。
现采用天平比较左右两边轻重的方法来测量(因无砝码)。
为了在天平上称出哪一枚是假币,试问至少必须称多少次? 解答:在12枚同值硬币中,哪一枚是假币,假币的重量是比真币的重量重还是轻,都是“无知”、“不确定的”。
而用天平比较左右两边轻重的测量方法,每测一次,能获得一定的信息量,能消除部分不确定性,则就能确定出其中一枚假币及其重量。
因此,设“在12枚同值硬币中,某一枚为假币”这事件为 a ,其出现的概率为p(a)=1/12; 又设“假币的重量比真币的重量是重或轻”这事件为 B ,其出现的概率为p(b)=1/2;事件a 的不确定性为事件 b 的不确定性为要发现某假币并知其比真币重还是轻所需的信息量就是要消除这两个事件的不确定性。
因为这两个事件是统计独立事件,所以需要获得的信息量为I 1=I(a)+I(b)=log 212+log 22=log 224=4.585bit而在天平上称一次能判断出三种情况:重、轻和相等,这事件为 C 。
信息论考试卷及答案解析
考试科目名称:信息论一. 单选(每空2分,共20分)1.信道编码的目的是(C ),加密编码的目的是(D )。
A.保证无失真传输B.压缩信源的冗余度,提高通信有效性C.提高信息传输的可靠性D.提高通信系统的安全性2.下列各量不一定为正值的是(D )A.信源熵B.自信息量C.信宿熵D.互信息量3.下列各图所示信道是有噪无损信道的是(B )A.B.C.D.4.下表中符合等长编码的是( A )5.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系正确的是(A )A.H(XY)=H(X)+H(Y/X)B.H(XY)=H(X)+H(X/Y)C.H(XY)=H(Y)+H(X)D.若X和Y相互独立,H(Y)=H(YX)6.一个n位的二进制数,该数的每一位可从等概率出现的二进制码元(0,1)中任取一个,这个n位的二进制数的自信息量为(C )A.n2B.1 bitC.n bitnD.27.已知发送26个英文字母和空格,其最大信源熵为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32比特/符号;以此类推,极限熵H=1.5比特/符号。
问若用一般传送方式,冗余度为( B )∞A.0.32B.0.68C .0.63D .0.378. 某对称离散信道的信道矩阵为 ,信道容量为( B )A .)61,61,31,31(24log H C -= B .)61,61,31,31(4log H C -= C .)61,61,31,31(2log H C -= D .)61,31(2log H C -= 9. 下面不属于最佳变长编码的是( D )A .香农编码和哈夫曼编码B .费诺编码和哈夫曼编码C .费诺编码和香农编码D .算术编码和游程编码二. 综合(共80分)1. (10分)试写出信源编码的分类,并叙述各种分类编码的概念和特性。
信息论习题集+答案(完版整)
信息论习题集一、名词解释(每词2分)(25道)1、“本体论”的信息(P3)2、“认识论”信息(P3)3、离散信源(11)4、自信息量(12)5、离散平稳无记忆信源(49)6、马尔可夫信源(58)7、信源冗余度 (66)8、连续信源 (68)9、信道容量 (95)10、强对称信道 (99) 11、对称信道 (101-102)12、多符号离散信道(109)13、连续信道 (124) 14、平均失真度 (136) 15、实验信道 (138) 16、率失真函数 (139) 17、信息价值率 (163) 18、游程序列 (181) 19、游程变换 (181) 20、L-D 编码(184)、 21、冗余变换 (184) 22、BSC 信道 (189) 23、码的最小距离 (193)24、线性分组码 (195) 25、循环码 (213) 二、填空(每空1分)(100道)1、 在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用 三个方面的因素。
2、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息 。
4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。
5、 人们研究信息论的目的是为了高效、可靠、安全 地交换和利用各种各样的信息。
6、 信息的可度量性 是建立信息论的基础。
7、 统计度量 是信息度量最常用的方法。
8、 熵是香农信息论最基本最重要的概念。
9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
《信息论》期末考试试题(A 卷)标准答案
北京邮电大学2006——2007学年第 一 学期《信息论》期末考试试题(A 卷)标准答案姓名 班级 学号 分数一、判断题(正确打√,错误打×)(共10分,每小题1分)1)异前置码是即时码; (√) 2)最大似然准则等价于最小汉明距离准则; (×) 3)离散信源记忆的长度越大,信源的符号熵越小; (√) 4)一维高斯信源的熵只与其均值和方差有关; (×) 5)为达到并联加性高斯噪声信道容量,在信道输入总功率给定条件下应给噪声方差大的子信道分配更多的功率; (×) 6)只要信息传输速率小于信道容量,总可以找到一种编码方式使得当编码序列足够长时传输差错率任意小; (√) 7)离散无记忆信源的N 次扩展源的熵是原信源熵的N 倍; (√) 8)仙农的AWGN 信道容量公式是在信道输入的平均功率和幅度受限条件下推导出来的; (×) 9)当马氏源的初始状态s 和输出nx x x ,,,10 给定后,那么状态1,21,,+n s s s 就能唯一确定; (√) 10)当平均失真大于其上限D max 时,率失真函数R (D )= 0 。
(√)二、填空题(共20分,每空2分)1) 设信源的熵为0.8比特/符号,对信源序列进行单符号编码,码序列为0、1二元序列,如果编码效率为100%,那么每信源符号平均码长为 0.8 ,码序列中“0 ”符号出现的概率为 1/2 ,信息传输速率为 1 比特/码符号。
2) 一阶平稳马氏源的符号转移概率为2.0)0|0(12|=X X p ,6.0)1|1(12|=X X p ,那么符号的平稳分布为=)0(X p 1/3 ,=)1(X p 2/3 ;信源的符号熵为 0.8879 比特/符号。
3)一维连续随机变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。
4)在输入平均功率相同的情况下, 高斯分布使加性噪声信道容量最小。
5) 二元等概信源的熵为 1 比特/符号,当信源输出序列长度L足够长时,典型序列的个数约等于2L。
信息论与编码期末试卷
信息论与编码期末试卷题号一二三四五六七八九十十一十二总成绩得分一.选择题(每小题3分,共15分)1)设信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/14321xxxxPX,则此信源的熵为:比特/符号A) 1.25 B) 1.5 C) 1.75 D) 22)对于离散信道⎥⎦⎤⎢⎣⎡=0.50.50.50.5P,信道容量是比特/符号A) 0 B) 1 C) 2 D) 33)对于三个离散信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6.01.03.0321xxxPX、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡3.04.03.0321yyyPY、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡2.05.03.0321zzzPZ,其中熵最小A) X B) Y C) Z D)无法计算4)信源编码的变长编码中,下面说法不正确的是A)无失真r进制变长码平均码长不得低于信源r进制符号熵B)变长编码时,随着信源序列长度的增大,编码效率会提高C)变长码要求各个码字的长度各不相同D)变长编码的编码效率通常高于定长码5)以下约束条件属于保真度准则的是共 4 页第 1 页共 4 页第 2 页共 4 页第 3 页共 4 页第 4 页练习题一 参考答案一.选择题(每小题3分,共15分) 1)C ) 2)A ) 3)A ) 4)C ) 5)C )二.三状态马尔科夫(Markov )信源,其一步状态转移概率矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=p qp qp qP 000, 1)、求出其二步转移概率矩阵2)、计算其稳态时处于各个状态的概率3)、极限熵∞H (15分)解:1)二步转移概率矩阵为P 2P 2=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡⨯⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⨯22222220000p pq pq q p pq q p pqpq q p qp q p qp qp q p qP P2)假设稳态时各个状态概率为p(0),p(1),p(2),则 [p(0) p(1) p(2)]= [p(0) p(1) p(2)]P 且p(0)+p(1)+p(2)=1 得到:()()⎪⎪⎪⎩⎪⎪⎪⎨⎧-=-=-=pq p p pq pq p pq q p 12111)0(223)极限熵∞H 为稳态时各个状态熵的数学期望三.两个串接的信道转移概率矩阵都为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=0100001/21/210001000P ,第一个信道的输入符号为X ,4个符号等概率分布,输出符号为Y ,第二个信道的输入符号为Y ,输出符号为Z ,求I (X ;Y ),I (Y ;Z ),I (X ;Z )其信道容量及信源最佳分布(8分)解:由第一个信道的转移矩阵,以及全概率公式()()()4,3,2,1,/41==∑=j x P x y P y P i i i j j计算得到:()()2/1)(,4/1)(,8/14321====y P y P y P y P)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Y H Y H Y X I =--⨯-=-= )/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H Y Z H Z H Z Y I =--⨯-=-= ⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⨯=002/12/1100001000100][/P P P X Z 从而()()())/)(((log log )(2020symbol bit q orH p H q q p p p H i p H i p H i ii =--===∑∑==∞)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Z H Z H Z X I =--⨯-=-= 按一般情况下求信道容量C ,⎪⎪⎩⎪⎪⎨⎧====00-1-14321ββββ ()()3/13/16/1)(6/1)()/(3log 2432141======∑=x p x p x p x p symbol bit C i j此时:β四.信源概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡16/116/116/116/18/18/14/14/187654321x x x x x x x x P X ,现采用二进制fano 编码,求各自的码字和编码效率(8分) 解:编码过程如下: 1)2) 由题意)/(75.2)(log )()(81symbol bit x p x p X H i i i =-=∑=而平均码长()75.291==∑=i i i x p l K则编码效率()%1001===Kx H η 五.设信源先验等概⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡5.05.010P X ,接收符号{}21,0,=Y ,失真矩阵为⎥⎦⎤⎢⎣⎡∞∞=1010D ,求()()max min max min ,,,D R D R D D 和对应的信道矩阵(10分)解:根据题意可知如果信道矩阵为⎥⎦⎤⎢⎣⎡=010001P ,则可得到失真值得最小值0m in =D ,此时信道传输的是信源的熵())/(1)()0(min symbol bit X H R D R === 对于最大的允许失真,对应的信道传输的信息为0,此时{}3,21max ,min D D D D =⎥⎦⎤⎢⎣⎡=001001P 时,∞=1D ⎥⎦⎤⎢⎣⎡=010010P 时,∞=2D ⎥⎦⎤⎢⎣⎡=100100P 时,11=D 则,1m ax =D ,()0)1(max ==R D R (bit /symbol ),且⎥⎦⎤⎢⎣⎡=100100P六.二元(n ,k )线性分组码的全部码字:000000,000111,011001,011110,101011,101100,110010,110101,求1)n ,k 各为多少? 2)求该码的生成矩阵G s ?3)此码的校验矩阵H ?(12分) 解:1)n 为码字长度,所以n=6,而码字个数M=8,所以k=logM=log8=3 2)G 为三行6列的矩阵,其行向量线性无关。
《信息论》期末考试试题(A卷)标准答案
2 次扩展信源符号 00 01 10 11 概 率 0.81 0.09 0.09 0.01 编 0 10 110 111 码
(3 分)
计算每信源符号平均码长为: l (1 0.19 0.10) / 2 0.645 ,编码器每秒输出 符号数为: 3.5 0.645 2.2575 2 ,所以传输不满足失真要求。 将信源的 3 次扩展源进行 Huffman 编码,结果为:
3
(1) 信源符号速率 3.5 大于信道传输速率 2,所以信源直接与信道相接,不能保证无失 真传输。 (3 分) (2) 采用适当的编码方式可以通过信道进行无失真传输。 (2 分) H ( X ) H (0.1) 0.1 log 0.1 0.9 log 0.9 0.469 比特/符号 信源熵率为 H (b / s ) H ( X ) 3.5 1.6415 b / s ,二元无噪信道容量为 C (b / s ) 2 b / s 。 因为 H (b / s) C (b / s) ,所以根据信源信道编码定理可知,采用适当的编码方式然后通
计 算 每 信 源 符 号 平 均 码 长 为 : l 0.5327 , 编 码 器 每 秒 输 出 符 号 数 为 : (5 分) 3.5 0.5327 1.8644 2 ,所以传输满足不失真要求。 由于这种编码所得是变长码,因此在编码器与信道之间应设置缓冲器。 (2 分)
六、计算题(16 分)
三、简答题(由 4 个独立子信道组成, 子信道方 差如右图所示,其中 1、2、3、4 子信道的方差分别为 2、1、 4、3; (1)达到容量时,信道输入应该是何种分布?各子信道的 输入是否统计独立? (1+1 分)
信息论期末考试试题 答案
安徽大学2011—2012学年第1学期 《信息论》考试试卷参考答案(AB 合卷)一、 填空题 1、()(;)log()()p xy I x y p x p y =;2、事物运动状态或存在方式的不确定性的描述;3、(|)log(|)(|)p xy z p x z p y z ;4、信源 编码器 信道 译码器 信宿;5、保密性 认证性;6、0.72;7、 , ;8、(;)C I X Y - ;9、4.6 ; 10、0H ≥1H ≥4H ≥6H ≥∞H ; 11、()()1log log N L H S H S r N r N≤<+; 12、()f x 在q F 上不可约; 13、()g x |1n x -; 14、2F 、22F 、32F 、42F 、62F 、122F ; 15、8,4.二、判断题1、╳2、√3、√4、╳5、╳6、√7、√8、╳9、 ╳三、计算题 1、解:1111()log log 12222H X =--=1()log24H Y =-= 1()log 38H Z =-=当Z Y X ,,为统计独立时:()()()()1236H XYZ H X H Y H Z =++=++=2、解:二次扩展信源为2111213212223313233,,,,,,,,411111111,,,,,,,,9999363693636x x x x x x x x x x x x x x x x x x X P ⎡⎤⎡⎤=⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦信源熵:22HX H X =()()22112log 2log )3366=-+⨯(=2log3-2/3比特/二符号 3、解:1)信道到矩阵为1/31/61/31/61/61/31/61/3P ⎛⎫= ⎪⎝⎭,故此信道为对称信道1111log 4(,,,)3636C H =-5l o g 33=-(比特/符号)相应的最佳输入概率分布为等概率分布。
(2)信道到矩阵为1/21/31/61/61/21/31/31/61/2P ⎛⎫ ⎪= ⎪ ⎪⎝⎭,故此信道为对称信道111l o g 3(,,)236C H =-12log 323=- (比特/符号) 相应的最佳输入概率分布为等概率分布。
信息论与编码期末复习试题含参考答案
信息论与编码期末复习试题含参考答案在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。
要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后_____加密____编码,再______信道_____编码,最后送入信道。
带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。
保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。
已知n =7的循环码,则信息位长度k 为 3 ,校验多项式h(x)= 。
设输入符号表为X ={0,1},输出符号表为Y ={0,1}。
输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=。
已知用户A 的RSA 公开密钥(e,n )=(3,55),,则 log(1)C W SNR =+42()1g x x x x =+++31x x ++1001⎡⎤⎢⎥⎣⎦1010⎡⎤⎢⎥⎣⎦5,11p q ==()φn =40 ,他的秘密密钥(d,n )=(27,55) 。
若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。
二、判断题可以用克劳夫特不等式作为唯一可译码存在的判据。
(√ ) 线性码一定包含全零码。
(√ )算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。
信息论与编码试卷及答案2
信息论与编码试卷及答案2篇一:信息论与编码试卷及答案一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?2.简述最大离散熵定理。
对于一个有m个符号的离散信源,其最大熵是多少?3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
5.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz,信噪比为30dB时求信道容量。
6.解释无失真变长信源编码定理。
7.解释有噪信道编码定理。
8.什么是保真度准则?对二元信源时率失真函数的和?,其失真矩阵,求a>0二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为,白色出现的概率为。
给出这个只有两个符号的信源X的数学模型。
假设图上黑白消息出现前后没有关联,求熵;2)假设黑白消息出现前后有关联,其依赖关系为:,,求其熵;,,2.二元对称信道如图。
;1)若,,求和;2)求该信道的信道容量和最佳输入分布。
3.信源空间为曼码,计算其平均码长和编码效率。
,试分别构造二元和三元霍夫4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。
5.已知一(8,5)线性分组码的生成矩阵为。
求:1)输入为全00011和10100时该码的码字;2)最小码距。
6.设某一信号的信息传输率为/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。
试求:(1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。
一、概念简答题(每题5分,共40分)1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
北方民族大学试卷
课程代码: 01100622 课程:信息理论及编码
B 卷答案
:
号学
说明:此卷为《信息理论及编码》
B 卷答案
一、概念简答题(每小题6分,共30分)
1、比较平均自信息(信源熵)与平均互信息的异同。
题试试
考
末期期学季 秋 年学
- —80
名姓班级业专程工息信院学
程工息信气电
线 - q
- 答:平均自信息为 H X - -7 p q log p q ,表示信源的平均不确定度,
也表示平
-
i 4
-
均每个信源消息所提供的信息量。
........................... (3分)
平均互信息I X;Y P xy log
X,Y。
表示从Y 获得的关于每个 X 的平均信息量,
也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
(3分)
2、简述香农第一定理。
- 答:对于离散信源 S 进行r 元编码,只要其满足
L N
_匕^, ..................................... (3分)
-
N log r
- 当N 足够长,总可以实现无失真编码。
............................. (3分) 密
3、简述唯一可译变长码的判断方法?
- 答:将码C 中所有可能的尾随后缀组成一个集合
F ,当且仅当集合 F 中没有包含任一码字
-
时,码C 为唯一可译变长码。
构成集合 F 的方法: ............. (2分) 首先,观察码C 中最短的码字是否是其他码字的前缀。
若是,将其所有可能的尾随后缀排 列出。
而这些尾随后缀又可能是某些码字的前缀, 再将由这些尾随后缀产生的新的尾随后
缀列出。
依此下去,直至没有一个尾随后缀是码字的前缀或没有新的尾随后缀产生为
止。
.............(2分)
接着,按照上述步骤将次短的码字直至所有码字可能产生的尾随后缀全部列出, 得到尾随
后缀集合F 。
............. (2分) 4、简述最大离散熵定理。
答:最大离散熵定理为:对于离散无记忆信源,当信源等概率分布时熵最大。
……
(3分) 对于有m 个符号的离散信源,其最大熵为
log m 。
(3分)
2、计算以下2个信道的信道容量C
答: 其中
1
3
1
3
6
1
—
3
_0
P为准对称信道,其信道容量C1二log r
01
n
-H (p;, P2, , P s)八N k log M k (2分)
k=1
3
1
6
1
,B2 =
3
1,B3 =
6
1
.6 3
一
1一
3
L一
6
N1
1
,N3
3
答:长度相同的两个码字之间对应位置上不同的码元的个数,称为汉明距离。
(3分)
(3分)
1、2、判断题(每小题2分,共10分)
信息是事物运动状态或存在方式的不确定性的描述。
当信源与信道连接时,若信息传输率达到了信道容量,
二元霍夫曼码一定是最佳即时码。
单符号离散信源的自信息和信源熵都是一个确定值。
平均错误概率只与译码准则有关系。
则称此信源与信道达到匹配。
(
(
(
(
(
V
V
V
X
)
)
)
)
)
三、计算题(每小题10分,共40分)
X 1、设离散无记忆信源
]P(x)」a?
二
1
8
发生的消息为
202123021302201320200231201320,求:(1)此消息的自信息是多少?(2)在此消息中平均每个符号携带的自信息是多少?
I a — 9log P 0 -5log P 1 -11log P 2 -5log P 3
答: (1 )冃信息量
»59.74 (比特)
(5分)
59.74 比特
百"99比特符号
(5分)
■111「1
1
■11
3个子矩阵为R二,所以
1
2 1
M i , M 2 , M 3 ,
2 3 3
1111 1 1 1 2 1 1
则 C^i =log2-H (—, , , )-( log log log —)= 0.0407(bit /symbol ) .......................... (4 分)
3 3 6 6 2 2 3 3 6 3
3
、信源空间为韶心0; ;1 0S05 0^5 0S 05 0丫试构造二元霍夫曼码并
平均码长[=0.05 4 4
0.1 3 2 0.2 2 0.4 2 =26(码符号/信源符号) ........ (2分)
4、设某二元码为 C —00000 01101 10111 11010。
(1)计算此码的最小距离 d min ; (2)计算此 码的码率R ,假设码字等概率分布;(3)采用最小距离译码准则,接收到序列
00100,01010,00111和
00101应译成什么码字。
答:(
1) d min - 3 ........................... (3 分)
(2) 「罟=詈=0.4比特码符号 ...................... (3分) (3) ............... 序列 00100 译成 00000, (1 分)
(1分) (1分)
P 2为一一对应信道,其信道容量
C 2 二 max H (X ) = log 2 4 = 2(bit /symbol )
(4分)
编码效率
H
(S ) L
^(0.4log — 0.2log — 2 0.1log
0.4 0.2 1 0.1 4 0.05log 丄)2.6=0.97 0.05 (2
序列01010译成11010, 序列00111译成10111 ,
四、综合题(20分)
一
"0.9 0.11 1、二元对称信道的信道矩阵为 P 二
,信道传输速度为1500二元符号/秒,设信源为等概率
|(0.1 0.9
分布,信源消息序列共有
13000个二元符号,问:
(1) 试计算能否在10秒内将信源消息序列无失真传送完?
(2) 若信源概率分布为 P(0) = 0.7, P(1) = 0.3,求无失真传送以上信源消息序列至少需要多长时间? 答:(1)此信道为二元对称信道,信源等概分布时,信道传输率达最大-C 。
信源熵
H (S) = Iog2 =1(bi #sym b04 ....................... (1 分)
C =1-H (P) =1-0.9log 2 0.9-0.1log 2 0.1 =1 -0.469 = 0.531(bit/symbol) ................................... (1 分) 1500 10 0.531 =7965(bit) :: 13000 1(bit),所以 10秒内不能传完。
................. (3 分)
(2 )信源不等概分布,信息传输率达不到
C
1 1 H (S) =0.7log 0.3log 0.3602
0.52109 =0.88129(bit / symbol) ....................... (1 分)
0.7 0.3
130000个信源符号所含信息量为:
130000 H(S) = 11456.77(bit) ........................ (2分)
信息传输率:
P(y j /xj
R = I
(X ;Y)八 P(xy)log 2
j -
XY P(y j )
0.9 0.1 0.1 0.9 = 0.63log 0.07 log 0.03log 0.27log 0.66 0.34 0.66 0.34 要无失真传送130000个二元符号的信源消息序列至少需要的时间: 丁、11456.77
T 16.757s
0.4558 1500
=0.4558(bit / symbol) (5分)
(5分)
P(xy)=
0.9 I
〔0.1 0.11
0.9
一
0 66 0
.3
4
0.1 X 0.7] S 0: 63 0 .07 0.9 x 0.3
03 0 .27
P(y) = 0.7 0.31
0.9 0.7 0.1 0.3。