信息论试卷(期末)(B2卷)
《信息论基础》试卷(期末)(B卷)

《信息论基础》试卷(期末)(B卷)重庆邮电⼤学2007/2008学年2学期《信息论基础》试卷(期末)(B 卷)(半开卷)⼀、填空题(共20分,每空1分)1、通信系统中,编码的主要⽬的有两个,分别是和。
2、离散⽆记忆信源存在剩余度的原因是。
3、当时,信源熵为最⼤值。
⼋进制信源的最⼤熵为,最⼩熵为。
4、⽆失真信源编码的平均码长最⼩理论极限制为。
5、⼀个事件发⽣概率为0.125,则⾃相关量为。
6、根据信原输出随机序列中随机变量前后之间有⽆统计依赖性,信原可以分为和。
7、噪声瞬时值的概率密度函数服从分布,同时功率谱密度为的噪声称为⾼斯⽩噪声。
8、当时,信源与信道达到匹配。
9、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是⾼斯分布或正态分布或时,信源具有最⼤熵,其值为值。
9、在下⾯空格中选择填⼊数学符号“,,,=≥≤>”或“?” (1)H(XY) H(Y)+H(X|Y) H(Y)+H(X)(2)假设信道输⼊⽤X 表⽰,信道输出⽤Y 表⽰。
在有噪⽆损信道中, H(X/Y) 0, H(Y/X) 0, I(X;Y) H(X)。
⼆、(6分)若连续信源输出的幅度被限定在【1,3】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
三、(16分)已知信源12345S P 0.250.20.20.20.15s s s s s =(1)⽤霍夫曼编码法编成⼆进制变长码;(4分)(2)计算平均码长—L ;(4分)(3)计算编码信息率R ';(4分)(4)计算编码后信息传输率R ;(2分)(5)计算编码效率η。
(2分)四、(12分)已知⼀个平均功率受限的连续信号,通过带宽W 10MHz =的⾼斯⽩噪声信道,试计算(1)若信噪⽐为10,信道容量为多少?(4分)(2)若信道容量不变,信噪⽐降为5,信道带宽为多少?(4分)(3)若信道通频带减为5MHz 时,要保持相同的信道容量,信道上的信号与噪声的平均功率⽐值应等于多少?(4分)五、(16分)某个信息源发出符号的概率为:12()(),P a P a =3()0.4,P a =假设该信息源发出的符号前后有关联,其依赖关系为:112122321333312133(|);(|);(|);(|);(|);(|);443344P a a P a a P a a P a a P a a P a a ======(1)画出状态转移图(4分)(2)计算稳态概率(4分)(3)计算信源的极限熵(4分)(4)计算稳态下H1,H2及其对应的剩余度。
信息论与编码期末考试题

信息论与编码期末考试题(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(XH . ()2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ()3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ()4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()6. 连续信源和离散信源的熵都具有非负性. ()7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ()9. 率失真函数的最小值是0. ()10.必然事件和不可能事件的自信息量都是0. ()二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是、、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 ..6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X =,其失真矩阵00a D a ??=,则该信源的max D = . 三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??=. (1)计算接收端的平均不确定度()H Y ;(2)计算由于噪声产生的不确定度(|)H Y X ;(3)计算信道容量以及最佳入口分布.(二)一、填空题1、信源编码的主要目的是,信道编码的主要目的是。
信息论与编码期末考试题----学生复习

《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C或(信道剩余度为0)时,信源与信道达到匹配.6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高斯分布或正态分布或时,信源具有最大熵,其值为值。
9、在下面空格中选择填入数学符号“”或“"(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。
(2)(3)假设信道输入用X表示,信道输出用Y表示.在无噪有损信道中,H(X/Y)〉 0, H(Y/X)=0,I(X;Y)<H(X)。
二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少.=2bit/自由度该信源的绝对熵为无穷大.三、已知信源(1)用霍夫曼编码法编成二进制变长码;(6分)(2)计算平均码长;(4分)(3)计算编码信息率;(2分)(4)计算编码后信息传输率;(2分)(5)计算编码效率。
(2分)(1)编码结果为:(2)(3)(4)其中,(5)四、某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
如果符号的码元宽度为0。
5。
计算:(1)信息传输速率。
(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为。
试计算正确传输这些数据最少需要的发送功率P。
解:(1)(2)五、一个一阶马尔可夫信源,转移概率为.(1) 画出状态转移图。
《信息论》期末考试试题( 卷)标准答案

。
4) R(D)是满足 D 准则下平均传送每信源符号的所需的最少比特数,它是定义域 上的严格递减函数。
5) AWGN 信道下实现可靠通信的信噪比下界为-1.59dB,此时对应的频谱利用率 为 0。
6)若某离散无记忆信源有 N 个符号,并且每个符号等概出现,对这个信源进行 二元 Huffman 编码,当 N = 2i (i 是正整数)时,每个码字的长度是 i ,平 均码长是 i 。
2 1) 求此马氏源的平稳分布;(4 分) 2) 求此马氏源的熵;(3 分) 3)求平稳马氏源的二次扩展源的所有符号概率;(3 分) 4)对此二次扩展源进行二元 Huffman 编码并求编码后平均码长和编码效率。 (3+2 分)
解:
1) 此马氏源的平稳分布: (π1
π2
π3
) =(1 3
1 3
1 3
)
3 × 1 × (− 1 log 1 − 1 log 1 − 1 log 1) = 1.5比特/信源符号 2) 此马氏源的熵: 3 2 2 4 4 4 4
3)平稳马氏源的二次扩展源的所有符号及概率为: p(x1x2 ) = p(x1 ) p(x2 x1)
1 00: 6
1 11: 6
1 22: 6
编码效率为: l 19
2.(共 10 分)有两枚硬币,第一枚是正常的硬币,它的一面是国徽,另一面是 面值;第二枚是不正常的硬币,它的两面都是面值。现随机地抽取一枚硬币,进 行 2 次抛掷试验,观察硬币朝上的一面,其结果为:面值、面值。
1)求该试验结果与事件“取出的是第一枚硬币”之间的互信息;(4 分)
1) 求该信道的信道容量;(2 分)
2) 当传输速率达到容量时,确定 M 与 n 的关系。(2 分)
(整理)信息论期末考试试题1.doc

安徽大学2011—2012学年第1学期 《信息论》考试试卷(AB 合卷)院/系 年级 专业 姓名 学号一、填空题1、接收端收到y 后,获得关于发送的符号是x 的信息量是 。
2、香农信息的定义 。
3、在已知事件z Z ∈的条件下,接收到y 后获得关于事件x 的条件互信息(;|)I x y z 的表达式为 。
4、通信系统模型主要分成五个部分分别为: 。
5、研究信息传输系统的目的就是要找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、 和 ,使信息传输系统达到最优化。
6、某信源S 共有32个信源符号,其实际熵H ∞=1.4比特/符号,则该信源剩余度为 。
7、信道固定的情况下,平均互信息(;)I X Y 是输入信源概率分布()Px 的 型凸函数。
信源固定的情况下,平均互信息(;)I X Y 是信道传递概率(|)P y x 的 型凸函数。
8、当信源与信道连接时,若信息传输率达到了信道容量,则称此信源与信道达到匹配。
信道剩余度定义为 。
9、已知信源X 的熵H (X )=0.92比特/符号,则该信源的五次无记忆扩展信源X 5的信息熵5()H X = 。
10、将∞H ,6H ,0H ,4H ,1H 从大到小排列为 。
11、根据香农第一定理,对于离散无记忆信源S ,用含r 个字母的码符号集对N 长信源符号序列进行变长编码,总能找到一种无失真的唯一可译码,使每个信源符号所需平均码长满足: 。
12、多项式剩余类环[]())q F x f x 是域的充要条件为 。
13、多项式剩余类环[](1)n q F x x -的任一理想的生成元()g x 与1n x -关系为 。
14、有限域122F 的全部子域为 。
15、国际标准书号(ISBN )由十位数字12345678910a a a a a a a a a a 组成(诸i a ∈11F ,满足:1010(mod11)ii ia=≡∑),其中前九位均为0-9,末位0-10,当末位为10时用X 表示。
(完整word版)信息论试卷

一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。
(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。
A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。
(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。
(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。
(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。
(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。
(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。
(T)8、平稳的离散无记忆信道不可用一维概率描述。
(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。
3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。
信息论与编码期末考试题----学生复习用1

(1) 1948年,美国数学家
发表了题为“通信的数学
理论”的长篇论文,从而创立了信息论。
(2) 必然事件的自信息是 。
(3) 离散平稳无记忆信源X的N次扩展信源的熵等于离
散信源X的熵的 。
(4) 对于离散无记忆信源,当信源熵有最大值时,满足
条件为__ _。
(5) 对于香农编码、费诺编码和霍夫曼编码,编码方法
惟一的是
。
(6) 已知某线性分组码的最小汉明距离为3,那么这组
码最多能检测出______个码元错误,最多能纠正
___个码元错误。
(7) 设有一离散无记忆平稳信道,其信道容量为C,只
要待传送的信息传输率R__ __C(大于、小于或者
等于),
则存在一种编码,当输入序列长度n足够大,使译码错误
概率任意小。
密文c=?请写出具体的步骤。
六、设有离散无记忆信源,其概率分布如下:
对其进行费诺编码,写出编码过程,求出信
源熵、平均码长和编码效率。
七、信道编码 现有生成矩阵
1. 求对应的系统校验矩阵Hs。 2求该码字集合的最小码字距离d、最大检错能力 、最大纠错能力t max 。
2. 填写下面的es表
e
s
0000000
(1)
(2) 五、一个一阶马尔可夫信源,转移概率为 。 (1) 画出状态转移图。 (2) 计算稳态概率。
(3) 计算马尔可夫信源的极限熵。 (4) 计算稳态下,及其对应的剩余度。 解:(1)
(2)由公式 有 得 (3)该马尔可夫信源的极限熵为: (4)在稳态下: 对应的剩余度为 六、设有扰信道的传输情况分别如图所示。试求这种信道的信 道容量。 解:信道传输矩阵如下 可以看出这是一个对称信道,L=4,那么信道容量为 七、设X、Y是两个相互独立的二元随机变量,其取0或1的概 率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) (2) (3) (4) ; 解:(1)
《信息论》期末考试B卷答案

第1 页 共5 页北方民族大学试卷课程代码: 01100622 课程: 信息理论及编码 B 卷答案说明:此卷为《信息理论及编码》B 卷答案一、概念简答题(每小题6分,共30分)1、比较平均自信息(信源熵)与平均互信息的异同.答:平均自信息为 ()()()1log qiii H X P a P a ==-∑,表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量.………………………………………(3分)平均互信息()()()(),;log X YyP x I X Y P xy P y =∑.表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量.………………………………………(3分)2、简述香农第一定理。
答:对于离散信源S 进行r 元编码,只要其满足()_log H s NNrL ≥,…………………(3分) 当N 足够长,总可以实现无失真编码。
………………………………………(3分)3、简述唯一可译变长码的判断方法?答:将码C 中所有可能的尾随后缀组成一个集合F ,当且仅当集合F 中没有包含任一码字时,码C 为唯一可译变长码。
构成集合F 的方法:…………………(2分)首先,观察码C 中最短的码字是否是其他码字的前缀.若是,将其所有可能的尾随后缀排列出.而这些尾随后缀又可能是某些码字的前缀,再将由这些尾随后缀产生的新的尾随后缀列出。
依此下去,直至没有一个尾随后缀是码字的前缀或没有新的尾随后缀产生为止.…………………(2分) 接着,按照上述步骤将次短的码字直至所有码字可能产生的尾随后缀全部列出,得到尾随后缀集合F 。
…………………(2分)4、简述最大离散熵定理.第2 页 共5 页答:最大离散熵定理为:对于离散无记忆信源,当信源等概率分布时熵最大。
……(3分)对于有m 个符号的离散信源,其最大熵为log m 。
…………………………(3分)5、什么是汉明距离;两个二元序列1230210,0210210i j αβ==,求其汉明距离.答:长度相同的两个码字之间对应位置上不同的码元的个数,称为汉明距离。
信息论与编码期末考试题(全套)

(一)一、判断题共 10 小题,满分 20 分.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集.( ) 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信.( ) 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( ) 6. 连续信源和离散信源的熵都具有非负性.( )7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0.( )10.必然事件和不可能事件的自信息量都是0.( )二、填空题共 6 小题,满分 20 分.1、码的检、纠错能力取决于 .2、信源编码的目的是 ;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是 、 、 . 5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭,其失真矩阵00a D a ⎡⎤=⎢⎥⎣⎦,则该信源的max D = . 三、本题共 4 小题,满分 50 分.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号iy )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦. (1) 计算接收端的平均不确定度()H Y ; (2) 计算由于噪声产生的不确定度(|)H Y X ; (3) 计算信道容量以及最佳入口分布. 2、一阶马尔可夫信源的状态转移图如右图所示, 信源X 的符号集为}2,1,0{. (1)求信源平稳后的概率分布; (2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵)(X H 并与H ∞进行比较. 4、设二元)4,7(线性分组码的生成矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G . (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码. (二)一、填空题(共15分,每空1分)1、信源编码的主要目的是 ,信道编码的主要目的是 。
信息论与编码期末考试题1

(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ( )3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ( )5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( )6. 连续信源和离散信源的熵都具有非负性. ( )7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0. ( ) 10.必然事件和不可能事件的自信息量都是0. ( ) 二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是 ;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是 、 、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的 条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭,其失真矩阵00a D a ⎡⎤=⎢⎥⎣⎦,则该信源的max D = .三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦.(1)计算接收端的平均不确定度()H Y ;(2) 计算由于噪声产生的不确定度(|)H Y X ; (3) 计算信道容量以与最佳入口分布.(二)一、填空题1、信源编码的主要目的是 ,信道编码的主要目的是 。
信息论与编码期末复习试题2套含答案(大学期末复习资料)

莆田学院期末考试试卷(A)卷2011 — 2012 学年第一学期课程名称:信息论与编码适用年级/专业: 09/电信(通信)试卷类别开卷()闭卷(√)学历层次本科考试用时 120分钟《.考生注意:答案要全部抄到答题纸上,做在试卷上不给分.........................》.一、简答题(每小题8分,共32分)1.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
2. 香农信息论研究了哪些内容?试讲述香农第二编码定理。
3. 什么是唯一可译码?什么是即时码(前缀码)?构造唯一可译码的充要条件?(10分)4. 什么是信源编码?什么是信道编码?为何要进行这两者编码?二、证明题(每小题6分,共6分)对于任意的事件X、Y,试证明下列不等式成立:H(X|Y)<=H(X),并说明等式成立的条件。
三、计算题(第1、5题各16分,第2题12分,第3题10分,第4题8分,共62分)1.(16分)一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。
设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。
求(1)假设图上黑白消息出现前后没有关联,求熵H(X);(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。
2.(12分)一信源产生概率为P(1)=0.005, P(0)=0.995的统计独立二进制数符。
这些数符组成长度为100的数符组。
我们为每一个少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。
(1)求出为所规定的所有源符组都提供码字所需的最小码长。
(2)求信源发出一数符组,而编码器无相应码字的概率。
3.(10分)已知一个(6,3)线性分组码的全部码字为001011,110011,010110,101110,100101,111000,011101,000000。
信息论与编码期末考试题----学生复习

《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性.2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为bit/符号.4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr=H r(S))。
5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高斯分布或正态分布或时,信源具有最大熵,其值为值。
9、在下面空格中选择填入数学符号“”或“"(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。
(2)(3)假设信道输入用X表示,信道输出用Y表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X).二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
=2bit/自由度该信源的绝对熵为无穷大。
三、已知信源(1)用霍夫曼编码法编成二进制变长码;(6分)(2)计算平均码长;(4分)(3)计算编码信息率;(2分)(4)计算编码后信息传输率;(2分)(5)计算编码效率。
(2分)(1)编码结果为:(2)(3)(4)其中,(5)四、某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
如果符号的码元宽度为0.5。
计算:(1)信息传输速率。
(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为.试计算正确传输这些数据最少需要的发送功率P。
解:(1)(2)五、一个一阶马尔可夫信源,转移概率为。
信息论期末试卷

信息理论与编码试卷A答案专业年级:通信07级总分100分,占总评成绩70%注:此页不作答题纸,请将答案写在答题纸上一填空题(本题20分,每小题2分)1 无失真信源编码的中心任务是编码后的信息率压缩接近到 1 限失真压缩中心任务是在给定的失真度条件下,信息率压缩接近到2 。
2信息论是应用近代数理统计方法研究信息的传输、存储与处理的科学,故称为 3 ;1948年香农在贝尔杂志上发表了两篇有关的“通信的数学理论”文章,该文用熵对信源的 4 的度量,同时也是衡量 5 大小的一个尺度;表现在通信领域里,发送端发送什么有一个不确定量,通过信道传输,接收端收到信息后,对发送端发送什么仍然存在一个不确定量,把这两个不确定量差值用 6 来表示,它表现了通信信道流通的7 ,若把它取最大值,就是通信线路的8 ,若把它取最小值,就是9 。
3 若分组码H阵列列线性无关数为n,则纠错码的最小距离d min为10 。
二简答题(本题20分,每小题4分)1. 根据信息理论当前无失真压宿在压宿空间和速度两个方向还有研究价值吗?2. 我们知道,“猫”(调制解调器的俗称)是在模拟链路上传输数字数据的设备,它可以在一个音频电话线上传输二进制数据,并且没有太高的错误率。
现在,我们上网用的“猫”的速度已可达到56Kbps了,但是,如果你用网络蚂蚁或其它软件从网上下载东西时,你会发现很多时候网络传输的速度都很低,远低于56Kbps(通常音频电话连接支持的频率范围为300Hz到3300Hz,而一般链路典型的信噪比是30dB)(摘自中新网)3.结合信息论课程针对”信息”研究对象,说明怎样研究一个对象.4. 用纠错编码基本原理分析由下列两种生成矩阵形成线性分组码的优劣(1)(2)5. 新华社电,2008年 5月16日下午6时半,离汶川地震发生整整100个小时。
虚弱得已近昏迷的刘德云被救援官兵抬出来时,看到了自己的女儿。
随即,他的目光指向自己的左手腕。
信息论试卷(期末)(B2卷)

一、填空题(共25分,每空1分)1、连续信源的绝对熵为 无穷大。
(或()()lg lim lg p x p x dx +∞-∞∆→∞--∆⎰)2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。
3、无记忆信源是指 信源先后发生的符号彼此统计独立 。
4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。
根据信源符号的统计特性,对概率大的符号用 短码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。
5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。
6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。
7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为高斯分布(或()0,1xN 或22x -)时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或1lg 22e π)。
8、即时码是指 任一码字都不是其它码字的前缀 。
9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。
10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。
11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。
12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m个不同的状态。
13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。
14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<”H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。
信息论考试卷与答案..

考试科目名称:信息论一. 单选(每空2分,共20分)1.一个m位的二进制数的自信息量为(A )A.m bitB.1 bitC.m2mD.22.信源编码的目的是(A )A.提高通信有效性B.提高信息传输的可靠性C.提高通信系统的安全性D.压缩信源的冗余度3.下面属于最佳变长编码的是(C )A.算术编码和游程编码B.香农编码和游程编码C.哈夫曼编码和费诺编码D.预测编码和香农编码4.表中符合即时码的是(A )和(D )5.下列各量可能为负值的是(B )A.自信息量B.互信息量C.信息熵D.平均互信息量6.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系错误的是(D )A.H(XY)=H(X)+H(Y/X)B.若X和Y相互独立,H(Y)=H(Y/X)C.H(XY)=H(Y)+H(X/Y)D.H(XY)=H(X)+H(X/Y)7.已知发送26个英文字母(包括空格),其最大信源熵(发送概率相等)为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32=1.4比特/符号。
问若用一般传送比特/符号;以此类推,极限熵H∞方式,冗余度γ为( B )A.0.58B.0.71C.0.65D.0.298. 某信道传递矩阵为,其信道容量为( D )A .)41log 4143log 43()81,81,41,21(4log ++-=H C B .)41log 4343log 41()81,81,41,21(2log +--=H C C .)41log 4143log 43()81,81,41,21(4log +--=H CD .)41log 4143log 43()81,81,41,21(2log +--=H C9. 下列各图所示信道是对称信道的是( C )A .B .C .⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8181214181814121PD.二. 综合(共80分)1.(10分)试画出通信系统的模型,并叙述各部分的定义和作用。
《信息论》期末考试试题(A卷)标准答案

2 次扩展信源符号 00 01 10 11 概 率 0.81 0.09 0.09 0.01 编 0 10 110 111 码
(3 分)
计算每信源符号平均码长为: l (1 0.19 0.10) / 2 0.645 ,编码器每秒输出 符号数为: 3.5 0.645 2.2575 2 ,所以传输不满足失真要求。 将信源的 3 次扩展源进行 Huffman 编码,结果为:
3
(1) 信源符号速率 3.5 大于信道传输速率 2,所以信源直接与信道相接,不能保证无失 真传输。 (3 分) (2) 采用适当的编码方式可以通过信道进行无失真传输。 (2 分) H ( X ) H (0.1) 0.1 log 0.1 0.9 log 0.9 0.469 比特/符号 信源熵率为 H (b / s ) H ( X ) 3.5 1.6415 b / s ,二元无噪信道容量为 C (b / s ) 2 b / s 。 因为 H (b / s) C (b / s) ,所以根据信源信道编码定理可知,采用适当的编码方式然后通
计 算 每 信 源 符 号 平 均 码 长 为 : l 0.5327 , 编 码 器 每 秒 输 出 符 号 数 为 : (5 分) 3.5 0.5327 1.8644 2 ,所以传输满足不失真要求。 由于这种编码所得是变长码,因此在编码器与信道之间应设置缓冲器。 (2 分)
六、计算题(16 分)
三、简答题(由 4 个独立子信道组成, 子信道方 差如右图所示,其中 1、2、3、4 子信道的方差分别为 2、1、 4、3; (1)达到容量时,信道输入应该是何种分布?各子信道的 输入是否统计独立? (1+1 分)
信息论期末考试试题 答案

安徽大学2011—2012学年第1学期 《信息论》考试试卷参考答案(AB 合卷)一、 填空题 1、()(;)log()()p xy I x y p x p y =;2、事物运动状态或存在方式的不确定性的描述;3、(|)log(|)(|)p xy z p x z p y z ;4、信源 编码器 信道 译码器 信宿;5、保密性 认证性;6、0.72;7、 , ;8、(;)C I X Y - ;9、4.6 ; 10、0H ≥1H ≥4H ≥6H ≥∞H ; 11、()()1log log N L H S H S r N r N≤<+; 12、()f x 在q F 上不可约; 13、()g x |1n x -; 14、2F 、22F 、32F 、42F 、62F 、122F ; 15、8,4.二、判断题1、╳2、√3、√4、╳5、╳6、√7、√8、╳9、 ╳三、计算题 1、解:1111()log log 12222H X =--=1()log24H Y =-= 1()log 38H Z =-=当Z Y X ,,为统计独立时:()()()()1236H XYZ H X H Y H Z =++=++=2、解:二次扩展信源为2111213212223313233,,,,,,,,411111111,,,,,,,,9999363693636x x x x x x x x x x x x x x x x x x X P ⎡⎤⎡⎤=⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦信源熵:22HX H X =()()22112log 2log )3366=-+⨯(=2log3-2/3比特/二符号 3、解:1)信道到矩阵为1/31/61/31/61/61/31/61/3P ⎛⎫= ⎪⎝⎭,故此信道为对称信道1111log 4(,,,)3636C H =-5l o g 33=-(比特/符号)相应的最佳输入概率分布为等概率分布。
(2)信道到矩阵为1/21/31/61/61/21/31/31/61/2P ⎛⎫ ⎪= ⎪ ⎪⎝⎭,故此信道为对称信道111l o g 3(,,)236C H =-12log 323=- (比特/符号) 相应的最佳输入概率分布为等概率分布。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
一、填空题(共25分,每空1分)
1、连续信源的绝对熵为 无穷大。
(或()()lg lim lg p x p x dx +∞
-∞∆→∞
--∆⎰) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。
3、无记忆信源是指 信源先后发生的符号彼此统计独立 。
4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。
根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。
5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。
6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。
7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为
高斯分布(或()0,1x N 或22
x -)时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或1lg 22
e π)。
8、即时码是指 任一码字都不是其它码字的前缀 。
9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r
),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。
10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。
11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。
12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。
13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。
14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)
二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他
,计算信源的相对熵。
()()()
1lg b c a H x p x dx p x =⎰------3分 ()lg b a =-bit/自由度-------2分
三、(10分)一个平均功率受限的连续信道,信道带宽为1MHz ,信道噪声为高斯白噪声。
(1)已知信道上的信号与噪声的平均功率比值为20,计算该信道的信道容量。
(2)如果信道上的信号与噪声的平均功率比值降为10,要达到相同的信道容量,信道带宽应为多少?
(3)如果信道带宽降为0.5MHz ,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少? 1) ()10lg 1NR c S =+------3分
64.3910=⨯b/s---1分
2)
()610 1.2710lg 1NR c S ==⨯+Hz---3分
3) 21c NR S =-=440----3分
四、(16分)已知信源共7个符号消息,其概率空间为
()12
3
4
5
6
70.20.170.20.170.150.100.01S s s s s s s s P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦
⎣⎦ 试用霍夫曼编码法编成二进制变长码。
并计算信源熵、平均码长、编码后的信息传输率、编码信息率和编码效率。
要求写出详细的编码过程和计算过程。
------6分
7
1 2.71i i i L P τ===∑位----2分
()7
21log 2.61i i i H s P P ===∑bit/符号--------2分
2log 2.71R r τ==’bit/码字--------2分
()20.963log H s r
ητ==----------2分 ()0.963H s R τ
==bit/码元--------2分 五、(16分)设一个离散无记忆信源的概率空间为
它们通过干扰信道,信道输出端的接收符号集为Y =[b 1,b 2],已知信源传输概率如下图所示。
试计算:
(1)信源X 中事件x 1和x 2分别含有的自信息量;(2分)
(2)收到y j (j =1,2)后,获得的关于x 1的信息量;(2分)
(3)信源X 的信息熵;(2分)
(4)条件熵H (Y ∣x 1),H (Y ∣x 2);(2分)
(5)共商H (XY )、信道疑义度H (X ∣Y )和噪声熵H (Y ∣X );(6分)
(6)收到消息Y 后获得的关于信源X 的平均信息量。
(2分)
(1)I(x 1)=-log0.5=1bit------1分
I(x 2)=-log0.5=1bit------1分
(2)I(x 1;y 1)=lg0.831/0.5(或=lg0.98/0.59)=0.733-------1分
I(x 1;y 2)=lg0.024/0.5(或=lg0.02/0.41)=-4.38-------1分
(3)H(x)=H(0.5,0.5)=1bit/符号------2分
(4)H(y ︱x 1)=H(0.98,0.02)=0.142bit/符号-----1分。