信息论 复习题目(2017)

合集下载

信息论复习必考题

信息论复习必考题

第一天:
1、请问什么是信息
答案:消除不确定因素
2、信息论的奠基人是谁,为什么?
答案:香农,香农三大定律
3、单个信源符号的自信息量的计算方法
答案:概率的倒数的对数
4、信源的离散熵怎么计算,熵的物理含义是什么
答案:熵代表离散程度,离散程度越大,熵值越大。

第二天:
1、请问一个随机变量在什么概率分布的时候,它的熵值最大?怎么和生活中进行对接
答案:概率分布均匀的时候熵值最大
2、请问互信息熵的计算和物理含义是什么?想想一条河流
3、数据处理定理是什么?在数据处理当中,丢失了什么?获得了什么?为什么要数据处理呢?(从通信系统的角度来考虑)沙里淘金
第三天:
1、离散的无记忆信源序列的熵值该怎么计算,它又有什么作用呢?
2、离散的有记忆序列的熵值该怎样计算?
3、极限熵的物理含义是什么?
4、编码的一些基本概念(等长和变长,奇异和非奇异,唯一可译码、平均编码长度、码树、前缀码和非前缀码等)
5、仔细体会从等长编码和变长编码,针对什么样的信源,有什么优缺点
第四天:
1、请问香农第一定理是什么?其含义是什么?如何理解?(信源符号的个数和码字个数之间的关系)
2、。

信息论考试题(填空简答)

信息论考试题(填空简答)

一.填空题(每空1分,共20分)1.香农信息论的三个基本概念分别为_______________ 、_____________ 、 ____________ 。

2•对离散无记忆信源来说,当信源呈_______________ 分布情况下,信源熵取最大值。

3•写出平均互信息的三种表达公式________________ 、_____________ 、 ____________ 。

4.若连续信源输出的平均功率和均值被限定,则其输出信号幅度的概率密度函数为______________ 时,信源具有最大熵值;若连续信源输出非负信号的均值受限,则其输出信号幅度呈____________ 分布时,信源具有最大熵值。

5. ________________________________ 信道容量是为了解决通信的_________________________ 问题,而信息率失真函数是为了解决通信的___________ 问题。

6. ______________________________________________________ 费诺编码比较适合于的信源。

7•无记忆编码信道的每一个二元符号输出可以用多个比特表示,理想情况下为实数,此时的无记忆二进制信道又称为__________________________ 。

&差错控制的4种基本方式是:_________________ 、_____________ 、 ____________ 、______________ 。

9 . (n,k)线性码能纠t个错误,并能发现I个错误(l>t),码的最小距离为:10.循环码码矢的i次循环移位等效于将码多项式乘___________________ 后再模______________ 。

二.简答题(每小题5分,共30分)1 •分别说明平均符号熵与极限熵的物理含义并写出它们的数学表达式。

2•写出二进制均匀信道的数学表达式,并画出信道容量C与信道转移概率 p的曲线图。

信息论复习题目(2017)

信息论复习题目(2017)

信息论复习题⽬(2017)信息论复习提纲(2017)第⼀章绪论1.通信系统模型;2.⾹浓信息的概念;3.信源、信道、信源编码和信道编码研究的核⼼问题。

第⼆章离散信源及信源熵1.离散信息量、联合信息量、条件信息量、互信息量定义;2.信源熵、条件熵、联合熵定义;3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明);4.最⼤信源熵定理及证明;5.本章所有讲过的例题;第三章离散信源的信源编码1.信息传输速率、编码效率定义;2.最佳编码定理(即3.2节定理:概率越⼤,码长越⼩;概率越⼩,码长越⼤)及证明;3.码组为即时码的充要条件;4.单义可译定理(Kraft不等式)及应⽤;5.费诺编码⽅法、霍夫曼编码⽅法应⽤(⼆进制,三进制,四进制);6.本章所有讲过的例题;第四章离散信道容量1.利⽤信道矩阵计算信道容量(离散⽆噪信道、强对称离散信道、对称离散信道、准对称离散信道);2.本章讲过的例题;第五章连续消息和连续信道1.相对熵的定义;2.均匀分布、⾼斯分布、指数分布的相对熵及证明;3.峰值功率受限条件下的最⼤熵定理及证明,平均功率受限条件下的最⼤熵定理及证明,均值受限条件下的最⼤熵定理及证明;4.⾹农公式及意义;5.本章所有讲过的例题;第六章差错控制1.重量、最⼩重量、汉明距离、最⼩汉明距离、编码效率的定义;2.最⼩距离与检错、纠错的关系(即6.3节定理);3.本章所有讲过的例题;第七章线性分组码1.线性分组码定义;2.线性分组码的最⼩距离与最⼩重量的关系及证明;3.⽣成矩阵、⼀致校验矩阵定义,给出线性⽅程组求出⽣成矩阵和⼀致校验矩阵的标准形式,⽣成矩阵与⼀致校验矩阵的关系;4.制作标准阵列并利⽤标准阵列译码;5.本章所有讲过的例题;第⼋章循环码1.⽣成多项式的特点,有关定理(8.2三定理1,定理2,定理3)及证明;2.⽣成矩阵、⼀致校验矩阵定义,如何获得⽣成矩阵、⼀致校验矩阵的典型形式;3.本章所有讲过的例题;习题:1.计算:。

(完整word版)信息论试卷

(完整word版)信息论试卷

一、选择题1、下列那位创立了信息论.(C)A.牛顿B.高斯C.香农D.哈夫曼2、下列不属于消息的是。

(B)A.文字B.信号C.图像D.语言3、同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为2,则得到的自信息量为(B)。

A.-log36 bitB.log36 bitC.-log18 bitD.log18 bit4、下列说法不正确的是(C)A.异字头码肯定是唯一可译的B.逗点码是唯一可译的C.唯一可译码不必满足Kraft 不等式D.无逗点码可以唯一可译5、下述编码中那个可能是任何概率分布对应的Huffman编码(A)A.{0,10,11}B.{00,01,10,110}C.{01,10}D.{001,011,100,101}6、下列物理量不满足非负性的是(D)A.H(X)B.I(X;Y)C.H(Y|X)D.I(x j;y j)7、信源的输出与信道的输入匹配的目的不包括(D)A.符号匹配B.信息匹配C.降低信道剩余度D.功率匹配8、在串联系统中,有效信息量的值(B)A.趋于变大B.趋于变小C.不变D.不确定二、判断题1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

(T)2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。

(F)提示:对数函数3、两个事件之间的互信息量可正,可负,也可能为0。

(T)4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。

(T )5、Huffman 编码是唯一的.(F)提示:不唯一6、概率大的事件自信息量大。

(F )提示:小7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。

(T)8、平稳的离散无记忆信道不可用一维概率描述。

(F)提示:可以三、填空题1、必然事件的自信息是 0 .2、根据码字所含的码元的个数,编码可分为 等长 编码和 不等长 编码。

3、不等长D 元码,码字最长限定为N,则至多有 D(D N - 1)/(D — 1) 个码字。

信息论试题

信息论试题

信息论试题一、选择题1. 信息论的创始人是()。

A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。

A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。

A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。

A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。

A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。

2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。

3. 香农在1948年发表的论文《________》奠定了信息论的基础。

4. 在数字通信中,信道容量可以通过公式________来计算。

5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。

三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。

2. 描述香农信息论中的主要概念及其相互之间的关系。

3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。

4. 讨论信息论对于密码学和信息安全的贡献。

四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。

2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。

3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。

4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。

信息论试题

信息论试题

信息论试题一、填空题(共15分,每空1分)1、当时,信源与信道达到匹配。

2、若高斯白噪声的平均功率为6 W,则噪声熵为。

如果一个平均功率为9 W的连续信源的熵等于该噪声熵,则该连续信源的熵功率为。

3、信源符号的相关程度越大,信源的符号熵越,信源的剩余度越。

4、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。

根据信源符号的统计特性,对概率的符号用短码,对概率的符号用长码,从而减少平均码长,提高编码效率。

8、香农第一编码定理指出平均码长的理论极限值为,此时编码效率为。

4、在下面空格中选择填入数学符号“=,≥,≤,>”或“<”(1)()()2212X X H H =X ()X 3H = ()3321X X X H(2)()XY H ()()Y X H Y H |+ ()()X H Y H +。

9、有一信源X ,其概率分布为=818141214321xx x x P X ,若对该信源进行100次扩展,则每扩展符号的平均信息量是。

11、当时,信源熵为最大值。

8进制信源的最大熵为。

二、判断题(正确打√,错误打×)(共5分,每小题1分)1)噪声功率相同的加性噪声信道中以高斯噪声信道的容量为最大。

()2)即时码可以在一个码字后面添上一些码元构成另一个码字。

() 3)连续信源的熵可正、可负、可为零,() 4)平均互信息始终是非负的。

()5)信道容量C 只与信道的统计特性有关,而与输入信源的概率分布无关。

()三、(10分)计算机终端发出A 、B 、C 、D 、E 五种符号,出现概率分别为1/16,1/16,1/8,1/4,1/2。

通过一条带宽为18kHz 的信道传输数据,假设信道输出信噪比为2047,试计算:1)香农信道容量;2)无误码传输的最高符号速率。

四、(10分)有一信源发出恒定宽度,但不同幅度的脉冲,幅度值x 处在1a 和2a 之间。

此信源连至信道,信道接收端接收脉冲的幅度y 处在1b 和2b 之间。

北京邮电大学2016—2017学年第一学期《信息论》期末考试试题及答案

北京邮电大学2016—2017学年第一学期《信息论》期末考试试题及答案

北京邮电大学2016—2017学年第一学期《信息论》期末考试试题及答案一、判断题(10分)1、事件的自信息是其概率的单调递减函数。

(√) 2、连续信源和离散信源的平均互信息都具有非负性。

(√)3、对于遍历的有限状态马氏链,如果初始状态概率分布不是平稳分布,当转移步数足够大时,状态概率分布一定趋于平稳分布。

(√) 4、离散信道的容量是关于输入符号概率分布的上凸函数。

(×) 5、码长满足Kraft 不等式的码一定是异前置码。

(×)6、平均功率受限的随机变量,当均匀分布时有最大的熵。

(×) 7、随着信源序列长度的增加,非典型序列出现的概率趋近于零。

(√)8、对于任意的二元对称信道,最小汉明距离准则等价于最大似然准则。

(×) 9、对任意的加性噪声信道,当信源是高斯分布时达到信道容量。

(×) 10、如果信息传输速率小于信道容量,信息传输差错任意小。

(×)二、填空题(20分)1. 已知某离散无记忆信源X 的数学模型为312413161414a a a a X P ⎛⎫⎛⎫= ⎪ ⎪⎝⎭⎝⎭,则其三次扩展源的熵()3H X = 。

(5.877比特/扩展符号)2. 已知X 是均值为0、方差为1的高斯信源,Z 是均值为0、方差为2的高斯信源,X, Z 独立且Y =3X +2Z ,则h (Y )= , h (YZ )= 。

(1log(34)2e π,221log(72)2e π)3. 某信源S 共有32个信源符号,其实际的熵值为4.1=∞H 比特/信源符号,则该信源的剩余度为________。

(72.032log 4.112=-)4. 在一个离散时间平稳无记忆加性高斯噪声信道中进行信息传输,信道输入X 的方差为2x σ,零均值噪声方差为2z σ,进行可靠传输的速率上限是________。

(221log(1)2xzσσ+)5. AWGN信道下实现可靠通信的信噪比下界为-1.59 dB,此时对应的系统带宽为。

信息论复习题期末答案

信息论复习题期末答案

信息论复习题期末答案1. 信息论的创始人是谁?答案:信息论的创始人是克劳德·香农。

2. 信息熵的概念是什么?答案:信息熵是衡量信息量的一个指标,它描述了信息的不确定性或随机性。

在信息论中,熵越高,信息的不确定性越大。

3. 请简述信源编码定理。

答案:信源编码定理指出,对于一个具有确定概率分布的离散无记忆信源,存在一种编码方式,使得信源的平均编码长度接近信源熵的值,且当信源长度趋于无穷大时,编码长度与信源熵之间的差距趋于零。

4. 什么是信道容量?答案:信道容量是指在特定的通信信道中,能够以任意小的错误概率传输信息的最大速率。

它是信道的最大信息传输率,通常用比特每秒(bps)来表示。

5. 香农公式是如何定义信道容量的?答案:香农公式定义信道容量为信道输入和输出之间的互信息量的最大值,可以表示为C = B log2(1 + S/N),其中C是信道容量,B是信道带宽,S是信号功率,N是噪声功率。

6. 差错控制编码的目的是什么?答案:差错控制编码的目的是为了检测和纠正在数据传输过程中可能发生的错误,以提高数据传输的可靠性。

7. 什么是线性码?答案:线性码是一种特殊的编码方式,其中任意两个合法编码的线性组合仍然是一个合法编码。

线性码通常可以用生成矩阵和校验矩阵来表示。

8. 卷积码和块码有什么区别?答案:卷积码和块码都是差错控制编码的类型,但它们的主要区别在于编码的结构和处理方式。

卷积码是连续的,其编码过程是按时间序列进行的,而块码是离散的,其编码过程是针对数据块进行的。

9. 什么是信道编码定理?答案:信道编码定理指出,对于任何给定的信道和任何小于信道容量的错误概率,都存在一种编码方式,可以使得错误概率趋近于零。

10. 请解释什么是信道编码的译码算法。

答案:信道编码的译码算法是一种用于从接收到的编码信号中恢复原始信息的方法。

常见的译码算法包括维特比算法、最大似然译码和最小均方误差译码等。

这些算法旨在最小化译码错误的概率。

信息论总复习题目

信息论总复习题目

二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。

()()()1lgbc aH x p x dx p x =⎰------3分 ()lg b a =-bit/自由度-------2分三、(10分)一个平均功率受限的连续信道,信道带宽为1MHz ,信道噪声为高斯白噪声。

(1)已知信道上的信号与噪声的平均功率比值为20,计算该信道的信道容量。

(2)如果信道上的信号与噪声的平均功率比值降为10,要达到相同的信道容量,信道带宽应为多少?(3)如果信道带宽降为0.5MHz ,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少?1) ()10lg 1NR c S =+------3分64.3910=⨯b/s---1分2) ()610 1.2710lg 1NR cS ==⨯+Hz---3分3) 21c w NR S =-=440----3分四、(16分)已知信源共7个符号消息,其概率空间为()12345670.20.170.20.170.150.100.01S s s s s s s s P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 试用霍夫曼编码法编成二进制变长码。

并计算信源熵、平均码长、编码后的信息传输率、编码信息率和编码效率。

要求写出详细的编码过程和计算过程。

2 01 S1 0.22 00 S3 0.23 111 S2 0.173 110 S4 0.173 101 S5 0.154 1001 S6 0.104 1000 S7 0.010.20.110.150.170.170.20.260.170.170.20.20.340.20.20.260.260.340.40.60.41.0------6分712.71i i i L P τ===∑位----2分()721log 2.61i i i H s P P ===∑bit/符号--------2分2log 2.71R r τ==’bit/码字--------2分()20.963log H s rητ==----------2分()0.963H s R τ==bit/码元--------2分五、(16分)设一个离散无记忆信源的概率空间为()120.50.5X a a P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 它们通过干扰信道,信道输出端的接收符号集为Y =[b 1,b 2],已知信源传输概率如下图所示。

(完整word版)信息论习题集

(完整word版)信息论习题集

信息论习题集第一章、判断题1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。

(“2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。

(“3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(W4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。

(M5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。

(V)6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。

(V7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。

(X第二章一、判断题1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。

(V2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。

(X)3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。

(X4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。

(X)5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。

(X6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。

(V7、互信息的统计平均为平均互信息量,都具有非负性。

(X)8、信源剩余度越大,通信效率越高,抗干扰能力越强。

(X)9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。

(X)10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。

(X)11、在信息处理过程中,熵是不会增加的。

(V12、熵函数是严格上凸的。

(V13、信道疑义度永远是非负的。

(V14、对于离散平稳信源,其极限熵等于最小平均符号熵。

(V2-1同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1)“3和5同时出现”事件的自信息量;(2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量;(4)两个点数之和(即2, 3,…,12构成的子集)的熵;(5)两个点数中至少有一个是1的自信息。

信息论复习题及答案

信息论复习题及答案

1.(15分) 彩色电视显象管的屏幕上有5×105 个象元,设每个象元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现并且各个组合之间相互独立。

① 计算每秒传送25帧图象所需要的信道容量; ② 如果在加性高斯白噪声信道上信号与噪声平均功率的比值为63,为实时传送彩色电视的图象,信道的带宽应为多大?2.(15分)已知一个信源包含八个符号消息,它们的概率分布如下表,① 该信源每秒钟内发出一个符号,求该信源的熵及信息传输速率。

② 对八个符号作二进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

③ 对八个符号作三进制码元的霍夫曼编码,写出各代码组,并求出编码效率。

3.(15分)一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。

这些数符组成长度为100的数符组。

我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。

① 求出为所规定的所有源符组都提供码字所需的最小码长。

② 求信源发出一数符组,而编码器无相应码字的概率。

4.(15分) 求下图中DMC 的信道容量。

如果输入分布为{p(x=0)=1/2,p(x=1)=1/4,p(x=2)=1/4),试求输入的信息熵和经过该信道的输入、输出间的平均互信息量。

5.(15分)设二元(7, 4)线性分组码的生成矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000101010011100101100001011G给出该码的一致校验矩阵并写出所有的伴随式和与之相对应的陪集首。

若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则试着对其译码6.(15分)证明最小错误概率译码与最大似然译码在先验等概的条件下等价。

设M =2且两个消息等概,令)0000(1=x ,)1111(2=x 。

通过信道转移概率p<1/2的信道传输。

信息论 试卷与答案

信息论 试卷与答案
2.简述最大离散熵定理。对于一个有 m 个符号的离散信源,其最大熵是多少?
答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
最大熵值为

3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的 概率分布、信道的传递概率间分别是什么关系?
答:信息传输率 R 指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到 的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分 布。
一、概念简答题(每题 5 分,共 40 分)
1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?
答:平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息
表示从 Y 获得的关于每个 X 的平均信息量,也表示发 X 前后 Y 的平均不确定性减少的量,还 表示通信前后整个系统不确定性减少的量。
概念简答题(每题 5 分,共 40 分) 1. 2. 3.答:信息传输率 R 指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息 传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的 U 型凸函数。 4. 5 6 7.答:当 R<C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8. 二、综合题(每题 10 分,共 60 分)
8.什么是保真度准则?对二元信源 求 a>0 时率失真函数的 和 ?
答:1)保真度准则为:平均失真度不大于允许的失真度。
,其失真矩阵

2)因为失真矩阵中每行都有一个 0,所以有 。
二、综合题(每题 10 分,共 60 分) 1.黑白气象传真图的消息只有黑色和白色两种,求:

信息论基础试题

信息论基础试题

信息论基础试题一、选择题1.下列哪个选项可以正确解释信息论的基本思想?•[ ] A. 信息交流的过程中,信息可以通过信道传递。

•[ ] B. 信息的传递不受噪声的影响。

•[ ] C. 信息的度量可以基于信息内容和概率分布。

•[ ] D. 信息的传输速率与信道带宽成反比例关系。

2.假设信源A生成的符号集X有5个元素,概率分布为P(X)=[0.1, 0.2, 0.4, 0.15, 0.15]。

则信源A的熵为多少?•[ ] A. 1.52•[ ] B. 1.75•[ ] C. 1.97•[ ] D. 2.323.在信息论中,互信息表示什么意思?•[ ] A. 两个随机变量的相关程度。

•[ ] B. 从一个随机变量中获得的信息量。

•[ ] C. 两个随机变量之间的信息交流量。

•[ ] D. 两个随机变量之间的互相依赖程度。

二、填空题1.在信息论中,熵是用来衡量信源的______。

2.信源的熵可以通过概率分布计算,公式为______。

3.信道容量是指在给定的信道条件下,单位时间内可以传输的最大______。

三、简答题1.请简要解释信息熵的概念,并与不确定性联系起来。

答:信息熵是信息论中对信源不确定性的度量。

它衡量了一组符号的平均不确定性,也可以理解为平均信息量。

熵越大,表示源符号的不确定性越大,每个符号所携带的信息量就越多;熵越小,表示源符号的不确定性越小,每个符号所携带的信息量就越少。

通过熵的计算,我们可以衡量一个信源的不确定性,并基于不同的概率分布对不同信源进行比较。

不确定性是指在一个具体的情境中,我们对于某个事件的发生没有确切的判断。

信息熵与不确定性有密切的联系,熵值越高,表示我们对于事件发生的不确定性也越高。

2.什么是信道容量?在实际通信中,如何提高信道的传输容量?答:信道容量是指在给定的信道条件下,单位时间内可以传输的最大信息量。

信道容量受到信道的带宽和信道的噪声水平的影响。

要提高信道的传输容量,可以采取以下几个方法:–扩展信道带宽:增加信道的频率范围,可以提高信道的传输速率和容量。

信息论复习题

信息论复习题

1、求基本高斯信源的差熵。

(10分)2、一个随机变量x 的概率密度函数为kx x p =)(,V x 20≤≤。

试求该信源的相对熵。

3、黑白气象传真图的消息只有黑色和白色两种,即信源{}黑,白=X ,设黑色的出现概率为3.0(=黑)P ,白色的出现概率为7.0(=白)P 。

(1)假设图上黑白消息出现前后没有关联,求熵)(X H 。

(2)假设消息前后有关联,其依赖关系为9.0/(=白)白P ,1.0/(=白)黑P ,2.0/(=黑)白P ,8.0/(=黑)黑P ,求此平稳离散信源的熵)(2X H 。

(3)分别求上述两种信源的剩余度,比较)(X H 和)(2X H 的大小。

4、给出求一般离散信道的信道容量的计算步骤并用拉格朗日乘子法加以证明。

5、给出离散无记忆信源的信息率失真函数的参量表述并用拉格朗日乘子法加以证明。

6、若信道的输入和输出分别是N 长序列X 和Y ,且信道是无记忆的,则 ∑=≤Nk k k Y X I Y X I 1),();(,这里k X 和k Y 分别是序列X 和Y 中第k 位随机变量;并且证明当且仅当信源也是无记忆信源时等号成立。

7、有一并联高斯加性信道,各子信道的噪声均值为0,方差为2i σ: 21σ=,22σ=,23σ=,24σ=,25σ=,26σ=,27σ=,28σ=,29σ=,210σ=(W )。

输入信号X 是10个相互统计独立、均值为0、方差为i P 的高斯变量,且满足:)(1101W P i i =∑=。

求各子信道的信号功率分配方案。

8、给定语音信号样值x 的概率密度函数为x e x p λλ-=21)(,∞<<∞-x ,求)(X H c ,并比较)(X H c 与具有同样方差的正态变量的连续熵的大小。

9、某二元信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡5.05.010)(x p X ,其失真矩阵定义为⎥⎦⎤⎢⎣⎡=00a a D ,求该信源的max D ,min D 和该信源的信息率失真函数)(D R 。

信息论考试卷与答案..

信息论考试卷与答案..

考试科目名称:信息论一. 单选(每空2分,共20分)1.一个m位的二进制数的自信息量为(A )A.m bitB.1 bitC.m2mD.22.信源编码的目的是(A )A.提高通信有效性B.提高信息传输的可靠性C.提高通信系统的安全性D.压缩信源的冗余度3.下面属于最佳变长编码的是(C )A.算术编码和游程编码B.香农编码和游程编码C.哈夫曼编码和费诺编码D.预测编码和香农编码4.表中符合即时码的是(A )和(D )5.下列各量可能为负值的是(B )A.自信息量B.互信息量C.信息熵D.平均互信息量6.联合熵H(XY)与熵H(X)及条件熵H(X/Y)之间存在关系错误的是(D )A.H(XY)=H(X)+H(Y/X)B.若X和Y相互独立,H(Y)=H(Y/X)C.H(XY)=H(Y)+H(X/Y)D.H(XY)=H(X)+H(X/Y)7.已知发送26个英文字母(包括空格),其最大信源熵(发送概率相等)为H0 = log27 = 4.76比特/符号;在字母发送概率不等时,其信源熵为H1 = 4.03比特/符号;考虑字母之间相关性时,其信源熵为H2 = 3.32=1.4比特/符号。

问若用一般传送比特/符号;以此类推,极限熵H∞方式,冗余度γ为( B )A.0.58B.0.71C.0.65D.0.298. 某信道传递矩阵为,其信道容量为( D )A .)41log 4143log 43()81,81,41,21(4log ++-=H C B .)41log 4343log 41()81,81,41,21(2log +--=H C C .)41log 4143log 43()81,81,41,21(4log +--=H CD .)41log 4143log 43()81,81,41,21(2log +--=H C9. 下列各图所示信道是对称信道的是( C )A .B .C .⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8181214181814121PD.二. 综合(共80分)1.(10分)试画出通信系统的模型,并叙述各部分的定义和作用。

信息论基础试题及答案

信息论基础试题及答案

信息论基础试题及答案信息论基础试题及答案填空题(每题2分)1、信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的(可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。

(考点:信息论的研究目的)2、电视屏上约有500×600=3×105个格点,按每点有10个不同的灰度等级考虑,则可组成103?10个不同的画面。

按等概计算,平均每个画面可提供的信息量约为(106bit/画面)。

(考点:信息量的概念及计算)3、按噪声对信号的作用功能来分类信道可分为(加性信道)和(乘性信道)。

(考点:信道按噪声统计特性的分类)4、英文电报有32个符号(26个英文字母加上6个字符),即q=32。

若r=2,N=1,即对信源S的逐个符号进行二元编码,则每个英文电报符号至少要用(5)位二元符号编码才行。

(考点:等长码编码位数的计算)5、如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。

(考点:错误概率和译码准则的'概念)6、按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。

(考点:纠错码的分类)7、码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。

(考点:线性分组码的基本概念)8、和离散信道一样,对于固定的连续信道和波形信道都有一个最大的信息传输速率,称之为(信道容量)。

(考点:连续信道和波形信道的信道容量)9、对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t 个随机错误,同时能检测e(e≥t)个随机错误,则要求(d≥t+e+1)。

(考点:线性分组码的纠检错能力概念)判断题(每题2分)1、信源剩余度的大小能很好地反映离散信源输出的符号序列中符号之间依赖关系的强弱,剩余度越大,表示信源的实际熵越小。

《信息论》试题(精华)及答案(精华版)

《信息论》试题(精华)及答案(精华版)

期终练习,10%就是胖子 ,80%不胖不瘦 ,10%就是瘦子;已知胖子得高血压的概率 一,某地区的人群中 就是 15% ,不胖不瘦者得高血压的概率就是 10%,瘦子得高血压的概率就是 5% ,就“该地区的 某一位高血压者就是胖子”这句话包含了多少信息量;解: 设大事 A: 某人就是胖子 ; B: 某人就是不胖不瘦 C:某人就是瘦子D: 某人就是高血压者依据题意 ,可知 :P(A)=0 , 1 P(B)=0 , 8 P(C)=0 ,1P(D|A)=0 , 15 P(D|B)=0 , 1 P(D|C)=0 , 05而“该地区的某一位高血压者就是胖子” 这一消息说明在 D 大事发生的条件下 ,A 大事 的发生 ,故其概率为 依据贝叶斯定律 P(A|D),可得 :P(D) = P(A)* P(D|A) + P(B)* P(D|B) +P(C)* P(D|C) = 0, 1P(A|D) = P(AD)/P(D) = P(D|A)*P(A)/ P(D) = 0, 15*0 , 1/0, 1= 0,15故得知“该地区的某一位高血压者就是胖子”这一消息获得的多少信息量为 I(A|D) = - logP(A|D)=log(0 ,15) ≈ 2, 73 (bit): 二,设有一个马尔可夫信源 ,它的状态集为 {S 1,S 2,S 3}, 符号集为 {a 1,a 2,a 3 }, 以及在某状态下发出 p (a k | s i ) (i,k=1,2,3), 如下列图符号集的概率就是 (1) 求图中马尔可夫信源的状态极限概率并找出符号的极限概率(2) 运算信源处在某一状态下输出符号的条件熵 H(X|S=j) (j=s 1,s 2,s 3)(3) 求出马尔可夫信源熵 H解 :(1) 该信源达到平稳后 , 有以下关系成立 :Q( E 1 ) Q(E 3 ) 273727Q(E 1 )3 4 1 4 1 2 1 2 Q( E 2 ) Q(E 1 ) Q( E 2 )Q(E )可得 2 Q( E 3 ) Q(E 1 ) Q( E 2 )Q(E ) 3Q( E 1 ) Q(E 2 ) Q(E 3 ) 133 72 73 7 p(a 1)Q(E i ) p( a 1 |E i ) i 13 p(a 2 )Q(E i ) p(a 2 |E i ) i 1 3p(a ) Q(E ) p(a |E ) 3 i 3 i i 13 p(a k |S 1 ) log p(a k | S 1) 1.(5 bit/ 符号)H ( X | S 1 ) k 13(1 bit/ 符号)(2) H ( X | S 2 ) p(a k |S 2 ) log p(a k | S 2 ) k 13p(a k |S 3 ) log p(a k | S 3 ) 0(bit/ 符号)H ( X | S 3 ) k 13(3) H Q(E i ) H (X | E i ) 2 / 7*3/ 2 3/ 7*1 2 / 7*0 6 / 7 (比特 /符号 )i 1三,二元对称信道的传递矩阵为 (1) 如 P(0)=3/4,P(1)=1/4, 求 H(X),H(X|Y) 与 I(X;Y)(2) 求该信道的信道容量及其最大信道容量对应的正确输入分布2解: ⑴ H ( X ) = p(x i )log p( x i ) 75 25 0, 811(比特 /符号 )= i 1p( y 1 ) p( x 1 ) p( y 1 | x 1 ) p( x 2 ) p( y 1 | x 2 ) =0,75*0 ,6+0 , 25*0 , 4=0 , 55 p( y 2 ) p( x 1 ) p( y 2 | x 1 ) p( x 2 ) p( y 2 | x 2 ) 0, 75*0 , 4+0 , 25*0 , 6=0, 45 H (Y) 0, 992(比特 /符号 )H (Y | X ) p( x)H (Y | x 1) p(x 2 ) H (Y | x 2 ) H (0.6,0.4) H (0.4,0.6) 0.4)7(1 比特 / 符号)H ( X | Y ) H ( XY ) H (Y) H ( X ) H (Y | X ) H (Y)0, 811+0, 971-0 , 992=0, 79 (比特 /符号 )I(X;Y)=H(X)-H(X|Y) =0, 811-0, 79=0, 021(比特 /符号 )(2) 此信道为二元对称信道 ,所以信道容量为C=1-H(p)=1-H(0 , 6)=1-0 , 971=0, 029( 比特 /符号 )当输入等概分布时达到信道容量p p 22pp2244,其中p 1 p ;四,求信道的信道容量0 44 0p p 22pp22解: 这就是一个准对称信道,可把信道矩阵分为: ,N1 M 1 1 4 , N 2 4 , M 422C log r H ( p 2, p 2 ,0,4 ) Nk log Mkk 1log 2 H ( p 2 , p 2 ,0,4 )(1 4 )log(1 44)4log 4(比特/ 符号)故1H ( p 2 , p 2 ,4 ) (1 4 )log(1 4 ) log 4 当输入等概分布时达到信道容量;1XP( x) x1x2x3x4x5x6五,信源(1) 利用霍夫曼码编成二元变长的惟一可译码,并求其L,并求其L(2) 利用费诺码编成二元变长的惟一可译码(3) 利用香农码编成二元变长的惟一可译码(1) 香农编码:,并求其信源符号x 1x 2x 3x 4x 5x 6概率P(x i)0,40,20,20,10,050,05码长233455累积概率0,40,60,80,90,95码字0001110011001110011110l i PL =0 ,4×2+0,2×3+0,2×3+0,1×4+0,05×5+0,05×5=2,9(码元/信源符号)η=H(X)/( L logr)=2 ,222/2,9=0 ,7662(2) 霍夫曼编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)=0 ,9964(3)费诺编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)= 0 ,99641 21312161613121613六,设有一离散信道,传递矩阵为设P(x1 )= P(x 2)=1/4,P(x 3)=1/2,试分别按最小错误概率准就与最大似然译码准就确定译码规章并相应的运算机平均错误概率的大小;解:(1) 按最大似然译码准就,F(y1)=x1 F(y2)=x2 F(y3)=x3P(E)=1/2(1/3+1/6)+1/4 ×2×(1/3+1/6)=1/2(2) 联合概率矩阵为,就按最小错误概率准1 8 1 24 1 61121811212411214F(y1)=x3 F(y2)=x2 F(y3)=x3 P(E)= 1/8+1/24+2/12 +1/24+1/12=11/240,131,13213UP(u)八,一个三元对称信源0 1 1 1 0 1 11接收符号为 V = {0,1,2}, 其失真矩阵为 (1)求 D max 与 D min 及信源的 R(D) 函数;(2)求出达到 R(D ) 的正向试验信道的传递概率1 r2 3解 :(1) D max = min P ( u ) d(u ,v) 1 V U 3D min = P ( u ) min d (u , v) 0 j i 1由于就是三元对称信源 ,又就是等概分布 ,所以依据 r 元离散对称信源可得 R(D) =log3 - Dlog2 -H(D) = log3 - D - H(D) 0<=D<=2/3= 0 D>2/3(2)满意 R(D) 函数的信道其反向传递概率为1 D (i j )P(u i | v j ) D2 (i j )13以及有 P(v j )= 依据依据贝叶斯定律 ,可得该信道的正向传递概率为 :1 D2 D (i j )P( v j | u i ) (i j )九,设二元码为 C=[11100,01001,10010,00111](1) 求此码的最小距离 d min ;(2) 采纳最小距离译码准就 ,试问接收序列 10000,01100 与 00100 应译成什么码字?(3) 此码能订正几位码元的错误?解:(1) 码距如左图11100 01001 10010 001111110001001 10010 00111 33 4 43 3故 d min = 3(2) 码距如右图故 10000 译为 译为 11100,00100 译为 11100 或 0011110010,01100 d min 2 e 1,知此码能订正一位码元的错误;(3) 依据。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信息论复习提纲(2017)
第一章绪论
1.通信系统模型;
2.香浓信息的概念;
3.信源、信道、信源编码和信道编码研究的核心问题。

第二章离散信源及信源熵
1.离散信息量、联合信息量、条件信息量、互信息量定义;
2.信源熵、条件熵、联合熵定义;
3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明);4.最大信源熵定理及证明;
5.本章所有讲过的例题;
第三章离散信源的信源编码
1.信息传输速率、编码效率定义;
2.最佳编码定理(即3.2节定理:概率越大,码长越小;概率越小,码长越大)及证明;3.码组为即时码的充要条件;
4.单义可译定理(Kraft不等式)及应用;
5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);
6.本章所有讲过的例题;
第四章离散信道容量
1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离散信道、准对称离散信道);
2.本章讲过的例题;
第五章连续消息和连续信道
1.相对熵的定义;
2.均匀分布、高斯分布、指数分布的相对熵及证明;
3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明;
4.香农公式及意义;
5.本章所有讲过的例题;
第六章差错控制
1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;
2.最小距离与检错、纠错的关系(即6.3节定理);
3.本章所有讲过的例题;
第七章线性分组码
1.线性分组码定义;
2.线性分组码的最小距离与最小重量的关系及证明;
3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系;
4.制作标准阵列并利用标准阵列译码;
5.本章所有讲过的例题;
第八章循环码
1.生成多项式的特点,有关定理(8.2三定理1,定理2,定理3)及证明;
2.生成矩阵、一致校验矩阵定义,如何获得生成矩阵、一致校验矩阵的典型形式;
3.本章所有讲过的例题;
习题:
1.
计算:。

2. 具有归并性能的无噪信道的信道矩阵P=,求其信道容量及达到信道容量时
信源的概率分布。

3. 信道矩阵[P]=,计算[P]代表的信道的信道容量。

4. 设二元对称信道的传递矩阵为213
3123
3⎡⎤
⎢⎥⎢
⎥⎢⎥⎣⎦
(1) 若()()(0)34,(1)14,(),,(;)P P H X H X Y H Y X I X Y ==求和; (2) 求该信道的信道容量及其达到信道容量时的输入概率分布。

5. 设有信源 (1) 对该信源编二进制费诺;
(2) 计算其平均码长。

6. 设有信源 (1) 对该信源编二进制霍夫曼码,计算其平均码长;
(2) 对该信源编三进制霍夫曼码,计算其平均码长; (3) 对该信源编四进制霍夫曼码,计算其平均码长;
7. 设有一个无记忆信源发出符号A 和B ,已知p (A) = 1/4, p (B) = 3/4。

(1)计算该信源熵; (2)该信源改为发出二重符号序列消息的信源,采用费诺编码,求其平均信息传输速率; (3)该信源改为发三重序列消息的信源,采用霍夫曼编码,求其平均信息传输速率。

8. 设一个[7, 4]码的生成矩阵为10001110
10010100100110
00111
0⎡⎤⎢⎥⎢
⎥⎢⎥⎢⎥⎣⎦
(1) 求出该码的全部码字; (2) 求出该码的一致校验矩阵; (3) 作出该码的标准译码码表。

⎥⎥⎥⎥
⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎣
⎡100
010*********⎥
⎦⎤
⎢⎣
⎡8/18/12/14/18/18/14/12/1⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣
⎡1.012.014.014.015.015.02.0(7654321
x x x x x x x X P X )⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣
⎡128/1128/164/132/116/18/14/12/1(87654321
x x x x x x x x X P X )
9. 设二元线性码L 的生成矩阵为110100
101
0⎛⎫
= ⎪⎝⎭
G ,建立码L 的标准阵并且对字11111和10000分别进行译码。

10. 令108542()1g x x x x x x x =++++++是 (15, 5)循环码的生成多项式,写出该码的系统码形式的G 和H 矩阵标准形式;
11. 给定X 的概率密度函数为拉普拉斯分布+∞
<<-∞=-x e x p x
,21)(λλ,求相对熵Hc(X)。

2014年《信息论与编码》研究生考试试题
注:满分100分,所有答案写在答题纸上,该试卷写上名字后交回. 姓名: 一. 叙述题(5分×4=20分)
1.写出香农公式,并解释其意义. 2.叙述平均码长界定定理. 3.叙述香农第一定理.
4.分别叙述峰值功率受限和平均功率受限条件下的最大熵定理. 二. 计算题(共70分) 1.(10分)设信源⎭
⎬⎫⎩⎨⎧=⎥
⎦⎤⎢
⎣⎡17.016.017.018.019.02.0)(654321
x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6,不满足最大熵定理.
2. (10分)利用最大后验概率译码准则,给出译码方案,并计算错误传输概率E P .
信源的概率空间为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡414121x x x )X (p X 321,信道矩阵为⎥⎥⎥⎦

⎢⎢⎢⎣⎡=2/13/16/16/12/13/13/16/12/1P . 3.(15分)信源概率空间为⎥⎦
⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡04.008.016.018.022.032.0654321
x x x x x x P X , 分别进行二进制费诺编码,二进制霍夫曼编码和三进制霍夫曼编码.
4.(20分)()3,6 线性分组码的生成矩阵⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡=011100110110011011G . (1)写出一致校验矩阵.
(2)给出所有码字. (3)给出标准阵列表.
(4)如果接收1111001=R ,1000012=R ,0010113=R ,给出译码. 5.(15分)令10
8
5
4
2
()1g x x x x x x x =++++++是 (15, 5)循环码的生成多项式, 写出生成矩阵G 和一致校验矩阵H 的标准形式. 三. 证明题(共10分)
证明:),(k n 线性分组码构成n 维线性空间的k 维子空间.。

相关文档
最新文档