信息论填空
信息论试卷含答案资料讲解

《信息论基础》参考答案一、填空题(共15分,每空1分)1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为32log bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()222x f x σ-=时,信源具有最大熵,其值为值21log 22e πσ。
9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。
(2)()()1222H X X H X =≥()()12333H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
二、(6分)若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
()1,2640,x f x ⎧≤≤⎪=⎨⎪⎩Q 其它()()()62log f x f x dx ∴=-⎰相对熵h x=2bit/自由度该信源的绝对熵为无穷大。
三、(16分)已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。
信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题一﹑填空题(每题2分,共20分)1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑XX 性和认证性,使信息传输系统达到最优化。
(考点:信息论的研究目的)2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成531010⨯个不同的画面。
按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。
(考点:信息量的概念与计算)3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。
(考点:信道按噪声统计特性的分类)4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。
若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。
(考点:等长码编码位数的计算)5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。
(考点:错误概率和译码准则的概念)6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。
(考点:纠错码的分类)7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4,2))线性分组码。
(考点:线性分组码的基本概念)8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =⎡⎤==-⎢⎥⎣⎦∑)。
(考点:平均信息量的定义)9.对于一个(n,k)分组码,其最小距离为d,那么,若能纠正t个随机错误,同时能检测e(e≥t)个随机错误,则要求(d≥t+e+1)。
(考点:线性分组码的纠检错能力概念)10.和离散信道一样,对于固定的连续信道和波形信道都有一个最大的信息传输速率,称之为(信道容量)。
信息论考试题

一.填空1.设X的取值受限于有限区间[a,b ],则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大。
2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立。
3.设信源为X={0,1},P (0)=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和(100-m )个“1”构成的序列,序列的自信息量为)8/7(log )100(8log22m m -+比特/符号。
4.离散对称信道输入等概率时,输出为 等概 分布。
5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。
6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P 0.747 , =)(2x P 0.253 。
12设有DMC,其转移矩阵为[]⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2/16/13/13/12/16/16/13/12/1|XY P ,若信道输入概率为[][]25.025.05.0=X P ,试确定最佳译码规则和极大似然译码规则,并计算出相应的平均差错率。
解:⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=8/124/112/112/18/124/112/16/14/1][XYP最佳译码规则:⎪⎩⎪⎨⎧===331211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/6-1/8=11/24;极大似然规则:⎪⎩⎪⎨⎧===332211)()()(ab F a b F a b F ,平均差错率为1-1/4-1/8-1/8=1/2。
信息论考试题(填空简答)

一.填空题(每空1分,共20分)1.香农信息论的三个基本概念分别为_______________ 、_____________ 、 ____________ 。
2•对离散无记忆信源来说,当信源呈_______________ 分布情况下,信源熵取最大值。
3•写出平均互信息的三种表达公式________________ 、_____________ 、 ____________ 。
4.若连续信源输出的平均功率和均值被限定,则其输出信号幅度的概率密度函数为______________ 时,信源具有最大熵值;若连续信源输出非负信号的均值受限,则其输出信号幅度呈____________ 分布时,信源具有最大熵值。
5. ________________________________ 信道容量是为了解决通信的_________________________ 问题,而信息率失真函数是为了解决通信的___________ 问题。
6. ______________________________________________________ 费诺编码比较适合于的信源。
7•无记忆编码信道的每一个二元符号输出可以用多个比特表示,理想情况下为实数,此时的无记忆二进制信道又称为__________________________ 。
&差错控制的4种基本方式是:_________________ 、_____________ 、 ____________ 、______________ 。
9 . (n,k)线性码能纠t个错误,并能发现I个错误(l>t),码的最小距离为:10.循环码码矢的i次循环移位等效于将码多项式乘___________________ 后再模______________ 。
二.简答题(每小题5分,共30分)1 •分别说明平均符号熵与极限熵的物理含义并写出它们的数学表达式。
2•写出二进制均匀信道的数学表达式,并画出信道容量C与信道转移概率 p的曲线图。
信息论试题

信息论试题一、选择题1. 信息论的创始人是()。
A. 克劳德·香农B. 艾伦·图灵C. 约翰·冯·诺伊曼D. 阿兰·麦席森2. 下列哪个选项是信息论中信息熵的计算公式?()。
A. H(X) = -ΣP(x)log_2P(x)B. H(X) = ΣP(x)xC. H(X) = 1/ΣP(x)D. H(X) = log_2(1/P(x))3. 在信息论中,互信息用于衡量两个随机变量之间的()。
A. 独立性B. 相关性C. 非线性D. 周期性4. 以下哪个不是信息论的应用领域?()。
A. 通信系统B. 密码学C. 机器学习D. 生物遗传学5. 香农极限是指()。
A. 信息传输的最大速率B. 信息压缩的最小冗余度C. 信道容量的理论上限D. 编码长度的最优解二、填空题1. 信息论中的信息熵是衡量信息的不确定性或________的度量。
2. 互信息表示两个随机变量之间共享的信息量,它是衡量两个变量之间________的指标。
3. 香农在1948年发表的论文《________》奠定了信息论的基础。
4. 在数字通信中,信道容量可以通过公式________来计算。
5. 信息论不仅在通信领域有广泛应用,它还对________、数据分析等产生了深远影响。
三、简答题1. 简述信息论的基本原理及其在现代通信中的作用。
2. 描述香农信息论中的主要概念及其相互之间的关系。
3. 说明信息论如何应用于数据压缩技术,并给出一个实际例子。
4. 讨论信息论对于密码学和信息安全的贡献。
四、论述题1. 论述信息论对于人工智能和机器学习领域的影响及其潜在的应用前景。
2. 分析信息论在生物信息学中的应用,以及如何帮助我们更好地理解生物系统的复杂性。
3. 探讨信息论在社会网络分析中的应用,以及它如何帮助我们理解和预测社会行为模式。
4. 评述信息论在量子通信和量子计算中的潜在作用及其对未来科技发展的意义。
信息论填空

1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的可度量性是建立信息论的基础。
7、统计度量是信息度量最常用的方法。
8、熵是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是0 。
14、不可能事件的自信息量是∞。
15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。
18、离散平稳有记忆信源的极限熵,=∞H)/(lim121-∞→NNNXXXXH。
19、对于n元m阶马尔可夫信源,其状态空间共有n m个不同的状态。
20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。
21、平均功率为P的高斯分布的连续信源,其信源熵,H c(X)=ePπ2log212。
22、对于限峰值功率的N维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。
24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率P 之比。
25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。
信息论习题集

信息论习题集信息论习题集⼀、填空题1、⼈们研究信息论的⽬的是为了⾼效、可靠安全地交换和利⽤各种各样的信息。
2、单符号离散信源输出的消息⼀般⽤随机变量描述,⽽符号序列离散信源输出的消息⼀般⽤随机⽮量描述。
3、两个相互独⽴的随机变量的联合⾃信息量等于两个⾃信息量之和。
4、连续信源或模拟信号的信源编码的理论基础是限失真信源编码定理。
5、必然事件的⾃信息是 0 ,不可能事件的⾃信息量是 00 。
6、信道的输出仅与信道当前的输⼊有关,⽽与过去输⼊⽆关的信道称为⽆记忆信道。
7、若纠错码的最⼩距离为min d ,则可以纠正任意⼩于等于t= 个差错。
8、必然事件的⾃信息量是 0 ,不可能事件的⾃信息量是 00 。
9、⼀信源有五种符号{a , b , c , d , e},先验概率分别为 a P =0.5, b P =0.25, c P =0.125,d P =e P =0.0625。
符号“a ”的⾃信息量为____1____bit ,此信源的熵为____1.875____bit/符号。
10、已知某线性分组码的最⼩汉明距离为3,那么这组码最多能检测出 2 个码元错误,最多能纠正 1 个码元错误。
11、克劳夫特不等式是唯⼀可译码存在与否的充要条件。
{00,01,10,11}是否是唯⼀可译码?。
12、离散平稳⽆记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍。
13、对于离散⽆记忆信源,当信源熵有最⼤值时,满⾜条件为信源符号等概分布_ 。
⼆、选择题1、下⾯哪⼀项不属于最简单的通信系统模型:( B )A .信源B .加密C .信道D .信宿 2、信道编码的⽬的是( A )。
A 提⾼通信系统的可靠性B 提⾼通信系统的有效性C 提⾼通信系统的保密性D 提⾼通信系统的实时性3、给定x i 条件下随机事件y j 所包含的不确定度和条件⾃信息量I (y j /x i ),(C )A 数量上不等,含义不同B 数量上不等,含义相同C 数量上相等,含义不同D 数量上相等,含义相同4、下⾯哪⼀项不是增加信道容量的途径:(C )A 减⼩信道噪声功率B 增⼤信号功率C 增加码长D 增加带宽5、平均互信息量 I(X;Y)与信源熵和条件熵之间的关系是( A )。
信息论试题3

《信息论基础》试卷答案一、填空题(共20分,每空1分)1、通信系统中,编码的主要目的有两个,分别是提高有效性和可靠性。
2、离散无记忆信源存在剩余度的原因是分布不等概。
3、当信源各符号无相关性、等概分布时,信源熵为最大值。
八进制信源的最大熵为3/bit 符号,最小熵为0/bit 符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、一个事件发生概率为0.125,则自相关量为3bit 。
6、根据信原输出随机序列中随机变量前后之间有无统计依赖性,信原可以分为有记忆信源和无记忆信源。
7、噪声瞬时值的概率密度函数服从高斯分布,同时功率谱密度为均匀分布的噪声称为高斯白噪声。
8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
9、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正2x -21log 22e πσ。
9,,,=≥≤>”或“〈” (1)()H XY =H(Y)+H(X|Y)H(Y)+H(X)≤(2)假设信道输入用X 表示,信道输出用Y 表示。
在有噪无损信道中, H(X/Y)= 0, H(Y/X)>0,I(X;Y)=H(X)。
二、(6分)若连续信源输出的幅度被限定在【1,3】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
解:该信源的相对熵:()h(X)=log b-a log(31)1bit =-=绝对熵为+∞三、(16分)已知信源12345S P 0.250.20.20.20.15s s s s s ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(4分)(2)计算平均码长—L ;(4分)(3)计算编码信息率R ';(4分)(4)计算编码后信息传输率R ;(2分)(5)计算编码效率η。
(2分)解:(1)霍夫曼编码后的二进制变长码:S1:10, S2:00, S3:00, S4:110, S5:111,S1 0.25S2 0.2S3 0.2S4 0.2S5 0.1501.00.40.35011000.61(2)平均码长:I=0.35*3+0.65*2=2.35码元/符号;(3)编码信息率:R '=—L *logr=2.35*1=2.35 bit/信源符号(4)编码后信息传输率: 111110.25log 0.2log 0.2log 0.2log 0.15log H(s)0.250.20.20.20.15R= 2.35L 0.50.6*2.3220.15*2.7370.982.35++++=+==— (5)编码效率:η =H(s)L—=98%四、(12分)已知一个平均功率受限的连续信号,通过带宽W 10MHz =的高斯白噪声信道,试计算(1)若信噪比为10,信道容量为多少?(4分)(2)若信道容量不变,信噪比降为5,信道带宽为多少?(4分)(3)若信道通频带减为5MHz 时,要保持相同的信道容量,信道上的信号与噪声的平均功率比值应等于多少?(4分)解: (1)根据香农公式:()()67Wlog 1SNR 1010log 110 3.4610C =+=⨯⨯+=⨯ (2)当SNR 5=,()()7Wlog 1SNR Wlog 15 3.4610C =+=+=⨯则 773.4610W 1.33810Hz 2.585⨯==⨯ (3)当带宽减为5MHz ,()()67Wlog 1SNR 510log 1SNR 3.4610+=⨯⨯+=⨯ SNR =120五、(16分)某个信息源发出符号的概率为:12()(),P a P a =3()0.4,P a =假设该信息源发出的符号前后有关联,其依赖关系为:112122321333312133(|);(|);(|);(|);(|);(|);443344P a a P a a P a a P a a P a a P a a ======(1) 画出状态转移图(4分)(2) 计算稳态概率(4分)(3) 计算信源的极限熵(4分)(4) 计算稳态下H1,H2及其对应的剩余度。
信息论基础1答案

信息论基础1答案《信息论基础》答案一、填空题(本大题共10小空,每小空1分,共20分)1. 按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。
2. 一个八进制信源的最大熵为3bit/符号3.有一信源X,其概率分布为:X i X2 X3其信源剩余度为94.64%:若对该信源进行十次扩展,则每十个符号的平均信息量是15bit。
4. 若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。
若消息从放大器中输出,则该信源的绝对熵是 _:其能在每个自由度熵的最大熵是log (b-a ) bit/自由度:若放大器的最高频率为F,则单位时间内输出的最大信息量是2Flog (b-a )bit/s.5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为2log32 e ;与其熵相等的非高斯分布信源的功率为16w6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H _「(S))。
&当R=C或(信道剩余度为0)时,信源与信道达到匹配。
9、根据是否允许失真,信源编码可分为无—真信源编码和限失真信源编码。
10、在下面空格中选择填入数学符号“,‘ ‘ ” 或“”(1)当X和Y相互独立时,H ( XY)=H(X)+H(X/Y)。
(2 )假设信道输入用X表示,信道输出用Y 表示。
在无噪有损信道中,H(X/Y)> 0,H(Y/X)=0,l(X;Y)<HX)。
二、掷两粒骰子,各面出现的概率都是1/6 , 计算信息量:1. 当点数和为3时,该消息包含的信息量是多少?2. 当点数和为7是,该消息包含的信息量是多少?3. 两个点数中没有一个是1的自信息是多少?解:1.P (“点数和为3” =P( 1,2)+ P( 1,2)=1/36+1/36=1/18则该消息包含的信息量是:l=-logP (“点数和为3”)=log18=4.17bit2. P (“点数和为7” =P( 1,6)+ P(6,1) + P (5,2)+ P (2,5)+ P (3,4)+ P (4,3) =1/366=1/6则该消息包含的信息量是:l=-logP (“点数和为7”)=log6=2.585bit3. P (“两个点数没有一个是1” =1-P “两个点数中至少有一个是1 ”=1-P(1,1or1,jori,1)=1-(1/36+5/36+5/36)=25/36则该消息包含的信息量是:l=-logP (“两个点数中没有一个是1”) =log25/36=0.53bit三、设X、丫是两个相互统计独立的二元随机变量,其取-1或1的概率相等。
信息论可能考到的填空题及问答题

离散信源:离散随机变量描述输出消息的信源;平稳信源分为无记忆信源有记忆信源事件发生的概率越小,不确定性越大;I(a i)的含义:①事件发生以前表示事件发生的不确定性②事件发生以后表示事件所含有的信息量。
熵H(X)的物理意义:①信源输出前信源的平均不确定性②信源输出后每个消息提供的平均信息量③表征变量X的随机性。
H(X N)=NH(X)熵的性质:对称性,确定性,非负性,扩展性,可加性H(XY)=H(X)+H(Y),强可加性H(XY)=H(X)+H(Y|X),递增性,极值性只有信源等概率分布时熵最大,上凸性。
信源剩余度表示信源的相关性程度,剩余度越大,信源符号间依赖关系越弱,符号之间的记忆长度越短。
γ=1-H∞/logq互信息I(x;y)表示收到y后获得关于事件x的信息量,平均互信息I(X;Y)是互信息I(x;y)在两个概率空间X和Y中求统计平均的结果。
I(X;Y)=H(X)-H(X |Y)损失熵=H(Y)-H(Y |X)噪声熵=H(X)+H(Y)-H(XY)平均互信息性质:非负性,极值性,交互性,凸状性平均互信息是输入信源概率分布P(x)的上凸函数,是信道传递概率P(y |x)的下凸函数无噪无损信道和无损信道的信道容量是logr,有噪无损的信道容量是logs,二元对称信道的容量是1-H(p)离散无记忆的N次扩展信道的信道容量等于原单符号离散信道信道容量的N倍,独立并联信道的C不大于各个信道的C之和若X,Y,Z组成一个马尔科夫链,则I(X;Z) ≦I(X;Y),I(X;Z) ≦I(Y;Z)信道剩余度=C- I(X;Y),相对剩余度=1- I(X;Y)/C信息传输率R指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
自信息的符号是bit,熵,互信息,信道传输率,信道容量的单位都是bit/符号连续信源:用连续随机变量描述输出消息的信源均匀分与连续信源熵值:log(b-a),高斯信源熵值:(log2πeP)/2,指数分布熵值:logae差熵的性质:可加性,上凸性,可取负值,变换性,极值性峰值功率受限条件下均匀分布信源的熵最大,平均功率受限条件下高斯分布信源的熵最大共有r s种译码规则可供选择。
信息论——精选推荐

信息论信号论考试复习题⼀、填空题。
1. ⾹农信息论中定义的信息是“事物运动状态和存在⽅式不确定性的描述”。
2. 消息是信息的载体。
构成消息的两个条件是能被通信双⽅所理解和可以在通信中传递和交换。
3. 信源编码的作⽤是根据失真度准则对信源的输出消息进⾏编码,⽤码字表⽰消息。
4. 信息论研究的主要问题是如何提⾼信息传输系统的有效性和可靠性。
5. 如果信源输出的消息的随机变量,可以在某⼀离散集合内取值,也可以在某⼀连续区间内取值,相应的信源就分别称为和。
——[答案:1.连续信源离散信源]6. 当条件概率分布p (y ∣x )给定时,平均互信息量I (X;Y )是输⼊概率分布p(x)的。
——【上凸函数】7. ⼋进制脉冲的平均信息量为,⼋进制脉冲所含信息量是⼆进制脉冲信息量的倍。
——【3 3】8. 熵函数的数学特性有、、、确定性、可加性、极值性、上凸性。
——【对称性⾮负性扩展性】9. 平均互信息量I (X;Y )与信源熵和条件熵之间的关系是。
【I (X;Y )=H (X )—H(X/Y)】 10. 设信源X 包含 4个不同的离散信息,当且仅当X 中各个信息出现的概率为时,信源熵达到最⼤值为,此时各个信息的⾃信息量为。
【1/4 2 2】 11. ⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越。
【⼩】 12. 信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的,⼆是信源符号分布的。
【相关性不均匀性】 13. 离散信道是输⼊和输出的随机变量的取值都是离散的信道。
14. 信道可依据输⼊输出的随机变量类型分成离散信道、连续信道、半离散或半连续信道。
15. 单符号离散信道的输⼊符号是X ,取之于{a1、a2…… an };输出符号为Y ,取值为{b1、b2、……bn },并有条件概率P(Y=bj/X=ai)=P(bj/ai)(i=1、2……m),这⼀组条件概率称为信道的传递概率或转移概率。
信息论试题1

《信息论基础》答案一、填空题(本大题共10小空,每小空1分,共20分)1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。
2.一个八进制信源的最大熵为3bit/符号3.有一信源X,其概率分布为123x x xX111P244⎛⎫⎡⎤ ⎪=⎢⎥ ⎪⎣⎦⎝⎭,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是15bit。
4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。
若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是2Flog (b-a)bit/s.5.若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1log32e2π;与其熵相等的非高斯分布信源的功率为16w≥6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。
8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。
9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
10、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。
(2)假设信道输入用X表示,信道输出用Y表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
二、掷两粒骰子,各面出现的概率都是1/6,计算信息量:1.当点数和为3时,该消息包含的信息量是多少?2.当点数和为7是,该消息包含的信息量是多少?3.两个点数中没有一个是1的自信息是多少?解:1.P (“点数和为3”)=P (1,2)+ P (1,2)=1/36+1/36=1/18 则该消息包含的信息量是:I=-logP (“点数和为3”)=log18=4.17bit 2.P (“点数和为7”)=P (1,6)+ P (6,1)+ P (5,2)+ P (2,5)+ P (3,4)+ P (4,3)=1/36 ⨯6=1/6则该消息包含的信息量是:I=-logP (“点数和为7”)=log6=2.585bit 3.P (“两个点数没有一个是1”)=1-P (“两个点数中至少有一个是1”) =1-P(1,1or1,jori,1)=1-(1/36+5/36+5/36)=25/36则该消息包含的信息量是:I=-logP (“两个点数中没有一个是1”)=log25/36=0.53bit三、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。
信息论基础试题

信息论基础试题一、选择题1.下列哪个选项可以正确解释信息论的基本思想?•[ ] A. 信息交流的过程中,信息可以通过信道传递。
•[ ] B. 信息的传递不受噪声的影响。
•[ ] C. 信息的度量可以基于信息内容和概率分布。
•[ ] D. 信息的传输速率与信道带宽成反比例关系。
2.假设信源A生成的符号集X有5个元素,概率分布为P(X)=[0.1, 0.2, 0.4, 0.15, 0.15]。
则信源A的熵为多少?•[ ] A. 1.52•[ ] B. 1.75•[ ] C. 1.97•[ ] D. 2.323.在信息论中,互信息表示什么意思?•[ ] A. 两个随机变量的相关程度。
•[ ] B. 从一个随机变量中获得的信息量。
•[ ] C. 两个随机变量之间的信息交流量。
•[ ] D. 两个随机变量之间的互相依赖程度。
二、填空题1.在信息论中,熵是用来衡量信源的______。
2.信源的熵可以通过概率分布计算,公式为______。
3.信道容量是指在给定的信道条件下,单位时间内可以传输的最大______。
三、简答题1.请简要解释信息熵的概念,并与不确定性联系起来。
答:信息熵是信息论中对信源不确定性的度量。
它衡量了一组符号的平均不确定性,也可以理解为平均信息量。
熵越大,表示源符号的不确定性越大,每个符号所携带的信息量就越多;熵越小,表示源符号的不确定性越小,每个符号所携带的信息量就越少。
通过熵的计算,我们可以衡量一个信源的不确定性,并基于不同的概率分布对不同信源进行比较。
不确定性是指在一个具体的情境中,我们对于某个事件的发生没有确切的判断。
信息熵与不确定性有密切的联系,熵值越高,表示我们对于事件发生的不确定性也越高。
2.什么是信道容量?在实际通信中,如何提高信道的传输容量?答:信道容量是指在给定的信道条件下,单位时间内可以传输的最大信息量。
信道容量受到信道的带宽和信道的噪声水平的影响。
要提高信道的传输容量,可以采取以下几个方法:–扩展信道带宽:增加信道的频率范围,可以提高信道的传输速率和容量。
信息论小题测试题

第一章自我测试题一、填空题1.在认识论层次上研究信息的时候,必须同时考虑到形式、_____和_____三个方面的因素。
2.如果从随机不确定性的角度来定义信息,信息是用以消除_____的东西。
3.信源编码的结果是_____冗余;而信道编码的手段是_____冗余。
4._____年,香农发表了著名的论文_____,标志着信息论诞生。
5.信息商品是一种特殊商品,它有_____性、_____性、_____性和知识创造性等特征。
二、判断题1.信息传输系统模型表明,噪声仅仅来源于信道()2.本体论层次信息表明,信息不依赖于人而存在()3.信道编码与译码是一对可逆变换()4.1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始()5.基因组序列信息的提取和分析是生物信息学的研究内容之一()三、选择题1.下列表述中,属于从随机不确定性的角度来定义信息的是_____A.信息是数据B.信息是集合之间的变异度C.信息是控制的指令D.信息是收信者事先不知道的报道2._____是最高层次的信息A.认识论B.本体论C.价值论D.唯物论3.下列不属于狭义信息论的是_____A.信息的测度B.信源编码C.信道容量D.计算机翻译4.下列不属于信息论的研究内容的是_____A.信息的产生B.信道传输能力C.文字的统计特性D.抗干扰编码5.下列关于信息论发展历史描述不正确的是_____A.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。
B.1952年,香农发展了信道容量的迭代算法C.哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。
D.1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。
四、简答题给定爱因斯坦质能方程2E mc D =D ,试说明该方程所传达的语法信息、语义信息和语用信息。
第一章 自我测试题参考答案一、填空题1. 语义,语用2. 随机不确定性3. 减小,增加4. 1948,通信的数学理论5. 保存性,共享性,老化可能性二、判断题1. ×;2.√;3.×;4.×;5.√三、选择题1. D ;2. B ;3. D ;4. A ;5. B四、简答题语法信息:就是该方程中各个字母、符号的排列形式。
信息论填空简答

1. 条件增加,随机变量的不肯定性下降,对应的熵减少2. 设X={1X ,…n X ,…}为无记忆信源,则熵率()()1H X =H X ∞3. 冗余度=log X -H X∞,相对冗余度=H X 1-log X∞4. 一个随机变量X 的任何D 进即时码的平均码长L 应满足,其中等号成立当且仅当-liiD =P 5.二进对称信道的转移概率矩阵为1-1-εεεε⎛⎫⎪⎝⎭6. 汉明失真:()ˆ0,x=xˆd x,x=ˆ1,x x ⎧⎨≠⎩当当平方失真:()()2ˆˆd x,x=x-x 绝对值失真:()()ˆˆd x,x=x-x7. 率失真函数()IRD 满足0≤()IRD ≤()H x ,()IRD =0,当且仅当m ax DD ≥8. 设信源X 是平稳的,则()()I2nn1RD =lim R D n→∞存在9. 随机变量经变换后,可微熵的变化,设c 为常数,则h (X +C )=h (X )设a 为常数,则h(aX)=h(X )+log a1、 如果用随机变量代表一个信源,则 熵 就是它的平均不肯定的度量。
2、 设χ∈x ,有概率p(x),则x 的自信息定义为:I (x )= 。
3、 信息的产生和发送者称之为 信源 。
4、 弱对称信道的信道容量为C =5、 香农在1948年首先证明了无记忆信源的 渐近等分性 并指出该性质对平稳遍历信源也成立。
6、 相对熵D(p ‖q)>=0,且等号成立的 充要 条件是p (x )=q (x )对所有的χ∈x 成立。
7、 (信道容量)一个离散无记忆信道的信道容量定义为C= 。
8、 信源 →信源编码器→信道编码器→ 信道 →信道译码器→信源译码器→ 信宿 1、设信源X 是平稳的,则 R I(D)=)(n1lim D R In ∞→ 右端的极限 _ ____。
(存在)2、对离散无记忆信源,RI(D)=n R)(D I,从而)(___)(1D R D R II 。
信息论与编码填空题新

1. 在无失真的信源中,信源输出由 HX 来度量;在有失真的信源中,信源输出由 RD 来度量; 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码,然后_加密_编码,再_信道编码,最后送入信道;3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB,我们将它称作香农限,是一切编码方式所能达到的理论极限;4. 保密系统的密钥量越小,密钥熵HK 就越 小 ,其密文中含有的关于明文的信息量IM ;C 就越 大 ;5. 已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式hx = 31x x ++ ;6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1};输入信号的概率分布为p =1/2,1/2,失真函数为d 0,0 = d 1,1 = 0,d 0,1 =2,d 1,0 = 1,则D min = 0 ,RD min = 1bit/symbol ,相应的编码器转移概率矩阵py/x =1001⎡⎤⎢⎥⎣⎦;D max = ,RD max = 0 ,相应的编码器转移概率矩阵py/x =1010⎡⎤⎢⎥⎣⎦; 7. 已知用户A 的RSA 公开密钥e,n =3,55,5,11p q ==,则()φn = 40 ,他的秘密密钥d,n =27,55 ;若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 ;1.设X的取值受限于有限区间a,b,则X 服从 均匀 分布时,其熵达到最大;如X 的均值为μ,方差受限为2σ,则X 服从 高斯 分布时,其熵达到最大;2.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立;3.设信源为X={0,1},P0=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和100-m 个“1”构成的序列,序列的自信息量为)8/7(log )100(8log 22m m -+比特/符号;4.离散对称信道输入等概率时,输出为 等概 分布;5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码; 6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},则编码器输出码元的一维概率=)(1x P , =)(2x P ;1. 在现代通信系统中,信源编码主要用于解决信息传输中的 有效性 ,信道编码主要用于解决信息传输中的 可靠性 ,加密编码主要用于解决信息传输中的 安全性 ;2. 离散信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/1)(4321x x x x x p X ,则信源的熵为 符号 ; 3. 对称DMC 信道的输入符号数为n,输出符号数为m,信道转移概率矩阵为p ij ,则该信道的容量为ij mj ij p p m C log log 1∑=+=;4. 采用m 进制编码的码字长度为K i ,码字个数为n,则克劳夫特不等式为11≤∑=-n i K i m , 它是判断 唯一可译码存在 的充要条件;5. 差错控制的基本方式大致可以分为 前向纠错 、 反馈重发 和 混合纠错 ;6. 如果所有码字都配置在二进制码树的叶节点,则该码字为 唯一可译码 ;7. 齐次马尔可夫信源的一步转移概率矩阵为P ,稳态分布为W ,则W 和P 满足的方程为 W=WP ;8. 设某信道输入端的熵为HX,输出端的熵为HY,该信道为无噪有损信道,则该信道的容量为 MAX HY ;9. 某离散无记忆信源X,其符号个数为n,则当信源符号呈 等概_____分布情况下,信源熵取最大值_logn ;10. 在信息处理中,随着处理级数的增加,输入消息和输出消息之间的平均互信息量趋于减少 ;12.信息论不等式:对于任意实数0>z ,有1ln -≤z z ,当且仅当1=z 时等式成立;3.设信源为X={0,1},P0=1/8,则信源的熵为 )8/7(log 8/78log 8/122+比特/符号,如信源发出由m 个“0”和100-m 个“1”构成的序列,序列的自信息量为)8/7(log )100(8log 22m m -+比特/符号;4.离散对称信道输入等概率时,输出为 等概 分布;5.根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码;6.设DMS 为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡03.007.010.018.025.037.0.654321u u u u u u P U U ,用二元符号表}1,0{21===x x X 对其进行定长编码,若所编的码为{000,001,010,011,100,101},1. 信息的基本概念在于它的 不确定性 ;2. 按照信源发出的消息在时间和幅度上的分布情况,可将信源分成 离散 信源和 连续 信源两大类;3. 一个随机事件的 自信息量 定义为其出现概率对数的负值;4. 按树图法构成的码一定满足 即时码 的定义;5. 有扰离散信道编码定理 称为香农第二极限定理;6. 纠错码的检、纠错能力是指 检测、纠正错误码元的数目 ;7.信道一般指传输信息的物理媒介,分为有线信道和无线信道;8.信源编码的主要目的是提高通信系统的有效性;1.设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为___1/4___时,信、、源熵达到最大值,为__2__,此时各个消息的自信息量为__2 __;2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错;3.克劳夫特不等式是唯一可译码___存在___的充要条件;4.平均互信息量IX;Y与信源熵和条件熵之间的关系是___X;Y=HX-HX/Y___;5._信源___提高通信的有效性,_信道____目的是提高通信的可靠性,_加密__编码的目的是保证通信的安全性;6.信源编码的目的是提高通信的有效性 ,信道编码的目的是提高通信的可靠性 ,加密编码的目的是保证通信的安全性 ;7.设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为__1/8__时,信源熵达到最大值,为___3____;8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越_小___;9.信源的冗余度来自两个方面,一是信源符号之间的__相关性__,二是信源符号分布的__不均匀性__;10.最大后验概率译码指的是译码器要在已知r的条件下找出可能性最大的发码作为译码估值 ,即令=maxP |r_ __;11.常用的检纠错方法有__前向纠错___、反馈重发和混合纠错三种;1.给定x i条件下随机事件y j所包含的不确定度和条件自信息量py j /x i,DA.数量上不等,单位不同B.数量上不等,单位相同C.数量上相等,单位不同D.数量上相等,单位相同2.条件熵和无条件熵的关系是:CA.HY/X<HY B.HY/X>HYC.HY/X≤HY D.HY/X≥HY3.根据树图法构成规则, DA.在树根上安排码字B.在树枝上安排码字C.在中间节点上安排码字D.在终端节点上安排码字4.下列说法正确的是:CA.奇异码是唯一可译码B.非奇异码是唯一可译码C.非奇异码不一定是唯一可译码D.非奇异码不是唯一可译码5.下面哪一项不属于熵的性质:BA.非负性B.完备性C.对称性D.确定性1.下面表达式中正确的是A ;A.∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j iy y x p )(),(ω D.∑=ii j i x q y x p )(),( 2.彩色电视显像管的屏幕上有5×105 个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立;每秒传送25帧图像所需要的信道容量C ;A. 50106B. 75106C. 125106D. 2501063.已知某无记忆三符号信源a,b,c 等概分布,接收端为二符号集,其失真矩阵为d=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡1 21 12 1,则信源的最大平均失真度max D 为 D ;A. 1/3B. 2/3C. 3/3D. 4/34.线性分组码不具有的性质是 C ;A.任意多个码字的线性组合仍是码字B.最小汉明距离等于最小非0重量C.最小汉明距离为3D.任一码字和其校验矩阵的乘积c m H T=05.率失真函数的下限为 B ;A .HU U; V D.没有下限6.纠错编码中,下列哪种措施不能减小差错概率 D ;A. 增大信道容量B. 增大码长C. 减小码率D. 减小带宽7.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗;一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量A ;A. 0bitB. log6bitC. 6bitD. log240bit8.下列陈述中,不正确的是 D ;A.离散无记忆信道中,HY 是输入概率向量的凸函数B.满足格拉夫特不等式的码字为惟一可译码C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、纠错能力越强D.满足格拉夫特不等式的信源是惟一可译码9.一个随即变量x 的概率密度函数Px= x /2,V 20≤≤x ,则信源的相对熵为 C ;A . B. C. 1bit D.10.下列离散信源,熵最大的是 D ;A. H1/3,1/3,1/3;B. H1/2,1/2;C. H,;D. H1/2,1/4,1/8,1/811.下列不属于消息的是 B ;A.文字B.信号C.图像D.语言12.为提高通信系统传输消息有效性,信源编码采用的方法是 A ;A.压缩信源的冗余度B.在信息比特中适当加入冗余比特C.研究码的生成矩阵D.对多组信息进行交织处理13.最大似然译码等价于最大后验概率译码的条件是 D ;A.离散无记忆信道B.无错编码C.无扰信道D.消息先验等概14.下列说法正确的是 C ;A.等重码是线性码B.码的生成矩阵唯一C.码的最小汉明距离等于码的最小非0重量D.线性分组码中包含一个全0码字15.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出 u1:一个1发出 v0 :一个0收到 v1:一个1收到则已知收到的符号,被告知发出的符号能得到的信息量是 A ;A. HU/VB. HV/UC. HU,VD. HUV16. 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为B ;A. -log36bitB. log36bitC. -log 11/36bitD. log 11/36bit17.下列组合中不属于即时码的是 A ;A. { 0,01,011}B. {0,10,110}C. {00,10,11}D. {1,01,00}18.已知某6,3线性分组码的生成矩阵⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=011101110001111010G ,则不用计算就可判断出下列码中不是该码集里的码是 D ;A. 000000B. 110001C. 011101D. 11111119.一个随即变量x 的概率密度函数Px= x /2,V 20≤≤x ,则信源的相对熵为 C ;A. 符号B. 符号C. 1bit/符号D. 符号20.设有一个无记忆信源发出符号A 和B,已知4341)(,)(==B p A p ,发出二重符号序列消息的信源,无记忆信源熵)(2X H 为 A ; 6、只要,当N 足够长时,一定存在一种无失真编码;7、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小;8、在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素; 9、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论;按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 ;按照信息的地位,可以把信息分成 客观信息和主观信息 ;人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息;信息的 可度量性 是建立信息论的基础;统计度量 是信息度量最常用的方法;熵 是香农信息论最基本最重要的概念;事物的不确定度是用时间统计发生 概率的对数 来描述的;10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述;11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值 ;12、自信息量的单位一般有 比特、奈特和哈特 ;13、必然事件的自信息是 0 ;14、不可能事件的自信息量是 ∞ ;15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 ;16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 ;17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 ;18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H ;19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态;20、一维连续随即变量X 在a,b 区间内均匀分布时,其信源熵为 log2b-a ;21、平均功率为P 的高斯分布的连续信源,其信源熵,HcX=eP π2log 212;22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值;23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值;24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率P 之比 ;25、若一离散无记忆信源的信源熵HX等于,对信源进行等长的无失真二进制编码,则编码长度至少为 3 ;26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:∑=-≤nik im11;27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 ;28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log2181+2 log23;29、若一维随即变量X的取值区间是0,∞,其概率密度函数为mxemxp-=1)(,其中:0≥x,m是X的数学期望,则X的信源熵=)(XHCme2log;30、一副充分洗乱的扑克牌52张,从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为52log2 ;31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道;32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道;33、具有一一对应关系的无噪信道的信道容量C= log2n ;34、强对称信道的信道容量C= log2n-Hni ;35、对称信道的信道容量C= log2m-Hmi ;36、对于离散无记忆信道和信源的N次扩展,其信道容量CN= NC ;37、对于N个对立并联信道,其信道容量 CN = ∑=NkkC1 ;38、多用户信道的信道容量用多维空间的一个区域的界限来表示;39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道;40、广播信道是只有一个输入端和多个输出端的信道;41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道 ;42、高斯加性信道的信道容量C=)1(log212NXPP+;43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量 ;44、信道矩阵⎥⎦⎤⎢⎣⎡12/12/1代表的信道的信道容量C= 1 ;45、信道矩阵⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡111代表的信道的信道容量C= 1 ;46、高斯加性噪声信道中,信道带宽3kHz,信噪比为7,则该信道的最大信息传输速率Ct= 9 kHz ;47、对于具有归并性能的无燥信道,达到信道容量的条件是 pyj=1/m ;48、信道矩阵⎥⎦⎤⎢⎣⎡1001代表的信道,若每分钟可以传递6105个符号,则该信道的最大信息传输速率Ct= 10kHz ;49、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础;50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 ;51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小;52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 ;53、单符号的失真度或失真函数dxi,yj 表示信源发出一个符号xi,信宿再现yj 所引起的 误差或失真 ;54、汉明失真函数 dxi,yj=⎩⎨⎧≠=j i j i 10 ; 55、平方误差失真函数dxi,yj=yj- xi2;56、平均失真度定义为失真函数的数学期望,即dxi,yj 在X 和Y 的 联合概率空间PXY 中 的统计平均值;57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数;58、如果规定平均失真度D 不能超过某一限定的值D,即:D D ≤;我们把D D ≤称为 保真度准则 ;59、离散无记忆N 次扩展信源通过离散无记忆N 次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的 N 倍;60、试验信道的集合用PD 来表示,则PD= {}m j n i D D x y p i j ,,2,1,,,2,1;:)/( ==≤ ;61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 ;62、平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 ;63、平均失真度的上限Dmax 取{Dj :j=1,2,···,m}中的 最小值 ;64、率失真函数对允许的平均失真度是 单调递减和连续的 ;65、对于离散无记忆信源的率失真函数的最大值是 log2n ;66、当失真度大于平均失真度的上限时Dmax 时,率失真函数RD= 0 ;67、连续信源X 的率失真函数RD= );()/(Y X I P x y p Inf D ∈ ;68、当2σ≤D 时,高斯信源在均方差失真度下的信息率失真函数为 =)(D R D 22log 21σ ; 69、保真度准则下的信源编码定理的条件是 信源的信息率R 大于率失真函数RD ;70、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的Dmax= a/2 ; 71、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的Dmin= 0 ; 72、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的RD= 1-HD/a ;73、按照不同的编码目的,编码可以分为三类:分别是 信源编码、信道编码和安全编码 ;74、信源编码的目的是: 提高通信的有效性 ;75、一般情况下,信源编码可以分为 离散信源编码、连续信源编码和相关信源编码 ;76、连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 ;77、在香农编码中,第i 个码字的长度ki 和pxi 之间有)(log 1)(log 22i i i x p k x p -<≤- 关系; 78、对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡16/116/116/116/18/18/14/14/1(87654321x x x x x x x x X P X )进行二进制费诺编码,其编码效率为 1 ;79、对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为0的消息;80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 ;82、设无记忆二元序列中,“0”和“1”的概率分别是p0和p1,则“0”游程长度L0的概率为 11)0(0)]0([p p L p L -= ;83、游程序列的熵 等于 原二元序列的熵;84、若“0”游程的哈夫吗编码效率为η0,“1”游程的哈夫吗编码效率为η1,且η0>η1对应的二元序列的编码效率为η,则三者的关系是 η0>η>η1 ;85、在实际的游程编码过程中,对长码一般采取 截断 处理的方法;86、“0”游程和“1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但 C 码 必须不同;87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为 冗余位 ;88、“冗余变换”即:将一个冗余序列转换成一个二元序列和一个 缩短了的多元序列 ;89、L-D 编码是一种 分帧传送冗余位序列 的方法;90、L-D 编码适合于冗余位 较多或较少 的情况;91、信道编码的最终目的是 提高信号传输的可靠性 ;92、狭义的信道编码即:检、纠错编码 ;93、BSC 信道即:无记忆二进制对称信道 ;94、n 位重复码的编码效率是 1/n ;95、等重码可以检验 全部的奇数位错和部分的偶数位错 ;96、任意两个码字之间的最小汉明距离有称为码的最小距dmin,则dmin=)',(min 'c c d c c ≠;97、若纠错码的最小距离为dmin,则可以纠正任意小于等于t= ⎥⎦⎥⎢⎣⎢-21min d 个差错; 98、若检错码的最小距离为dmin,则可以检测出任意小于等于l= dmin-1 个差错;99、线性分组码是同时具有 分组特性和线性特性 的纠错码;100、循环码即是采用 循环移位特性界定 的一类线性分组码;。
信息论与编码题库(最新整理六套)

(一)一、填空题1. 在无失真的信源中,信源输出由H (X )来度量;在有失真的信源中,信源输出由R (D )来度量。
2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。
3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为-1.6dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。
4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。
5. 已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式h(x)=31x x ++。
6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。
输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min =0,R (D min )=1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001⎡⎤⎢⎥⎣⎦;D max =0.5,R (D max )=0,相应的编码器转移概率矩阵[p(y/x )]=1010⎡⎤⎢⎥⎣⎦。
7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。
若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。
二、判断题1. 可以用克劳夫特不等式作为唯一可译码存在的判据。
(√)2. 线性码一定包含全零码。
(√ )3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。
信息论基础答案2

信息论基础答案2本页仅作为文档封面,使用时可以删除This document is for reference only-rar21year.March《信息论基础》答案一、填空题(共15分,每空1分)1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b ,最小瞬时电压为a 。
若消息从放大器中输出,则该信源的绝对熵是 无穷大 ;其能在每个自由度熵的最大熵是 ()log b-a 。
2、高斯白噪声信道是指 信道噪声服从正态分布,且功率谱为常数 。
3、若连续信源的平均功率为5 W ,则最大熵为12log10π ⋅ e ,达到最大值的条件是 高斯信道 。
4、离散信源存在剩余度的原因是 信源有记忆(或输出符号之间存在相关性) 和 不等概 。
5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。
6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。
根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高编码效率。
7、八进制信源的最小熵为 0 ,最大熵为 3 bit 。
8、一个事件发生概率为,则自信息量为 3 bit 。
9、在下面空格中选择填入数字符号“,,,=≥≤>”或“<” ()H XY = ()()+H Y H X Y ≤ ()()+H Y H X二、判断题(正确打√,错误打×)(共5分,每小题1分) 1) 离散无记忆等概信源的剩余度为0。
( √ )2) 离散无记忆信源N 次扩展源的熵是原信息熵的N 倍 ( √ ) 3) 互信息可正、可负、可为零。
( √ )4) 信源的真正功率P 永远不会大于熵功率P ,即P P ≤ ( × ) 5) 信道容量与信源输出符号的概率分布有关。
( × )三、(5分)已知信源的概率密度函数()p x 如下图所示,求信源的相对熵0.5()()()42log 1h x p x p x dxbit =-=⎰自由度四、(15分)设一个离散无记忆信源的概率空间为()120.50.5X a a P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 它们通过干扰信道,信道输出端的接收信号集为[]12=,Y b b ,已知信道出书概率如下图所示。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
3、按照信息的地位,可以把信息分成客观信息和主观信息。
4、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
5、信息的可度量性是建立信息论的基础。
6、统计度量是信息度量最常用的方法。
7、熵是香农信息论最基本最重要的概念。
8、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是∞。
15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。
18、离散平稳有记忆信源的极限熵,=∞H)/(lim121-∞→NNNXXXXH。
19、对于n元m阶马尔可夫信源,其状态空间共有 n m个不同的状态。
20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。
21、平均功率为P的高斯分布的连续信源,其信源熵,H c(X)=ePπ2log212。
22、对于限峰值功率的N维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。
24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率P 之比。
25、若一离散无记忆信源的信源熵H(X)等于,对信源进行等长的无失真二进制编码,则编码长度至少为3 。
26、m元长度为k i,i=1,2,···n的异前置码存在的充要条件是:∑=-≤nik im11。
27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。
28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log218(1+2 log23)。
29、若一维随即变量X的取值区间是[0,∞],其概率密度函数为mxemxp-=1)(,其中:≥x,m是X的数学期望,则X的信源熵=)(XHCme2log。
30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为52 log2。
31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。
32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道。
33、具有一一对应关系的无噪信道的信道容量C= log2n 。
34、强对称信道的信道容量C= log2n-H ni 。
35、对称信道的信道容量C= log2m-H mi 。
36、对于离散无记忆信道和信源的N次扩展,其信道容量C N= NC 。
37、对于N个对立并联信道,其信道容量 C N = ∑=NkkC1。
38、多用户信道的信道容量用多维空间的一个区域的界限来表示。
39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。
40、广播信道是只有一个输入端和多个输出端的信道。
41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。
42、高斯加性信道的信道容量C=)1(log 212N X P P +。
43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。
44、信道矩阵⎥⎦⎤⎢⎣⎡10002/12/1代表的信道的信道容量C= 1 。
45、信道矩阵⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡100101代表的信道的信道容量C= 1 。
46、高斯加性噪声信道中,信道带宽3kHz ,信噪比为7,则该信道的最大信息传输速率C t = 9 kHz 。
47、对于具有归并性能的无燥信道,达到信道容量的条件是 p (y j )=1/m ) 。
48、信道矩阵⎥⎦⎤⎢⎣⎡1001代表的信道,若每分钟可以传递6*105个符号,则该信道的最大信息传输速率C t = 10kHz 。
49、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础。
50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。
51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。
52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。
53、单符号的失真度或失真函数d (x i ,y j )表示信源发出一个符号x i ,信宿再现y j 所引起的 误差或失真 。
54、汉明失真函数 d (x i ,y j)=⎩⎨⎧≠=j i j i 10 。
55、平方误差失真函数d (x i ,y j )=(y j - x i )2。
56、平均失真度定义为失真函数的数学期望,即d (x i ,y j )在X 和Y 的 联合概率空间P (XY )中 的统计平均值。
57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数。
58、如果规定平均失真度D 不能超过某一限定的值D ,即:D D ≤。
我们把D D ≤称为 保真度准则 。
59、离散无记忆N 次扩展信源通过离散无记忆N 次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的 N 倍。
60、试验信道的集合用P D 来表示,则P D ={}m j n i D D x y p i j ,,2,1,,,2,1;:)/( ==≤ 。
61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。
62、平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 。
63、平均失真度的上限D max 取{D j :j=1,2,···,m}中的 最小值 。
64、率失真函数对允许的平均失真度是 单调递减和连续的 。
65、对于离散无记忆信源的率失真函数的最大值是 log 2n 。
66、当失真度大于平均失真度的上限时D max 时,率失真函数R (D )= 0 。
67、连续信源X 的率失真函数R (D )= );()/(Y X I P x y p InfD ∈ 。
68、当2σ≤D 时,高斯信源在均方差失真度下的信息率失真函数为 =)(D R D 22log 21σ 。
69、保真度准则下的信源编码定理的条件是 信源的信息率R 大于率失真函数R (D ) 。
70、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的D max = a/2 。
71、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的D min = 0 。
72、某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵D=⎥⎦⎤⎢⎣⎡00a a ,则该信源的R (D )= 1-H (D/a ) 。
73、按照不同的编码目的,编码可以分为三类:分别是 信源编码、信道编码和安全编码 。
74、信源编码的目的是: 提高通信的有效性 。
75、一般情况下,信源编码可以分为 离散信源编码、连续信源编码和相关信源编码 。
76、连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 。
77、在香农编码中,第i 个码字的长度k i 和p (x i )之间有 )(log 1)(log 22i i i x p k x p -<≤- 关系。
78、对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡16/116/116/116/18/18/14/14/1(87654321x x x x x x x x X P X )进行二进制费诺编码,其编码效率为 1 。
79、对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为0的消息。
80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。
81、对于二元序列00111111,其相应的游程序列是 。
82、设无记忆二元序列中,“0”和“1”的概率分别是p 0和p 1,则“0”游程长度L (0)的概率为 11)0(0)]0([p p L p L -= 。
83、游程序列的熵 等于 原二元序列的熵。
84、若“0”游程的哈夫吗编码效率为η0,“1”游程的哈夫吗编码效率为η1,且η0>η1对应的二元序列的编码效率为η,则三者的关系是 η0>η>η1 。
85、在实际的游程编码过程中,对长码一般采取 截断 处理的方法。
86、“0”游程和“1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但 C 码 必须不同。
87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为 冗余位 。
88、“冗余变换”即:将一个冗余序列转换成一个二元序列和一个 缩短了的多元序列 。
89、L-D 编码是一种 分帧传送冗余位序列 的方法。
90、L-D 编码适合于冗余位 较多或较少 的情况。
91、信道编码的最终目的是 提高信号传输的可靠性 。
92、狭义的信道编码即:检、纠错编码 。
93、BSC 信道即:无记忆二进制对称信道 。
94、n 位重复码的编码效率是 1/n 。
95、等重码可以检验 全部的奇数位错和部分的偶数位错 。
96、任意两个码字之间的最小汉明距离有称为码的最小距d min ,则d min =)',(min 'c c d c c ≠。
97、若纠错码的最小距离为d min,则可以纠正任意小于等于t= ⎥⎦⎥⎢⎣⎢-21min d 个差错。
98、若检错码的最小距离为d min ,则可以检测出任意小于等于l= d min -1 个差错。
99、线性分组码是同时具有 分组特性和线性特性 的纠错码。
100、循环码即是采用 循环移位特性界定 的一类线性分组码。
(1) 已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。
(2) 平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____和___编码方法___有关1、必然事件的自信息量是____0____,不可能事件的自信息量是__ ∞_______。
2、一信源有五种符号{a ,b ,c ,d ,e},先验概率分别为Pa=,Pb=,Pc=,Pd=Pe=。