信息论与编码复习题,德州学院

合集下载

信息论与编码题库及答案

信息论与编码题库及答案

信息论与编码题库及答案信息论是一门关于信息传输和处理的学科,主要研究信息的传输、存储与处理,以及在信息传输过程中可能产生的各种噪声和干扰。

信息论在近年来得到了广泛的应用,尤其在计算机科学、通信工程、数据处理以及加密技术等领域中得到了广泛应用。

作为信息处理学科的一个分支,编码学是信息论中重要的研究领域之一,主要研究在信息传输的过程中如何将信息进行编码,并在保证高可靠性的同时减少信息传输的开销。

现代编码学研究所涉及到的内容非常广泛,包括错误检测、纠正编码、信息压缩以及密码学等领域。

为了帮助广大信息与通信工程学习者更好地掌握编码理论及其应用,以下总结了一些编码学的题库及答案,供大家参考。

一、错误检测编码1. 什么是奇偶校验码?答:奇偶校验码是一种简单的错误检测编码方式,它采用了消息的一位奇偶性作为编码方式。

具体而言,对于一组位数固定的二进制数,在其中加入一个附加位,使得这组数的位数为偶数。

然后将这些二进制数按照某种规则排列,例如相邻的两位组成一组,计算每组中1的个数。

如果某组中1的个数是偶数,则附加位赋值为0,否则为1。

这样,如果在传输的过程中数据出现了单一位的错误,则会被检测出来。

2. 什么是海明编码?答:海明编码是一种通过添加校验位来实现错误检测和纠正的编码方式。

在海明编码中,校验位的数目为2的k次幂个,其中k 表示数据位中最大1的位置数。

具体而言,将原始信息看作一组二进制数,再将这些数按照某种规则排列,然后按照一定的算法计算出每个校验位的值,并将这些值添加到原始信息中。

在传输的过程中,如果发现了错误的位,则可以通过一系列错误检测和纠正的操作来确定和修复出错的信息位。

二、信息压缩编码1. 什么是霍夫曼编码?答:霍夫曼编码是一种基于无损数据压缩的编码方式,它的特点是可以将原始信息中出现最频繁的字符用最短的二进制码来表示,同时将出现次数较少的字符用较长的二进制码来表示。

具体来说,霍夫曼编码首先对原始信息中的字符进行统计,确定每个字符出现的频率。

信息论与编码复习题

信息论与编码复习题

1.从大量统计中知道,男性红绿色盲的发病率为116,女性发病率为164,如果你问一对男女“你是否是红绿色盲?”他们分别回答可能是“是”。

问此回答各含多少信息量?平均每个回答各含多少信息量?4,6,11/322. 地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占半数一半。

假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?28log 33.设有一连续随机变量,其概率密度函数为:2,01()0,bx x p x others ⎧≤≤=⎨⎩,试求这随机变量的熵。

又若1(0)Y X K K =+>,22Y X =,试分别求出1Y 和2Y 的熵1()C H Y 和2()C H Y 。

4. 设随机变量X 取值于0{}k X k +∞==,()k P X k P ==,0,1,,k = 已知X 的数学期望0EX A =>,求使()H X 达到最大的概率分布和该分布的熵.5.设Markov 信源的状态空间为:12{,}{0,1}S S =,其一步转移概率如下:11211222(|)0.25, (|)0.75, (|)0.6, (|)0.4.P S S P S S P S S P S S ====1)画出状态转移图?2)求该信源的平稳分布.4/9,5/93)求该信源的极限分布.6. 一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。

这些数符组成长度为100的数符组。

我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。

①求出为所规定的所有源符组都提供码字所需的最小码长。

18 ②求信源发出一数符组,而编码器无相应码字的概率。

0.001685157 .设有一Markov 信源,其状态集为123{,,}S s s s =,符号集为123{,,}x x x ,在某状态下发出符号的概率如图所示。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间: bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码学考试试题

信息论与编码学考试试题

信息论与编码学考试试题1. 信息的概念信息:是指各个事物运动的状态及状态变化的方式。

(具有不确定性,任何已经确定的事物都不含有信息)2. 相对熵的概念及计算连续信源可以假设是一个不可数的无限多个幅度值的信源,需要无限多个二进制数来表示,因此它的熵为无穷大。

连续信源的熵具有相对性,有时也叫相对熵。

连续信源熵(相对熵):Hc(X)=x p x P X X )(log )(?∞∞--3. 信源熵的概念及计算信源中各个符号不确定度的数学期望叫做信源熵H(X)=E[I(X)]= )(log )()()(21i i ni i i i x p x p x I x p ∑∑=-= 单位:比特/符号其中:0≤ )p(x i ≤1,当信源中只含一个符号x 时,必定有)p(x i =1.4. 分组码将信源消息分成若干组,即符号序列X i ,X i =(X 1,X 2 (X)l ...X L ),序列中的每个符号取自于符号集A,X l ∈{a 1,a 2,...,a i ,...,a n }.而每个符号序列X i 依照固定的码表映射成一个码字Y i ,这样的码称为分组码,也叫快码。

只有分组码才有对应的码表,而非分组码中不存在。

5. 唯一可译码任意有限长的码元序列,只能被唯一的分割成一个个的码字,便称为唯一可译码。

唯一可译码分为:非即时码和即时码6. 唯一可译码存在的充分必要条件的概念及应用用树的概念可导出唯一可译码存在的充分必要条件,即各码字的长度Ki 应符合克劳夫特不等式:∑=-n K i m1i ≤1 (m 是进制数,n 是信源符号数)7. 疑义度的概念及计算条件熵H(X/Y)可以看做是信道上的干扰和噪声所造成的对信源符号x 的不确定度,故又称为疑义度或损失熵。

H(X/Y)=E[I(x i /y i )]= )/()(j ,i i i ii y x I y x p ∑ =)/(log )(-j,i i i i i y x p y x p ∑ 散布度或噪声熵H(Y/X)=E[I(y i /x i )]= )/y ()(j ,i i i ii x I y x p ∑ =)/y (log )(-j,i i i i i x p y x p ∑8. 恒重码的概念如果码集的所有码字都具有相同的重量,这种码就叫做恒重码9. 平均自信息量的概念及计算平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。

信息论与编码试卷_信息论与编码试卷题目及答案

信息论与编码试卷_信息论与编码试卷题目及答案

最大熵值为组成一个马尔可夫链,且有,。

说明经数据处理后,一般只会增加信息的损失。

,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于由得,则解释无失真变长信源编码定理。

只要,当什么是保真度准则?对二元信源,其失真矩阵,求和?答:,所以有,而。

息出现前后没有关联,求熵;)假设黑白消息出现前后有关联,其依赖关系为:,,,,求其熵;)信源模型为)由得则)若,,求和;)),最佳输入概率分布为等概率分布。

信源空间为答:1)二元码的码字依序为:10,11,010,011,1010,1011,1000,1001。

平均码长,编码效率2)三元码的码字依序为:1,00,02,20,21,22,010,011。

平均码长,编码效率4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。

答:1)最小似然译码准则下,有,2)最大错误概率准则下,有,5.已知一(8,5)线性分组码的生成矩阵为。

求:1)输入为全00011和10100时该码的码字;2)最小码距。

6.设某一信号的信息传输率为5.6kbit/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。

试求:(1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。

7.答:1)无错传输时,有即则2)在时,最大熵对应的输入概率密度函数为2)最大错误概率准则下,有,6.答:1)无错传输时,有即则2)在时,最大熵对应的输入概率密度函数为。

信息论与编码复习题

信息论与编码复习题

信息论与编码复习题⼀、填空题1. 设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___1/4___时,信源熵达到最⼤值,为__2__,此时各个消息的⾃信息量为__2 __。

2.如某线性分组码的最⼩汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错。

3.克劳夫特不等式是唯⼀可译码___存在___的充要条件。

4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y )___。

5._信源___提⾼通信的有效性,_信道____⽬的是提⾼通信的可靠性,_加密__编码的⽬的是保证通信的安全性。

6.信源编码的⽬的是提⾼通信的有效性,信道编码的⽬的是提⾼通信的可靠性,加密编码的⽬的是保证通信的安全性。

7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8__时,信源熵达到最⼤值,为___3____。

8.⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越_⼩___。

9.信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的__相关性__,⼆是信源符号分布的 __不均匀性__。

10.最⼤后验概率译码指的是译码器要在已知r 的条件下找出可能性最⼤的发码作为译码估值,即令 =maxP( |r)_ __。

11.常⽤的检纠错⽅法有__前向纠错___、反馈重发和混合纠错三种。

⼆、单项选择题1.下⾯表达式中正确的是(A )。

A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩⾊电视显像管的屏幕上有5×105个像元,设每个像元有64种彩⾊度,每种彩度⼜有16种不同的亮度层次,如果所有的彩⾊品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独⽴。

信息论与编码考试题(附答案版)

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。

3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。

4.数据处理过程中信息具有(不增性)。

5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。

6.单符号连续信道的信道容量取决于(信噪比)。

7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。

8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。

9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。

10.立即码指的是(接收端收到一个完整的码字后可立即译码)。

11.算术编码是(非)分组码。

12.游程编码是(无)失真信源编码。

13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。

14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。

15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。

16.卷积码的自由距离决定了其(检错和纠错能力)。

(对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。

(错)3、马尔可夫信源是离散无记忆信源。

(错)4、不可约的马尔可夫链一定是遍历的。

(对)5、单符号连续信源的绝对熵为无穷大。

(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。

(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。

信息论与编码复习题

信息论与编码复习题

信息论与编码复习题1.从⼤量统计中知道,男性红绿⾊盲的发病率为116,⼥性发病率为164,如果你问⼀对男⼥“你是否是红绿⾊盲?”他们分别回答可能是“是”。

问此回答各含多少信息量?平均每个回答各含多少信息量?4,6,11/322. 地区的⼥孩中有25%是⼤学⽣,在⼥⼤学⽣中有75%是⾝⾼1.6⽶以上的,⽽⼥孩中⾝⾼1.6⽶以上的占半数⼀半。

假如我们得知“⾝⾼1.6⽶以上的某⼥孩是⼤学⽣”的消息,问获得多少信息量?28log 33.设有⼀连续随机变量,其概率密度函数为:2,01()0,bx x p x others ?≤≤=??,试求这随机变量的熵。

⼜若1(0)Y X K K =+>,22Y X =,试分别求出1Y 和2Y 的熵1()C H Y 和2()C H Y 。

4. 设随机变量X 取值于0{}k X k +∞==,()k P X k P ==,0,1,,k = 已知X 的数学期望0EX A =>,求使()H X 达到最⼤的概率分布和该分布的熵.5.设Markov 信源的状态空间为:12{,}{0,1}S S =,其⼀步转移概率如下:11211222(|)0.25, (|)0.75, (|)0.6, (|)0.4.P S S P S S P S S P S S ====1)画出状态转移图?2)求该信源的平稳分布.4/9,5/93)求该信源的极限分布.6. ⼀信源产⽣概率为995.0)0(,005.0)1(==P P 的统计独⽴⼆进制数符。

这些数符组成长度为100的数符组。

我们为每⼀个含有3个或少于3个“1”的源数符组提供⼀个⼆进制码字,所有码字的长度相等。

①求出为所规定的所有源符组都提供码字所需的最⼩码长。

18 ②求信源发出⼀数符组,⽽编码器⽆相应码字的概率。

0.001685157 .设有⼀Markov 信源,其状态集为123{,,}S s s s =,符号集为123{,,}x x x ,在某状态下发出符号的概率如图所⽰。

信息论与编码期末考试题1

信息论与编码期末考试题1

(一)一、判断题.1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ( )3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ( )5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( )6. 连续信源和离散信源的熵都具有非负性. ( )7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息量就越小.8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0. ( ) 10.必然事件和不可能事件的自信息量都是0. ( ) 二、填空题1、码的检、纠错能力取决于 .2、信源编码的目的是 ;信道编码的目的是 .3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .4、香农信息论中的三大极限定理是 、 、 .5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N N =成立的 条件 .6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .7、某二元信源01()1/21/2X P X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭,其失真矩阵00a D a ⎡⎤=⎢⎥⎣⎦,则该信源的max D = .三、计算题.1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦.(1)计算接收端的平均不确定度()H Y ;(2) 计算由于噪声产生的不确定度(|)H Y X ; (3) 计算信道容量以与最佳入口分布.(二)一、填空题1、信源编码的主要目的是 ,信道编码的主要目的是 。

信息论与编码期末复习试题2套含答案(大学期末复习资料)

信息论与编码期末复习试题2套含答案(大学期末复习资料)

莆田学院期末考试试卷(A)卷2011 — 2012 学年第一学期课程名称:信息论与编码适用年级/专业: 09/电信(通信)试卷类别开卷()闭卷(√)学历层次本科考试用时 120分钟《.考生注意:答案要全部抄到答题纸上,做在试卷上不给分.........................》.一、简答题(每小题8分,共32分)1.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

2. 香农信息论研究了哪些内容?试讲述香农第二编码定理。

3. 什么是唯一可译码?什么是即时码(前缀码)?构造唯一可译码的充要条件?(10分)4. 什么是信源编码?什么是信道编码?为何要进行这两者编码?二、证明题(每小题6分,共6分)对于任意的事件X、Y,试证明下列不等式成立:H(X|Y)<=H(X),并说明等式成立的条件。

三、计算题(第1、5题各16分,第2题12分,第3题10分,第4题8分,共62分)1.(16分)一黑白气象传真图的消息只有黑色和白色两种,即信源X={黑,白}。

设黑色出现的概率为P(黑)=0.3,白色的出现概率P(白)=0.7。

求(1)假设图上黑白消息出现前后没有关联,求熵H(X);(2)假设消息前后有关联,其依赖关系为P(白/白)=0.9,P(黑/白)=0.1,P(白/黑)=0.2,P(黑/黑)=0.8,求此一阶马尔可夫信源的熵H2(X);(3)分别求上述两种信源的剩余度,比较和的大小,并说明其物理意义。

2.(12分)一信源产生概率为P(1)=0.005, P(0)=0.995的统计独立二进制数符。

这些数符组成长度为100的数符组。

我们为每一个少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。

(1)求出为所规定的所有源符组都提供码字所需的最小码长。

(2)求信源发出一数符组,而编码器无相应码字的概率。

3.(10分)已知一个(6,3)线性分组码的全部码字为001011,110011,010110,101110,100101,111000,011101,000000。

信息论与编码复习题B答案

信息论与编码复习题B答案

《信息论与编码》期末复习题B 答案一、填空题(每小题4 分,共 24 分)1.根据信息论的各种编码定理和通信系统的指标,编码问题可分解为3类 信源 编码、 信道 编码和 加密 编码 。

为了提高通信系统的传输效率,应该采用 信源编码 。

2. 限峰功率最大熵定理指出,对于定义域被限定在[a,b]的随机变量X ,当它是 平均 分布时具有最大熵,其值为 log(b-a) 。

3.根据信道参数与时间的关系不同,信道可分为 固定参数 信道和 连续参数 信道,根据信道中噪声种类的不同,可分为 随机差错 信道和 突发差错 信道。

4.最常用的失真函数有 均方失真 、 绝对失真 、 相对失真 和 误码失真 。

5.常用信源编码方法有 游程编码 、 算术编码 、 预测编码 和 变换编码 等。

6.在信道编码中,按照构码理论来分,有 代数码 、 几何码 、 算术码 和组合码等。

二、简答题(每小题 8 分,共 32 分)1.简述自信息的性质。

答:(1) ; (2) ; (3)非负性 ; (4)单调递减性:若 则 ; (5)可加性。

评分标准:前2条每条1分,后3条每条2分。

2.什么是二进制对称信道(BSC )?答:二进制对称信道(BSC )是二进制离散信道的一个特例,如果描述二进制离散信道的转移概率对称,即则称这种二进制输入、二进制输出的信道为二进制对称信道。

评分标准:前2条每条2分,最后结论4分。

3.简述哈弗曼编码方法。

答:(1)将q 个信源符号按概率分布的大小,以递减次序排列起来,设(2)用“0”和“1”码符号分别代表概率最小的两个信源符号,并将这两个概率最小的符号合并成一个符号,合并的符号概率为两个符号概率之和,从而得到只包含q-1个符号的新信源,称为缩减信源。

(3)把缩减信源的符号仍旧按概率大小以递减次序排列,再将其概率最小的两个信源符号分别用“0”和“1”表示,并将其合并成一个符号,概率为两符号概率之和,这样又形成了q-2个符号的缩减信源。

信息论与编码考试试题

信息论与编码考试试题

3、(12分)已知(7,3)分组码的生成矩阵为100111001001111010011G ⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦(1)、写出所有许用码组,并求出监督矩阵。

(2)、该码的编码效率为多少?(3)、若译码器输入的码组为l010001,请计算其校正子,并指出此接收码组中是否包含错误。

4、(12分)设有信源12345678()0.40.140.10.10.070.060.050.04X a a a a a a a a P X ⎛⎫⎡⎤=⎪⎢⎥⎝⎭⎣⎦(1) 求信源熵)(X H 和信源的冗余度;(2) 完成二进制费诺编码,并计算其平均码长及编码效率。

(3) 完成二进制霍夫曼编码,并计算其平均码长及编码效率。

5、(12分)信源分布123911()102020xx x X P X ⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎣⎦,信道转移概率矩阵511682415124681158246P ⎡⎤⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦, 信道输出符号Y = {y 1, y 2, y 3}。

(1) 若信源等概分布,对其按最大后验概率准则译码,并求平均错误概率。

(2) 若信源等概分布,对其按最大似然准则译码,并求平均错误概率。

6、(18分) 已知(7,3)循环码的生成矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=100110111011101010001G(1)、试写出该(7,3)循环码的生成多项式g (x )。

(2)、若输入信息码为101,试写出对应的循环码码组。

(3)、若接收到的码组为1010100,试恢复出正确的信息位。

(4)、该码能纠正几位错。

信息论与编码考试试题

信息论与编码考试试题

信息论与编码考试试题一、选择题(每题 5 分,共 30 分)1、以下关于信息熵的说法,错误的是()A 信息熵是对信息不确定性的度量B 信息熵越大,信息量越大C 信息熵只与信源的概率分布有关D 信息熵的值可以为负数2、设信源符号集为{A, B, C, D},对应的概率分别为 1/2, 1/4, 1/8, 1/8,则该信源的熵为()A 175 比特/符号B 15 比特/符号C 125 比特/符号D 2 比特/符号3、无失真信源编码的平均码长()信源熵。

A 小于B 大于C 等于D 以上都有可能4、在哈夫曼编码中,出现概率越大的符号,编码长度()A 越长B 越短C 不确定D 与概率无关5、以下哪种编码是唯一可译码()A 00, 01, 10, 11B 0, 10, 11C 0, 00, 1D 0, 01, 106、对于一个离散无记忆信道,其信道容量与()有关。

A 输入概率分布B 输出概率分布C 转移概率矩阵D 以上都是二、填空题(每题 5 分,共 30 分)1、信息论的奠基人是__________。

2、若信源的概率分布为 P(X) ={02, 03, 01, 04},则信源的熵为__________比特/符号。

3、香农第一定理指出,对于离散无记忆平稳信源,当信源熵小于信道容量时,可以通过编码实现__________传输。

4、已知某二元对称信道的错误概率为 01,则其信道容量为__________比特/符号。

5、一个码组为{000, 111, 010, 101},其最小码距为__________。

6、线性分组码的监督矩阵与生成矩阵之间满足__________关系。

三、简答题(每题 10 分,共 20 分)1、简述信息熵的物理意义,并举例说明。

信息熵是用来度量信息不确定性的一个重要概念。

它反映了信源输出符号的平均不确定性。

物理意义在于,熵越大,说明信源的不确定性越大,需要更多的信息来消除这种不确定性。

例如,抛硬币的结果只有正反两面,其概率各为 05。

完整word版信息论与编码理论复习题一

完整word版信息论与编码理论复习题一

信息论与编码理论复习题(一)一、填空题(1)1948 年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是。

(3)离散平稳无记忆信源X 的 N 次扩展信源的熵等于离散信源X 的熵的。

(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为___。

(5)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是。

(6)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R____C (大于、小于或者等于),则存在一种编码,当输入序列长度n 足够大,使译码错误概率任意小。

(7)平均错误概率不仅与信道本身的统计特性有关,还与______________和 ______有关。

二、综合题1..黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。

给出这个只有两个符号的信源X 的数学模型。

假设图上黑白消息出现前后没有关联,求熵H X ;2)假设黑白消息出现前后有关联,其依赖关系为,,,,求其熵。

3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。

2.信源空间为X x1x2x3x4x5x6x7,试构造二元霍夫曼码,计算其平均P(X)0.2 0.19 0.18 0.170.150.10.01码长和编码效率(要求有编码过程)。

3..二元对称信道如图。

3, p 111)若p 0,求H X 、H X|Y和I X;Y ;442)求该信道的信道容量。

0 0 0 1 11 4.设一线性分组码具有一致监督矩阵H0 1 1 0 011 0 1 0 111)求此分组码n=?,k=?共有多少码字?2)求此分组码的生成矩阵G。

3)写出此分组码的所有码字。

4)若接收到码字(101001),求出伴随式并给出翻译结果。

参考答案:填空(1)香农( 2)0 ( 3)N 倍( 4)信源符号等概分布综合题1.解: 1)信源模型为2)由题意可知该信源为一阶马尔科夫信源。

信息论与编码期末考试题----学生复习用

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。

2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。

3、三进制信源的最小熵为0,最大熵为32log bit/符号。

4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。

5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。

6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。

7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。

8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22212x f x eσπσ-=时,信源具有最大熵,其值为值21log 22e πσ。

9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。

(2)()()1222H X X H X =≥()()12333H X X X H X =(3)假设信道输入用X 表示,信道输出用Y 表示。

在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。

三、已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。

(2分)(1)010101111.00.20.20.20.20.10.11S 2S 3S 4S 5S 6S编码结果为:1234560001100101110111S S S S S S ====== (2)610.420.63 2.6i i i L P ρ===⨯+⨯=∑码元符号(3)bit log r=2.6R L '=符号(4)() 2.53bit0.9732.6H S R L ===码元其中,()()bit 0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号 (5)()()0.973log H S H S L rLη===四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。

信息论与编码期末试卷

信息论与编码期末试卷

信息论与编码期末试卷题号一二三四五六七八九十十一十二总成绩得分一.选择题(每小题3分,共15分)1)设信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡8/18/14/12/14321xxxxPX,则此信源的熵为:比特/符号A) 1.25 B) 1.5 C) 1.75 D) 22)对于离散信道⎥⎦⎤⎢⎣⎡=0.50.50.50.5P,信道容量是比特/符号A) 0 B) 1 C) 2 D) 33)对于三个离散信源⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6.01.03.0321xxxPX、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡3.04.03.0321yyyPY、⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡2.05.03.0321zzzPZ,其中熵最小A) X B) Y C) Z D)无法计算4)信源编码的变长编码中,下面说法不正确的是A)无失真r进制变长码平均码长不得低于信源r进制符号熵B)变长编码时,随着信源序列长度的增大,编码效率会提高C)变长码要求各个码字的长度各不相同D)变长编码的编码效率通常高于定长码5)以下约束条件属于保真度准则的是共 4 页第 1 页共 4 页第 2 页共 4 页第 3 页共 4 页第 4 页练习题一 参考答案一.选择题(每小题3分,共15分) 1)C ) 2)A ) 3)A ) 4)C ) 5)C )二.三状态马尔科夫(Markov )信源,其一步状态转移概率矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=p qp qp qP 000, 1)、求出其二步转移概率矩阵2)、计算其稳态时处于各个状态的概率3)、极限熵∞H (15分)解:1)二步转移概率矩阵为P 2P 2=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡⨯⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⨯22222220000p pq pq q p pq q p pqpq q p qp q p qp qp q p qP P2)假设稳态时各个状态概率为p(0),p(1),p(2),则 [p(0) p(1) p(2)]= [p(0) p(1) p(2)]P 且p(0)+p(1)+p(2)=1 得到:()()⎪⎪⎪⎩⎪⎪⎪⎨⎧-=-=-=pq p p pq pq p pq q p 12111)0(223)极限熵∞H 为稳态时各个状态熵的数学期望三.两个串接的信道转移概率矩阵都为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=0100001/21/210001000P ,第一个信道的输入符号为X ,4个符号等概率分布,输出符号为Y ,第二个信道的输入符号为Y ,输出符号为Z ,求I (X ;Y ),I (Y ;Z ),I (X ;Z )其信道容量及信源最佳分布(8分)解:由第一个信道的转移矩阵,以及全概率公式()()()4,3,2,1,/41==∑=j x P x y P y P i i i j j计算得到:()()2/1)(,4/1)(,8/14321====y P y P y P y P)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Y H Y H Y X I =--⨯-=-= )/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H Y Z H Z H Z Y I =--⨯-=-= ⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⨯=002/12/1100001000100][/P P P X Z 从而()()())/)(((log log )(2020symbol bit q orH p H q q p p p H i p H i p H i ii =--===∑∑==∞)/(5.1)0,1,0,0(4/1)0,0,,2/1,2/1(4/1)1,0,0,0(4/12)2/1,4/1/,8/1,8/1()/()();(symbol bit H H H H X Z H Z H Z X I =--⨯-=-= 按一般情况下求信道容量C ,⎪⎪⎩⎪⎪⎨⎧====00-1-14321ββββ ()()3/13/16/1)(6/1)()/(3log 2432141======∑=x p x p x p x p symbol bit C i j此时:β四.信源概率分布为⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡16/116/116/116/18/18/14/14/187654321x x x x x x x x P X ,现采用二进制fano 编码,求各自的码字和编码效率(8分) 解:编码过程如下: 1)2) 由题意)/(75.2)(log )()(81symbol bit x p x p X H i i i =-=∑=而平均码长()75.291==∑=i i i x p l K则编码效率()%1001===Kx H η 五.设信源先验等概⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡5.05.010P X ,接收符号{}21,0,=Y ,失真矩阵为⎥⎦⎤⎢⎣⎡∞∞=1010D ,求()()max min max min ,,,D R D R D D 和对应的信道矩阵(10分)解:根据题意可知如果信道矩阵为⎥⎦⎤⎢⎣⎡=010001P ,则可得到失真值得最小值0m in =D ,此时信道传输的是信源的熵())/(1)()0(min symbol bit X H R D R === 对于最大的允许失真,对应的信道传输的信息为0,此时{}3,21max ,min D D D D =⎥⎦⎤⎢⎣⎡=001001P 时,∞=1D ⎥⎦⎤⎢⎣⎡=010010P 时,∞=2D ⎥⎦⎤⎢⎣⎡=100100P 时,11=D 则,1m ax =D ,()0)1(max ==R D R (bit /symbol ),且⎥⎦⎤⎢⎣⎡=100100P六.二元(n ,k )线性分组码的全部码字:000000,000111,011001,011110,101011,101100,110010,110101,求1)n ,k 各为多少? 2)求该码的生成矩阵G s ?3)此码的校验矩阵H ?(12分) 解:1)n 为码字长度,所以n=6,而码字个数M=8,所以k=logM=log8=3 2)G 为三行6列的矩阵,其行向量线性无关。

信息论与编码试题集与答案考试必看

信息论与编码试题集与答案考试必看

信息基础论必备考卷1. 在无失真的信源中,信源输出由H(X) 来度量;在有失真的信源中,信源输出由R(D) 来度量。

2. 要使通信系统做到传输信息有效、可靠和保密,必须首先信源编码,然后一加密_ 编码,再_信道. 编码,最后送入信道。

3. 带限AWGN波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是C Wlog(1 SNR);当归一化信道容量C/W趋近于零时,也即信道完全丧失了通信能力,此时E b/N o为-1.6 dB,我们将它称作香农限,是一切编码方式所能达到的理论极限。

信道4.保密系统的密钥量越小,密钥熵C)就越大。

H(K)就越小,其密文中含有的关于明文的信息量I(M ;5. 已知n= 7的循环码g(x)3h(x)= —x x 1 x4 2x x 1,则信息位长度k为_3_,校验多项式6. 设输入符号表为X= {0 , 1},输出符号表为Y= {0,1}。

输入信号的概率分布为p = (1/2,1/2),失真函数为d(0, 0) = d(1, 1) = 0 , d(0, 1) =2 , d(1 , 0) = 1,则D min= _0_, R(D min) 1 0[p(y/x)] = ;D max= 0.5 , R(D max)=0 11bit/symbol,相应的编码器转移概率矩阵1L,相应的编码器转移概率矩阵[p(y/x)] = 111,则(n)7.已知用户A的RSA公开密钥(e,n)=(3,55),p 5,q密钥(d,n) = (27,55)。

若用户B向用户A发送m=2的加密消息,则该加密后的消息为40 ___ ,他的秘密、判断题1. 可以用克劳夫特不等式作为唯一可译码存在的判据。

()2. 线性码一定包含全零码。

()3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。

(X)4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

信息论与编码复习题,德州学院

信息论与编码复习题,德州学院

一、填空1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。

2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。

3. 若把掷骰子的结果作为一离散信源,则信源熵为2log 。

4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。

5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。

6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。

7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。

8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。

9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。

10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。

11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。

12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。

13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。

14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。

15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。

16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。

17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。

18. 八进制脉冲所含的信息量是二进制脉冲的3倍。

19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。

20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。

21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。

22. 对于r 进制树图,n 级节点的个数一般为nr 。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、填空1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。

2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。

3. 若把掷骰子的结果作为一离散信源,则信源熵为2log 。

4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。

5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。

6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。

7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。

8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。

9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。

10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。

11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。

12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。

13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。

14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。

15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。

16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。

17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。

18. 八进制脉冲所含的信息量是二进制脉冲的3倍。

19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。

20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。

21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。

22. 对于r 进制树图,n 级节点的个数一般为nr 。

23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。

24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均码长,则称该码为紧致码或最佳码 。

25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。

26. 信源编码的目的是提高通信的有效性。

27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。

28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。

29. 线性分组码是同时具有线性特性和分组特性的纠错码。

30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。

31. 唯一可译码存在的充要条件是11i nk i m -=≤∑。

32. 编码分为信源编码和信道编码两种。

33. 信道无失真传输信息的条件是信息传输速率小于信道容量。

34. 对称信道中,信源的最佳分布为等概分布。

35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。

36. 信道编码的目的是提高通信的可靠性。

37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

38. ()R D 是D 的下凸函数。

39. 码字10100001与码字01100000之间的距离是 3 。

40. 码字011111101、100111001之间的最汉明距离为5。

41. 码字101110101、100111001之间的最汉明距离为3。

42. 码字101111101、011111101、100111001之间的最小汉明距离为 2 。

43. 码字101010101、100111001之间的最汉明距离为4。

44. 码字101010101、100101001之间的最汉明距离为5。

45. 码字10100001与码字01100000之间的距离是 3 。

46. 将循环码0010111循环左移位1之后的码字10101110。

47. 将循环码0010111循环左移位2之后的码字1011100。

48. 将循环码0010111循环左移4位之后的码字1110010。

49.50. 二、解释下列名词51. 自信息量:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。

2()log ()i i I a p a =-52. 互信息量:xi 的后验概率与先验概率比值的对数,为yj 对xi 的互信息量,也称为交互信息量(简称互信息),用I(xi ;yj)表示,53. 即:log (/)(;)()i j iji p x y I x y p x =54. (i=1,2,……n ;j=1,2,……m )55. 信道冗余度:设信道的信息传输速率为R=I(X,Y),信道容量为C ,信道的剩余度定义为:信道冗余度=C-I(X,Y)56. 离散信源:发出在时间和幅度上都是离散分布的离散消息的信源。

如:文字、数字、数据、字母等。

57. 离散无记忆序列信源:若信源输出的消息是取值离散的平稳随机序列,并且序列中各随机变量之间彼此统计独立,则此信源称为离散无记忆序列信源.58. 无记忆离散信源:发出的各个符号是相互独立的;各符号序列中的各个符号之间是没有统计关联的关系。

各个符号的出现概率是它自身的先验概率。

无记忆离散信源包含发出单符号的无记忆离散信源和发出符号序列的无记忆离散信源。

59. 有记忆离散信源:发出的各个符号是相关联的。

表述起来很困难。

有记忆离散信源又可分为发出符号序列的有记忆离散信源和发出符号序列的马尔可夫信源。

60. 冗余度: 它表示给定信源在实际发出消息时所包含的多余信息.(也称为多余度或剩余度).m H H /1∞-=γ其中:H ∞(X)--为信源实际熵; Hm(X)--信源最大熵。

61. 线性分组码:同时具有分组特性和线性特性的纠错码。

将输入的信息组编成长为n 的码字,码字前k 位为信息元,后r=n-k 个码元为校验元。

若各校验元与前k 个信息元之间是线性关系,则称这样的码为线性分组码。

62. 唯一可译码:若码的任意一串有限长的码符号序列,只能被唯一的译成所对应的信源符号序列,则称为唯一可译码。

63. 编码效率: 表示编码后实际信息量和能载荷最大信息量的比值。

假设码元为m 进制,即可取m 种可能值,则每个码元所能载荷的最大信息量为logm 比特/码元。

mK x H R R log )(max ==η64. 准对称信道:如果信道转移矩阵按列可以划分为几个互不相交的子集,每个子矩阵满足下列性质: (1)每行都是第一行的某种置换; (2)每列都是第一列的某种置换。

称该信道为准对称信道。

65. 信息率失真函数:选定信源和失真函数后,)],([b a d E D =-可以看成条件概率p(b|a)的函数。

设BD={P(b|a):D D ≤-}满足保真度准则的所有信道集合,这种信道称为失真度D 允许信道(或试验信道)。

66. 即时译码:非延长码或非续长码,任意一个码子都不是其它码字的前缀部分.67. 信道容量:互信息量I(X,Y)是输入符号X 概率分布的凸函数对于一个给定的信道,总是存在某种概率分布p(xi),使得传输每个符号平均获得的信息量最大,即对于每个固定的信道总是存在一个最大的信息传输速率,这个最大信息传输速率定义为信道容量。

68. 对称信道:若转移概率矩阵P 每一行都是第一行的置转, 称矩阵是输入对称.若每一列都是第一列的置转,称矩阵是输出对称.若输入输出都对称,称对称DMC 信道。

69. 汉明距离:长度为n 的两个符号序列(码字)αi 和βj 之间的汉明距离为αi 和βj 对应位置上不同码元的个数, 汉明距离记为d(αi,βj)70. 循环码:设c 是线性分组码的任一码字,如果c 经循环移位c=(c1,c 2,…,cn-1,cn)→c ⑴=(c2,c3,…,cn-1cn,c1)后的序列仍然是码字, 那么称该线性分组码为循环码。

71. 无损压缩:长是利用数据的统计冗余进行压缩,可完全回复原始数据而不引起任何失真。

但压缩率是受到数据统计冗余度的理论限制,一般为2:1到5:1。

72. 有损压缩:经过压缩、解压的数据与原始数据不同,但是非常接近的压缩方法,又称破坏型压缩,即将次要的信息数据压缩掉,牺牲一些质量来减少数据量,使压缩比提高。

73. 输出对称信道:如果信道转移概率矩阵中所有列矢量都是第一列的某种置换,则称信道是关于输出对称离散信道。

74. 有噪无损信道:信道输出符号Y 集合的数量大于信道符号X 集合的数量,即r <s,形成一对多的映射关.由于一对多的映射关系,不能由输入完全确定信道的输出,H(X ︱Y) >0,H(X)<H(Y),I(X;Y)=H(X). 75.{}{}()()max (;)max ()log p x p x C I X Y H x r===76. 码树:码树有一个树根A,树根有m 个树枝,树枝的尽头称为节点,每个节点生出是树枝的数量等于码符号的数量m ,从而形成m 进制的码树。

77. 非即时译码:接收端收到一个完整的码字后,不能立即译码,而等下一码字开始接收后才判断是否可以码.78. 平均码长:编码后的每个信源符号平均所需的码元(码符号)个数。

79.1()qi ii K P x K ==∑80. 3.简答81. 简述信息、消息、信号及其区别。

82. 答:信息是事物运动状态或存在方式的不确定性的描述。

信息的基本概念在于它的不确定性,任何确定的事物都不会有信息。

用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。

消息包含信息,是信息的载体,但不是物理性的。

把消息换成适合信道传输的物理量(如电信号、光信号、声信号、生物信号等),这种物理量称为信号。

信号是信息的载体,是物理性的。

83. 信息量、联合自信息量和条件自信息量三者之间的关系。

84. 信息是事物运动状态或存在方式的不确定性的描述。

信息的基本概念在于它的不确定性,任何确定的事物都不会有信息。

用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。

消息包含信息,是信息的载体,但不是物理性的。

把消息换成适合信道传输的物理量(如电信号、光信号、声信号、生物信号等),这种物理量称为信号。

信号是信息的载体,是物理性的。

85. 简述信源熵物理含义。

86. (1)信息熵H(X)表示了信源输出前,信源的平均不确定性; (2)信息熵H(X)表示了信源输出后,每个消息或符号所提供的平均信息量; (3)信息熵H(X)反映了随机变量X 的随机性。

相关文档
最新文档