《信息论与编码技术》复习提纲复习题
信息论与编码复习题
一、填空题(共10小题,每题1分)1.即时码又称为(非延长码),有时叫做(异前缀码)。
d)。
2.码的纠检错能力取决于码字的(最小距离min3.如果信源为X,信宿为Y,那么信道疑义度为(),噪声熵为()。
4.把信息组原封不动地搬到码字前k位的(n,k)码就叫做(系统码)。
5.循环码的任何一个码字的循环移位仍是码字,因此用一个基底就足以表示循环码的特征。
所以描述循环码的常用数学工具是(码多项式)。
6.香农于1948年发表了(通信的数学理论),这是一篇关于现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
7.冗余度来自两个方面,一是(信源符号之间的相关性),二是(信源符号分布的不均匀性)。
8.差错控制的途径是:(增大信道容量C),(减小码率R),(增加码长N)。
9.信源编码的主要任务是(减少冗余,提高编码效率)。
10.汉明码是能纠正1个随机错误码元的完备码,它的码长n与监督位长度m(=n-k)之间的关系式为( )。
11.信道编码的主要目标是(提高信息传送的可靠性)。
12.信源可分为两大类,及()信源和()信源。
13.唯一可译码又分为()码和()码。
14.游程编码的码字通常由()和()组合而成。
15.从系统的角度,运用纠/检错码进行差错控制的基本方式有()、()和()。
16.常用的译码方法有()译码和()译码。
二、判断题(共10小题,每题1分)1.由于构成同一线性分组码空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集。
2.可以用生成多项式来描述任何线性分组码。
3.只要传信率R大于信道容量C,总存在一种信道码及解码器,可以以所要求的任意小的差错概率实现可靠通信。
4.码字长度i k符合克劳夫特不等式,是唯一可译码存在的充分必要条件。
5.对于m阶马尔科夫信源来说,在某一时刻出现的符号,取决于前面已出现的m个符号。
6.根据熵的可加性,序列的熵等于组成序列的各符号熵之和。
7.哈夫曼码在编码时充分考虑了信源符号分布的不均匀性和符号之间的相关性。
信息论与编码复习提纲
• 平均失真度
D = E[d(ai , bj )] = ∑∑ p(ai ) p(bj / ai )d(ai , bj )
i=1 j =1
n
m
信息率失真函数
• 信息率失真函数定义
R(D) = m in
p(bj / ai )∈P D
I ( X;Y)
• 信息率失真函数的定义域
Dmin = ∑ p ( xi ) mind ( xi , y j ) D max = min j
i =1 n
p( y j )
∑ p( y ) D
j =1 j
i j j
n
j
∑ p(a )d(a , b ) = D
i=1 i
n
信息率失真函数
• 信息率失真函数的值域 当D=Dmin时 R(D)=Rmax Dmin=0时 Rmax=H(X)(离散情况) 当D>=Dmax时 R(D)=Rmin=0 • 信息率失真函数是连续非负单调递减函数 • 保真度准则下的信源编码定理
, ∑p(a ) =1 ∑p(b ) =1, ∑p(b
i=1 i j =1 j j =1 n m m j
ai ) =1,
∑p(a
i=1
n
i
bj ) =1 ∑∑ p(aibj ) =1 ,
j =1 i=1
m
n
3
∑p(a b ) =p(b ), ∑p(a b ) =p(a )
i=1 i j j j =1 i j i
n
m
4 5
p(aibj ) = p(bj ) p(ai bj ) = p(ai ) p(bj ai )
当 与相 独 时 X Y 互 立
p(aibj ) = p(ai ) p(bj ) p(bj ai )=p(bj ),p(ai bj )=p(ai )
信息论与编码复习提纲
baa aba aab
011 010 11
3 3 2
aaa
00
码字
2
码长
root
方法
码字 码长
00 2
11 2
010 3
011 1000 1001 1010 1011 3 4 4 4 4
码字平均长度: LN=2.726; 信源符号平均编码长度:
信源信息熵: H(X)=-0.3log0.3-0.7log0.7=0.881
(3)平均符号熵:
HN =H(X1X2……XN) / N
第一部分、信息论基础
1.1 信源的信息理论
(4)序列信息熵的性质:
《1》条件熵不大于无条件熵,强条件熵不大于弱
条件熵:H(X1) ≥ H(X2|X1) ≥ H(X3|X1X2) ≥ …
…… ≥H (XN|X1X2……XN-1) 《2》条件熵不大于同阶的平均符号熵: HN ≥H (XN|X1X2……XN-1) 《3》序列越长,平均每个符号的信息熵就越小:
H(XY) 计算公式: I (X;Y) = H(X) – H(X|Y)= H(Y) – H(Y|X)= H(X) +H(Y)–H(XY)
第一部分、信息论基础
1.2 信道的信息理论
[例2]已知信源先验概率p(x)={0.7, 0.3},信道传输
矩阵 ;试计算各信息熵和互信息。
解:(1)信源熵: H(X)= -0.7log20.7 –0.3log20.3
H1 ≥ H2 ≥ H3 ≥ …… ≥H N
总之:H0 > H1 ≥ H2 ≥ H3 ≥ …… ≥HN ≥ H∞
(无记忆信源取等号。)
第一部分、信息论基础
1.1 信源的信息理论
信息论与编码复习
信息论与编码复习
去年考点(部分):
简答题:香农第一定理P106、香农第二定理P141
计算题:马尔可夫信源P37、香农编码P110、霍夫曼编码P111、费诺编码P115、平均错误概率P131(例6.3)、例5.10。
重点:
第二章:本章为基础性内容,主要是理解专业词语的含义,记住公式,可参考笔记。
第三章:
重点3.3节,特别是马尔可夫信源P37~P40,会画状态转移图,会求状态转移概率矩阵(例3.5 P38、例3.6 P40)。
第四章:
各种信道容量的计算P58(例4.1、4.2、4.3)、离散对称信道的判别和信道容量计算P61~P64。
第五章:
定长码、码的分类P91、定长码及定长编码定理P94、编码效率P97、Kraft和McMillan不等式、唯一可译码存在条件P100、编码效率及剩余度P108、变长码编码(例 5.5 P108、例5.6 P110、例5.7 P112、例5.8 P115、例5.9 P116)。
第六章:
最大后验概率译码准则、极大似然译码规则P131、平均错误概率P131(例6.3 P131)、编码效率P150、线性分组码P150(例6.6 、6.7、6.8 P154、例5.10 P161)。
信息论与编码复习题
第二章 复习题一、填空题1、信息的 可度量性 是建立信息论的基础。
2、 统计度量 是信息度量最常用的方法。
3、 熵 是香农信息论最基本最重要的概念。
4、事物的不确定度是用时间统计发生 概率的对数 来描述的。
5、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
6、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
7、自信息量的单位一般有 比特、奈特和哈特 。
8、必然事件的自信息是 0 。
9、不可能事件的自信息量是 ∞ .10、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
11、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
12、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
13、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
14、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。
15、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
二、判断题1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H .( 对 )2.必然事件和不可能事件的自信息量都是0(错) 3.信息就是一种消息。
( 错 )4、概率大的事件自信息量大。
错 ) 5、互信息量可正、可负亦可为零,(对 )6、信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。
错 )7、对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。
对 )8、自信息量是p (a i )的单调递减函数。
(对)9、单符号离散信源的自信息和信源熵都具有非负性。
(对)10、单符号离散信源的自信息和信源熵都是一个确定值。
(错)11、单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
《信息论与编码技术》复习提纲复习题
《信息论与编码技术》复习提纲复习题《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
信息论与编码复习题1(1)
一、填空题1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。
2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT(1.5)__个随机错。
3.克劳夫特不等式是唯一可译码___存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y )5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__加密__编码的目的是保证通信的安全性。
6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密编码的目的是保证通信的 安全性 。
7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。
8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。
9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。
10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移码估值 。
11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。
二、单项选择题1.下面表达式中正确的是( A )。
A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩色电视显像管的屏幕上有5×105个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)1填空题1、信息论研究的主要问题是如何提高信息传输系的性和性,对应这两个性能数字通讯系统量化指标分别为和。
2、若给定离散概率空间[X,p(x)]表示的信源,则该信源中的信源消息(事件)x的自信息量可表I(x)=;该信源平均自信息量(即信源的熵)可表示为H(X)=E[I(x)]= 。
3、在离散联合概率空间[XY,P(xy)] 上随机变量I(xy) 的数学期望H(XY)= ,若集合X与集合Y相互独立,则H(XY)= 。
4、若给定离散联合概率空间[XY,P(xy)],则x与y之间的互信息量I(x;y)= ;平均互信息量可用熵和条件熵表示即I(X;Y)= = ,其中条件熵H(X|Y)通常称为熵,条件熵H(Y|X) 称为____________熵;若集合X与集合Y相互独立,则H(X|Y) = ,H(Y|X) = ,平均互信息量I(X;Y)= 。
5、离散信源的冗余度是R表示信源消息的可压缩____________,设信源符号集的最大熵为Ho,实际熵为H∞,则冗余度R可表示为______________;信源编码目的就是通过减少或消除信源____________来提高信息传输效率,因此信源编码亦称__________性编码,而信道编码则称__________性编码。
6、对于连续随机变量,在峰值功率受限于P m的条件下,取得最大相对熵的最佳概率密度函数是一个恒值即W opt(x)=_________,称W(x)为__________分布,这时最大相对熵H cmax=__________。
7、对于平均功率受限,均值不为零的一维连续随机变量的方差为定值时,其取得最大相熵的最佳概率密度函数为_________ ,最大相对熵H cmax=__________。
正态分布,即Wopt(x)=8、假设任一随机变量X与一正态分布随机变量具有相同的相对熵Hc,则其等效正态分布的随机变量X的熵功率为P=;可以用信号平均功率和熵功率的相对差值_________来表示连续信源的冗余度。
信息论与编码(南信工复习题_2010参考)
信息论复习题一、问答题1、信息论是怎样的一门学科?信息论的研究目的和内容是什么?信息论是通信技术与概率论、随机过程、数理统计相结合逐步发展而形成的一门新兴科学。
通常认为信息论的奠基人是香农,他于1948年发表的著名论文通信的数学理论为信息论的发展和诞生奠定了理论基础。
(2分)其研究目的是发现信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。
有效性、可靠性、保密性和认证性四者构成现代通信系统对信息传输的全面要求。
(2分)其研究内容为香农理论、编码理论、维纳理论、检测和估计理论、信号设计和处理理论、调制理论、随机噪声理论和密码学理论等。
(2分)2、什么是信息?就狭义而言,通信系统中对信息的表达分为哪三个层次?各有什么关系?答:信息是信息论中最基本、最重要的概念,既抽象又复杂,信息不同于日常生活中的“消息”、“知识”、“情报”、“信号”等概念。
(1分)到目前为止,已有百种有关信息的定义,它们从不同的侧面和不同的层面揭示了信息的本质。
香农对信息的定义为:信息是事物运动状态或存在方式的不确定性的描述。
该定义可以对信息进行定性和定量描述。
(2分)就狭义而言,通信系统中对信息的表达分为信号、消息和信息三个层次。
(1分)它们是既有区别又有联系的三个不同的概念:消息中包含信息,是信息的载体;信号携带着消息,它是消息的运载工具。
信息可认为是由具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
而信号则是抽象信息在物理层表达的外延;消息则是抽象信息在数学层表达的外延。
(2分)3、信息熵是如何定义的?解释信息熵的含义,并列出信息熵的性质?答:信息熵定义为自信息的数学期望,即:平均自信息量H r (X)。
(2分)其含义是:熵是从整个集合的统计特性来考虑的,它从平均意义上来表征信源的总体特征。
信源输出后,信息熵表示每个消息提供的平均信息量;信源输出前,信息熵H(X) 表示信源的平均不确定性;信息熵表征了变量的随机性。
《信息论与编码》复习试题
填空1.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
2.信息的 可度量性 是建立信息论的基础。
3.统计度量 是信息度量最常用的方法。
4.熵 是香农信息论最基本最重要的概念。
5.事物的不确定度是用时间统计发生 概率的对数 来描述的。
6.单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
7.一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
8.自信息量的单位一般有 比特、奈特和哈特 。
9.必然事件的自信息是 0 。
10.不可能事件的自信息量是 ∞ 。
11.两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
12.数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
13. 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
14. 离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。
15. 对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
16. 一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。
17.平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=eP π2log 212。
18.对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。
19.对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。
20.若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。
21.若把掷骰子的结果作为一离散信源,则其信源熵为 log 26 。
22.同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log 218(1+2 log 23)。
信息论与编码
信息论与编码《信息论与编码》复习提纲第1章绪论1、信息的概念,通俗、⼴义、狭义的概念2、信息、消息、信号3、通信系统模型4、通信系统的技术指标,有效性、可靠性第2章信源与信息熵1、信源的分类2、信源的数学模型3、马尔克夫信源4、离散信源的⾃信息、信息熵5、条件熵和联合熵6、互信息及其性质7、条件熵之间的关系,维拉图8、信息熵的性质9、信息熵的计算,各种概率的计算、各种熵的计算(例2-9, p.21)10、连续信源的熵,绝对熵和相对熵11、最⼤熵定理,峰值功率受限、平均功率受限12、离散序列信源的熵,平均符号熵、条件熵、极限熵13、信源冗余度及产⽣的原因第3章信道与信道容量1、信道模型,转移矩阵、2、信道种类:BSC、DMC、离散时间⽆记忆信道、波形信道3、信道容量的定义4、⼏种特殊信道的信道容量、BSC信道C~ε曲线5、离散序列信道及其容量(BSC⼆次扩展信道)6、连续信道及其容量,Shannon公式7、信源与信道的匹配,信道冗余度第4章信息率失真函数1、失真函数、失真矩阵、平均失真2、信息率失真函数,定义、物理意义,保真度准则3、信息率失真函数的性质,信息率失真函数曲线4、信息率失真函数与信道容量的⽐较5、某些特殊情况下R(D) 的表⽰式第5章信源编码1、信源编码的基本概念(主要任务、基本途径)2、码的基本概念、分类3、唯⼀可译码的含义,充要条件4、码树图及即时码的判别5、定长编码定理,编码信息率,编码效率6、变长编码定理(Shannon第⼀定理),编码剩余度,紧致码7、Shannon编码,⾃信息与码长的联系8、Fano编码,与码树图的联系、是否是紧致码9、Huffman编码,计算平均码长、信息传输率、编码效率(例5-7, p.96)10、Shannon第三定理(限失真编码定理)及逆定理11、游程编码,基本原理、特性、主要应⽤12、算术编码,基本思想第6章信道编码1、差错,差错符号,差错⽐特,差错图样类型2、纠错码分类,差错控制系统分类3、随机编码,Shannon第⼆定理(信道编码定理),差错概率、译码规则、平均差错概率4、可靠性函数曲线5、差错控制途径、措施,噪声均化、交错(交织)6、码距与纠、检错能⼒7、最优译码、最⼤似然译码、最⼩汉明距离译码8、线性分组码,基本概念,码重9、⽣成矩阵和校验矩阵,系统形式(例6-2, p.137)10、伴随式与标准阵列译码11、循环码及其特征,⼏种常⽤循环码12、卷积码,基本概念、编码原理、编码器结构、卷积码描述⽅法、Viterbi译码第7章加密编码1、加密编码中的基本概念2、安全性,保密性,真实性3、对称(单密钥)体制与⾮对称(双密钥)体制1.信息论研究的⽬的是提⾼信息系统的___可靠性___,____有效性____,____安全性___,以便达到系统的最优化。
信息论与编码复习资料(新)(DOC)
“信息论与编码”复习1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体信号:具体的、物理的消息:具体的、非物理的信息:非具体的、非物理的同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。
同样,同一类型信号或消息也可以代表不同内容的信息2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;4信息是可以量度的,信息量有多少的差别。
31948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
4.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。
信宿需要研究的问题是能收到或提取多少信息。
信道的问题主要是它能够传送多少信息,即信道容量的多少。
5.通信的目的?要解决的最基本问题?通信有效性的概念。
提高通信有效性的最根本途径?通信可靠性的概念。
提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径?通信系统的性能指标主要是有效性,可靠性,安全性和经济性。
通信系统优化就是使这些指标达到最佳。
从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。
提高通信有效性的最根本途径是信源编码。
减少冗余。
提高可靠性:信道编码。
增加冗余。
提高安全性:加密编码。
6.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义?信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。
信息论与编码复习题
信息论与编码复习题⼀、填空题1. 设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___1/4___时,信源熵达到最⼤值,为__2__,此时各个消息的⾃信息量为__2 __。
2.如某线性分组码的最⼩汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错。
3.克劳夫特不等式是唯⼀可译码___存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y )___。
5._信源___提⾼通信的有效性,_信道____⽬的是提⾼通信的可靠性,_加密__编码的⽬的是保证通信的安全性。
6.信源编码的⽬的是提⾼通信的有效性,信道编码的⽬的是提⾼通信的可靠性,加密编码的⽬的是保证通信的安全性。
7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8__时,信源熵达到最⼤值,为___3____。
8.⾃信息量表征信源中各个符号的不确定度,信源符号的概率越⼤,其⾃信息量越_⼩___。
9.信源的冗余度来⾃两个⽅⾯,⼀是信源符号之间的__相关性__,⼆是信源符号分布的 __不均匀性__。
10.最⼤后验概率译码指的是译码器要在已知r 的条件下找出可能性最⼤的发码作为译码估值,即令 =maxP( |r)_ __。
11.常⽤的检纠错⽅法有__前向纠错___、反馈重发和混合纠错三种。
⼆、单项选择题1.下⾯表达式中正确的是(A )。
A.∑=ji j x y p 1)/( B.∑=ii j x y p 1)/(C.∑=jj j i y y x p )(),(ω D.∑=ii j i x q y x p )(),(2.彩⾊电视显像管的屏幕上有5×105个像元,设每个像元有64种彩⾊度,每种彩度⼜有16种不同的亮度层次,如果所有的彩⾊品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独⽴。
信息论与编码复习题B答案
《信息论与编码》期末复习题B 答案一、填空题(每小题4 分,共 24 分)1.根据信息论的各种编码定理和通信系统的指标,编码问题可分解为3类 信源 编码、 信道 编码和 加密 编码 。
为了提高通信系统的传输效率,应该采用 信源编码 。
2. 限峰功率最大熵定理指出,对于定义域被限定在[a,b]的随机变量X ,当它是 平均 分布时具有最大熵,其值为 log(b-a) 。
3.根据信道参数与时间的关系不同,信道可分为 固定参数 信道和 连续参数 信道,根据信道中噪声种类的不同,可分为 随机差错 信道和 突发差错 信道。
4.最常用的失真函数有 均方失真 、 绝对失真 、 相对失真 和 误码失真 。
5.常用信源编码方法有 游程编码 、 算术编码 、 预测编码 和 变换编码 等。
6.在信道编码中,按照构码理论来分,有 代数码 、 几何码 、 算术码 和组合码等。
二、简答题(每小题 8 分,共 32 分)1.简述自信息的性质。
答:(1) ; (2) ; (3)非负性 ; (4)单调递减性:若 则 ; (5)可加性。
评分标准:前2条每条1分,后3条每条2分。
2.什么是二进制对称信道(BSC )?答:二进制对称信道(BSC )是二进制离散信道的一个特例,如果描述二进制离散信道的转移概率对称,即则称这种二进制输入、二进制输出的信道为二进制对称信道。
评分标准:前2条每条2分,最后结论4分。
3.简述哈弗曼编码方法。
答:(1)将q 个信源符号按概率分布的大小,以递减次序排列起来,设(2)用“0”和“1”码符号分别代表概率最小的两个信源符号,并将这两个概率最小的符号合并成一个符号,合并的符号概率为两个符号概率之和,从而得到只包含q-1个符号的新信源,称为缩减信源。
(3)把缩减信源的符号仍旧按概率大小以递减次序排列,再将其概率最小的两个信源符号分别用“0”和“1”表示,并将其合并成一个符号,概率为两符号概率之和,这样又形成了q-2个符号的缩减信源。
完整word版信息论与编码理论复习题一
信息论与编码理论复习题(一)一、填空题(1)1948 年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
(2)必然事件的自信息是。
(3)离散平稳无记忆信源X 的 N 次扩展信源的熵等于离散信源X 的熵的。
(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为___。
(5)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是。
(6)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R____C (大于、小于或者等于),则存在一种编码,当输入序列长度n 足够大,使译码错误概率任意小。
(7)平均错误概率不仅与信道本身的统计特性有关,还与______________和 ______有关。
二、综合题1..黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。
给出这个只有两个符号的信源X 的数学模型。
假设图上黑白消息出现前后没有关联,求熵H X ;2)假设黑白消息出现前后有关联,其依赖关系为,,,,求其熵。
3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。
2.信源空间为X x1x2x3x4x5x6x7,试构造二元霍夫曼码,计算其平均P(X)0.2 0.19 0.18 0.170.150.10.01码长和编码效率(要求有编码过程)。
3..二元对称信道如图。
3, p 111)若p 0,求H X 、H X|Y和I X;Y ;442)求该信道的信道容量。
0 0 0 1 11 4.设一线性分组码具有一致监督矩阵H0 1 1 0 011 0 1 0 111)求此分组码n=?,k=?共有多少码字?2)求此分组码的生成矩阵G。
3)写出此分组码的所有码字。
4)若接收到码字(101001),求出伴随式并给出翻译结果。
参考答案:填空(1)香农( 2)0 ( 3)N 倍( 4)信源符号等概分布综合题1.解: 1)信源模型为2)由题意可知该信源为一阶马尔科夫信源。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
5.先验熵、后验熵的区别?6.联合熵、条件熵和信息熵的关系。
7.互信息的大小如何计算?互信息的性质是什么?8.联合互信息、条件互信息、互信息之间的关系是什么?9.平均互信息的定义是什么?平均互信息的含义?平均互信息的性质?10.联合平均互信息、条件平均互信息和平均互信息的关系?11.损失熵和噪声熵的含义是什么?维拉图表示了哪些关系式?12.信道的传码率和传信率(信息率)的计算方法是什么?13.信道容量的定义是什么?信道容量的含义如何理解?14.无噪无损信道、有噪无损信道、无噪有损信道、对称信道的信道容量如何计算?㈢《连续信源和波形信道》题纲:I.连续信源的定义、数学模型、绝对熵、相对熵II.给定条件下,连续信源的最大熵III.熵功率IV.连续信道和波形信道的信道容量需掌握的问题:1.连续信源定义、数学模型是什么?2.连续信源熵的表达式是什么?相对熵和绝对熵的区别是什么?3.如何计算均匀分布、正态分布连续信源的最大熵?4.什么是波形信道?了解波形信道互信息、信道容量的求解思路。
5.香农公式是什么?物理意义是什么?第2章无失真信源编码题纲:I.基本概念1.编码2.二元码3.等长码4.变长码5.码的N次扩展码6.唯一可译码II.等长码III.变长码IV.无失真信源编码定理V.编码方法1.香农编码2.费诺编码3.霍夫曼编码需掌握的问题:1.编码的定义及编码相关术语。
2.信源编码的定义及目的是什么?3.解释二元码、等长码、变长码、唯一可译码。
4.变长码和定长码的区别是什么?用码树描述二者的差异,能够说明变长码和定长码各自的优劣。
5.描述香农第一定理及意义。
6.掌握香农编码、费诺编码、霍夫曼编码的步骤及特点,会计算编码效率。
7.了解游程编码和算术编码的思路。
第3章信道编码题纲:I.检错、纠错原理及方法、能力II.差错控制理论1.译码规则2.2种准则下的错误概率III.信道编码定理IV.编码方法1.简单的检错、纠错码2.线性分组码3.循环码需掌握的问题:1.信道编码的定义及目的是什么?2.检错原理是什么?3.差错控制方法有哪些?4.如何确定一种编码的检错、纠错能力?5.汉明距离是什么?汉明重量是什么?最小码距是什么?6.信道编码的效率如何确定?7.奇偶校验码的编码规则是什么?检错、纠错能力如何?8.译码规则的定义是什么?9.最大后验准则是什么?极大似然准则是什么?这两种准则下如何计算错误概率?10.错误概率与损失熵之间的关系是什么?11.描述香农第二定理及意义。
12.线性分组码的编码原理和校验原理是什么?13.循环码的编码原理和校验原理是什么?14.了解循环冗余校验码和卷积码的编码思路。
第4章信息率失真函数题纲:V.失真度VI.平均失真度VII.信息率失真函数VIII.信息率失真函数的性质IX.限失真信源编码定理需掌握的问题:1.失真度如何表示?2.四种常见失真度的形式分别是什么?分别用于什么场合?3.平均失真度如何计算?4.什么是保真度准则?5.什么是试验信道?6.信息率失真函数的定义是什么?7.信息率失真函数和信道容量的区别和联系是什么?8.信息率失真函数的性质是什么?9.定义域D min, D max,以及相应的R(D min), R(D max)如何计算?10.描述香农第三定理及意义。
11.了解预测编码和变换编码的思路。
一、填空题1.设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为___1/4___时,信源熵达到最大值,为__2__,此时各个消息的自信息量为__2 __。
2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3____个随机错,最多能纠正__1____个随机错。
存在___的充要条件。
4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是___(X;Y)=H(X)-H(X/Y)___。
5._信源___提高通信的有效性,_信道____目的是提高通信的可靠性,_加密__编码的目的是保证通信的安全性。
6.信源编码的目的是提高通信的有效性,信道编码的目的是提高通信的可靠性,加密编码的目的是保证通信的安全性。
7.设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为__1/8__时,信源熵达到最大值,为___3____。
8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越_小___。
9.信源的冗余度来自两个方面,一是信源符号之间的__相关性__,二是信源符号分布的__不均匀性__。
10.最大后验概率译码指的是译码器要在已知r的条件下找出可能性最大的发码作为译码估值,即令=maxP( |r)_ __。
前向纠错___、反馈重发和混合纠错三种。
二、单项选择题1.下面表达式中正确的是(A )。
A.∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j iy y x p )(),(ω D.∑=ii j i x q y x p )(),( ×105 个像元,设每个像元有64种彩色度,每种彩度又有16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个组合之间相互独立。
每秒传送25帧图像所需要的信道容量(C )。
A. 50106 B. 75106 C. 125106 D. 250106 3.已知某无记忆三符号信源a,b,c 等概分布,接收端为二符号集,其失真矩阵为d=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡1 21 12 1,则信源的最大平均失真度max D 为( D )。
A. 1/3 B. 2/3 C. 3/3 D. 4/34.线性分组码不具有的性质是( C )。
A.任意多个码字的线性组合仍是码字B.最小汉明距离等于最小非0重量C.最小汉明距离为3D.任一码字和其校验矩阵的乘积c m H T =05.率失真函数的下限为( B )。
6.纠错编码中,下列哪种措施不能减小差错概率( D )。
A. 增大信道容量B. 增大码长C. 减小码率D. 减小带宽7.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。
一人随手取出3颗,经测量恰好找出了假珠,不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,这一事件给出的信息量( A )。
A. 0bitB. log6bitC. 6bitD. log240bit8.下列陈述中,不正确的是( D )。
A.离散无记忆信道中,H (Y )是输入概率向量的凸函数C.一般地说,线性码的最小距离越大,意味着任意码字间的差别越大,则码的检错、纠错能力越强9.一个随即变量x 的概率密度函数P(x)= x /2,V 20≤≤x ,则信源的相对熵为( C )。
10.下列离散信源,熵最大的是( D )。
A. H (1/3,1/3,1/3);B. H (1/2,1/2);C. H (0.9,0.1);D. H (1/2,1/4,1/8,1/8)11.下列不属于消息的是( B )。
12.为提高通信系统传输消息有效性,信源编码采用的方法是( A )。
13.最大似然译码等价于最大后验概率译码的条件是( D )。
A.离散无记忆信道B.无错编码14.下列说法正确的是( C )。
A.等重码是线性码C.码的最小汉明距离等于码的最小非0重量15.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,u0:一个0发出 u1:一个1发出 v0 :一个0收到 v1:一个1收到则已知收到的符号,被告知发出的符号能得到的信息量是( A )。
A. H(U/V)B. H(V/U)C. H(U,V)D. H(UV)16. 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( B )。
A. -log36bitB. log36bitC. -log (11/36)bitD. log(11/36)bit17.下列组合中不属于即时码的是( A )。
A. { 0,01,011}B. {0,10,110}C. {00,10,11}D. {1,01,00}18.已知某(6,3)线性分组码的生成矩阵⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=011101110001111010G ,则不用计算就可判断出下列码中不是该码集里的码是( D )。