信息理论与编码参考答案
信息论与编码理论习题答案
信息论与编码理论习题答案LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】第二章 信息量和熵八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。
解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。
问各得到多少信息量。
解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log = bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log = bit 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521信息量=)(1loga p =!52log = bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6= bit )|(X Z H =)(32x x H +=)(Y H=2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6= bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H = bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H = bit),|(Y X Z H =)|(Y Z H =)(X H = bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =+= bit设一个系统传送10个数字,0,1,…,9。
《信息理论与编码》,答案,考试重点(1--3章)
《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。
信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。
2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。
语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。
语用信息是信息的最高层次。
它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。
三者之间是内涵与外延的关系。
第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。
a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。
则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。
随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x np x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。
信息与编码理论课后习题答案
2.1 莫尔斯电报系统中,若采用点长为0.2s ,1划长为0.4s ,且点和划出现的概率分别为2/3和1/3,试求它的信息速率(bits/s)。
解: 平均每个符号长为:1544.0312.032=⨯+⨯秒 每个符号的熵为9183.03log 3123log 32=⨯+⨯比特/符号所以,信息速率为444.34159183.0=⨯比特/秒2.2 一个8元编码系统,其码长为3,每个码字的第一个符号都相同(用于同步),若每秒产生1000个码字,试求其信息速率(bits /s)。
解: 同步信号均相同不含信息,其余认为等概,每个码字的信息量为 3*2=6 比特;所以,信息速率为600010006=⨯比特/秒2.3 掷一对无偏的骰子,若告诉你得到的总的点数为:(a ) 7;(b ) 12。
试问各得到了多少信息量?解: (a)一对骰子总点数为7的概率是366 所以,得到的信息量为 585.2)366(log 2= 比特(b) 一对骰子总点数为12的概率是361 所以,得到的信息量为 17.5361log 2= 比特2.4经过充分洗牌后的一付扑克(含52张牌),试问:(a) 任何一种特定排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解: (a)任一特定排列的概率为!521, 所以,给出的信息量为 58.225!521log 2=- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 13131313525213!44A C ⨯=所以,得到的信息量为 21.134log 1313522=C 比特.2.5 设有一个非均匀骰子,若其任一面出现的概率与该面上的点数成正比,试求各点出现时所给出的信息量,并求掷一次平均得到的信息量。
解:易证每次出现i 点的概率为21i,所以比特比特比特比特比特比特比特398.221log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21log )(2612=-==============-==∑=i i X H x I x I x I x I x I x I i ii x I i2.6 园丁植树一行,若有3棵白杨、4棵白桦和5棵梧桐。
信息理论与编码课后答案第2章
第二章 信息的度量习题参考答案不确定性与信息(2.3)一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)一副充分洗乱的扑克牌,共有52张,这52张牌可以按不同的一定顺序排列,可能有的不同排列状态数就是全排列种数,为6752528.06610P =≈⨯!因为扑克牌充分洗乱,所以任一特定排列出现的概率是相等的。
设事件A 为任一特定排列,则其发生概率为 ()6811.241052P A -=≈⨯!可得,任一特定排列的不确定性为()()22log log 52225.58I A P A =-=≈!比特 (2)设事件B 为从中抽取13张牌,所给出的点数都不同。
扑克牌52张中抽取13张,不考虑其排列顺序,共有1352C 种可能的组合,各种组合都是等概率发生的。
13张牌中所有的点数都不相同(不考虑其顺序)就是13张牌中每张牌有4种花色,所以可能出现的状态数为413。
所以()131341352441339 1.05681052P B C -⨯!!==≈⨯!则事件B 发生所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ 比特2.4同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“2和6 同时出现”这事件的自信息量。
(2)“两个3同时出现”这事件的自信息量。
(3)两个点数的各种组合(无序对)的熵。
(4)两个点数之和(即2,3,…,12构成的子集)的熵。
(5)两个点数中至少有一个是1的自信息。
解:同时扔两个正常的骰子,可能呈现的状态数有36种,因为两骰子是独立的,又各面呈现的概率为61,所以36种中任一状态出现的概率相等,为361。
(1) 设“2和6同时出现”这事件为A 。
在这36种状态中,2和6同时出现有两种情况,即2,6和2,6。
信息论与编码理论课后答案
信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。
2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的是建立信息论的基础。
7、8、是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维连续随即变量x在[a,b] 。
1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。
2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。
信息论与编码第三版答案
信息论与编码第三版答案《信息论与编码》是一本非常经典的书籍,已经成为了信息科学领域中的经典教材。
本书的第三版已经出版,相比于前两版,第三版的变化不小,主要是增加了一些新内容,同时也对一些旧内容做了修改和完善。
作为一本教材,上面的题目和习题都是非常重要的,它们可以帮助读者更好地理解书中的相关概念和知识点,同时也可以帮助读者更好地掌握理论和技术。
因此,本文将介绍《信息论与编码》第三版中部分习题的答案,方便读者快速查阅和学习。
第一章:信息量和熵1.1 习题1.1Q:两个随机变量的独立性和无关性有什么区别?A:独立性和无关性是两个不同的概念。
两个随机变量是独立的,当且仅当它们的联合概率分布等于乘积形式的边缘概率分布。
两个随机变量是无关的,当且仅当它们的协方差等于0。
1.2 习题1.7Q:什么样的随机变量的熵等于0?A:当随机变量的概率分布是确定的(即只有一个概率为1,其余全为0),其熵等于0。
第二章:数据压缩2.5 习题2.9Q:为什么霍夫曼编码比熵编码更加高效?A:霍夫曼编码能够更好地利用信源的统计特征,将出现频率高的符号用较短的二进制编码表示,出现频率低的符号用较长的二进制编码表示。
这样一来,在编码过程中出现频率高的符号会占用较少的比特数,从而能够更加高效地表示信息。
而熵编码则是针对每个符号分别进行编码,没有考虑符号之间的相关性,因此相比于霍夫曼编码更加低效。
第四章:信道编码4.2 习题4.5Q:在线性块码中,什么是生成矩阵?A:在线性块码中,生成矩阵是一个包含所有二元线性组合系数的矩阵。
它可以用来生成码字,即任意输入信息序列可以通过生成矩阵与编码器进行矩阵乘法得到相应的编码输出序列。
4.3 习题4.12Q:简述CRC校验的原理。
A:CRC校验是一种基于循环冗余校验的方法,用于检测在数字通信中的数据传输错误。
其基本思想是将发送数据看作多项式系数,通过对这个多项式进行除法运算,得到余数,将余数添加到数据尾部,发送给接收方。
信息理论与编码
1、单选题下列不属于消息的是( )。
2分文字信号图像语言标准答案: B2、单选题设有一个无记忆信源发出符号A和B,已知[如图1],发出二重符号序列消息的信源,无记忆信源熵[如图2]为( )。
2分图1图20.81bit/二重符号1.62bit/二重符号0.93 bit/二重符号1.86 bit/二重符号标准答案: B3、单选题同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。
2分-log36bitlog36bit-log(11/36)bitlog(11/36)bit标准答案: B4、单选题二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,x0: 发出一个0 、x1: 发出一个1、y0 :收到一个0、y1:收到一个1 ,则已知收到的符号,被告知发出的符号能得到的信息量是( )。
2分H(X/Y)H(Y/X)H(X,Y)H(XY)标准答案: A5、单选题一个随即变量x的概率密度函数P(x)= x /2,[如图1],则信源的相对熵为( )。
2分图10.5bit0.72bit1bit1.44bit标准答案: C6、单选题下面哪一项不属于熵的性质:( )。
2分非负性完备性对称性确定性标准答案: B7、单选题根据树图法构成规则,( )。
2分在树根上安排码字在树枝上安排码字在中间节点上安排码字在终端节点上安排码字标准答案: D8、单选题下列组合中不属于即时码的是( )。
2分{0,01,011}{0,10,110}{00,10,11}{1,01,00}标准答案: A9、单选题已知某(6,3)线性分组码的生成矩阵[如图1],则不用计算就可判断出下列码中不是该码集里的码是( )。
2分图1000000110001011101111111标准答案: D10、单选题下列保密编码中属于现代密码体制的是( )2分凯撒密码Vigenere密码韦维纳姆密码DES加密算法标准答案: D11、单选题1948年,美国数学家( )发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
《信息理论与编码》,答案,考试重点(1--3章)
《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。
信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。
2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。
语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。
语用信息是信息的最高层次。
它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。
三者之间是内涵与外延的关系。
第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。
a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。
则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。
随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。
《信息论与编码》第三章部分习题参考答案
第三章习题参考答案3-1解:(1)判断唯一可译码的方法:①先用克劳夫特不等式判定是否满足该不等式;②若满足再利用码树,看码字是否都位于叶子结点上。
如果在叶节点上则一定是唯一可译码,如果不在叶节点上则只能用唯一可译码的定义来判断是不是。
其中C1,C2,C3,C6都是唯一可译码。
对于码C2和C4都满足craft 不等式。
但是不满足码树的条件。
就只能举例来判断。
对C5:61319225218ki i ---==+⨯=>∑,不满足该不等式。
所以C5不是唯一可译码。
(2)判断即时码方法:定义:即时码接收端收到一个完整的码字后,就能立即译码。
特点:码集任何一个码不能是其他码的前缀,即时码必定是唯一可译码, 唯一可译码不一定是即时码。
其中C1,C3,C6都是即时码。
对C2:“0”是“01”的前缀,……,所以C2不是即时码。
(1) 由平均码长61()i i i K p x k ==∑得1236 3 1111712(3456) 241681111712(3456) 2416811152334 24162K bitK bitK bitK bit==⨯+⨯+⨯+++==⨯+⨯+⨯+++==⨯+⨯+⨯⨯=62111223366()()log () 2 /()266.7%3()294.1%178()294.1%178()280.0%52i i i H U p u p u H U K H U K H U K H U K ηηηη==-=============∑比特符号3-7解:(1)信源消息的概率分布呈等比级数,按香农编码方法,其码长集合为自然数数列1, 2, 3, ···, i, ···;对应的编码分别为:0, 10, 110, ···, 111…110 ( i – 1个1), ···。
(2) 先求熵和平均码长,二者的比值即信息传输速率2()()log () 2 /()...2/()1 bit/i i Ii i IH p x p x bit k p x k H R k=-======∑∑X X 符号码元符号码元时间(3)编码效率:η = 1 =100%3-11解:(1)621()()log () 2.355/i i i H X p x p x ==-=∑比特符号(2)香农编码如下表所示:61()0.322(0.220.180.16)30.0840.0452.84/i i i k p x k ===⨯+++⨯+⨯+⨯=∑码元符号() 2.3550.82982.9%2.84H X kη==== (3)费诺编成二进变长制码,%1.984.2355.2)(4.24*04.04*08.03*16.02*18.02*22.02*032)(61====+++++==∑=k x H k x p K ii iη(4)huffman 编码%1.984.2355.2)(4.21=====k x H ii iη(5)huffman 三进制%7.7511.3355.2)(11.33log *)3*04.03*08.03*16.02*18.02*22.01*032(3log *)(2261====+++++==∑=k x H k x p K ii iη(6)log 26=2.58 采用定长码则必须使得K=3才能完成编码 效率%5.783355.2)(===k x H η(7)046.0%1.98355.2355.2)()(==+=+=εεεηx H x HL ≧23865810*046.0505.0*3222==-δεσ3-12解:(1) 821()()log () 2.56/i i i H X p x p x ==-=∑比特符号R=H(X)=2.56 bit/s{}505.0355.2)04.0(log *04.0)08.0(log *08.0)16.0(log *16.0)18.0(log *18.0)22.0(log *22.0)32.0(log *32.0)]([)]()[log ()]()([2222222221222=-+++++=-=-=∑=X H x p x p X H x I E ni iiiσ。
1信息理论与编码课后答案(吕锋王虹著)人民邮电出版社
第一章教材习题1.1. 试述信息与知识、消息和信号之间的区别与联系,并举例说明。
1.2. 详述钟义信先生的信息定义体系。
1.3. 试查阅文献,说明信息具有哪些特征和性质?1.4. 说明通信系统模型由哪几部分组成,并详细讨论每一部分的功能。
1.5. 试述信息论的研究内容?第二章教材习题信源模型2.1 试简述信源分类以及各种信源特点。
信息的描述2.2 在非理想观察模型中,存在哪些不确定性,它们与信息有何关系?不确定性与信息2.3 一副充分洗乱的牌(含52 张),试问:(1)任一特定排列所给出的不确定性是多少?(2)随机抽取13 张牌,13 张牌的点数互不相同时的不确定性是多少?2.4 同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1)“3 和 5 同时出现”这事件的自信息量。
(2)“两个1 同时出现”这事件的自信息量。
(3)两个点数的各种组合(无序对)的统计平均自信息量。
(4)两个点数之和(即2,3,…,12 构成的子集)的熵。
(5)两个点数中至少有一个是1 的自信息量。
2.5 设在一只布袋中装有100 只对人手的感觉完全相同的木球,每只上涂有1 种颜色。
100只球的颜色有下列三种情况:(1)红色球和白色球各50 只;(2)红色球99 只,白色球1 只;(3)红,黄,蓝,白色各25 只。
求从布袋中随意取出一只球时,猜测其颜色所需要的信息量。
2.8 大量统计表明,男性红绿色盲的发病率为7,女性发病率为0.5,如果你问一位男同志是否为红绿色盲,他回答“是”或“否”。
(1)这二个回答中各含多少信息量(2)平均每个回答中含有多少信息量(3)如果你问一位女同志,则答案中含有的平均信息量是多少联合熵和条件熵2.9 任意三个离散随机变量X 、Y 和Z ,求证:H XYZ H XY ≤ H XZ H X 。
平均互信息及其性质2.11 设随机变量X x1 x2 01 和Y y1 y2 01 的联合概率空间为XY x1 y1 x1 y2x2 y1 x2 y2 P 1 8 38 38 18 XY定义一个新随机变量Z X × Y (普通乘积)。
信息理论与编码答案 人民邮电出版社
第一章 自我测试题一、填空题1. 在认识论层次上研究信息的时候,必须同时考虑到形式、__语义___和__语用___三个方面的因素。
2. 如果从随机不确定性的角度来定义信息,信息是用以消除__随机不确定性___的东西。
3. 信源编码的结果是__减小_冗余;而信道编码的手段是__增加___冗余。
4. _1948_年,香农发表了著名的论文__通信的数学理论__,标志着信息论诞生。
5. 信息商品是一种特殊商品,它有__保存性_性、_共享_性、_老化可能_性和 知识创造性 等特征。
二、判断题1. 信息传输系统模型表明,噪声仅仅来源于信道(×)2. 本体论层次信息表明,信息不依赖于人而存在(√)3. 信道编码与译码是一对可逆变换(×)4. 1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始(×)5. 基因组序列信息的提取和分析是生物信息学的研究内容之一(√)三、选择题1.下列表述中,属于从随机不确定性的角度来定义信息的是__D___ A . 信息是数据B . 信息是集合之间的变异度C . 信息是控制的指令D . 信息是收信者事先不知道的报道 2.___B__是最高层次的信息 A . 认识论 B . 本体论 C . 价值论 D . 唯物论 3.下列不属于狭义信息论的是__D___ A . 信息的测度 B . 信源编码 C . 信道容量 D . 计算机翻译 4.下列不属于信息论的研究内容的是__A___ A . 信息的产生 B . 信道传输能力 C . 文字的统计特性 D . 抗干扰编码 5.下列关于信息论发展历史描述不正确的是__B___A . 偶然性、熵函数引进物理学为信息论的产生提供了理论前提。
B . 1952年,香农发展了信道容量的迭代算法C . 哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。
D . 1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。
信息论与编码理论习题答案
第二章 信息量和熵八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。
解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。
问各得到多少信息量。
解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log =2.585 bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log =5.17 bit经过充分洗牌后的一副扑克〔52张〕,问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 假设从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13.208 bit随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H=2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6 =3.2744 bit)|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit)|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit设一个系统传送10个数字,0,1,…,9。
信息论与编码理论习题答案
第二章 信息量和熵2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。
解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。
问各得到多少信息量。
解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log =2.585 bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13.208 bit 2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H=2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6=3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit)|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit2.10 设一个系统传送10个数字,0,1,…,9。
《信息理论与编码》-答案-考试重点(1--3章)
《信息理论与编码》习题参考答案1. 信息是什么?信息与消息有什么区别和联系?答:信息是对事物存在和运动过程中的不确定性的描述。
信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。
2. 语法信息、语义信息和语用信息的定义是什么?三者的关系是什么? 答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。
语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。
语用信息是信息的最高层次。
它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。
三者之间是内涵与外延的关系。
第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量?答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。
a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。
则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。
随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。
信息论与编码期末考试题----学生复习
《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性.2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为bit/符号.4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr=H r(S))。
5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高斯分布或正态分布或时,信源具有最大熵,其值为值。
9、在下面空格中选择填入数学符号“”或“"(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。
(2)(3)假设信道输入用X表示,信道输出用Y表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X).二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
=2bit/自由度该信源的绝对熵为无穷大。
三、已知信源(1)用霍夫曼编码法编成二进制变长码;(6分)(2)计算平均码长;(4分)(3)计算编码信息率;(2分)(4)计算编码后信息传输率;(2分)(5)计算编码效率。
(2分)(1)编码结果为:(2)(3)(4)其中,(5)四、某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
如果符号的码元宽度为0.5。
计算:(1)信息传输速率。
(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为.试计算正确传输这些数据最少需要的发送功率P。
解:(1)(2)五、一个一阶马尔可夫信源,转移概率为。
信息论与编码理论课后答案
信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。
2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的是建立信息论的基础。
7、8、是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维连续随即变量x在[a,b] 。
1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。
2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。
信息理论与编码课后答案第5章
第5章 有噪信道编码5.1 基本要求通过本章学习,了解信道编码的目的,了解译码规则对错误概率的影响,掌握两种典型的译码规则:最佳译码规则和极大似然译码规则。
掌握信息率与平均差错率的关系,掌握最小汉明距离译码规则,掌握有噪信道编码定理(香农第二定理)的基本思想,了解典型序列的概念,了解定理的证明方法,掌握线性分组码的生成和校验。
5.2 学习要点5.2.1 信道译码函数与平均差错率5.2.1.1 信道译码模型从数学角度讲,信道译码是一个变换或函数,称为译码函数,记为F 。
信道译码模型如图5.1所示。
5.2.1.2 信道译码函数信道译码函数F 是从输出符号集合B 到输入符号集合A 的映射:*()j j F b a A =∈,1,2,...j s =其含义是:将接收符号j b B ∈译为某个输入符号*j a A ∈。
译码函数又称译码规则。
5.2.1.3 平均差错率在信道输出端接收到符号j b 时,按译码规则*()j j F b a A =∈将j b 译为*j a ,若此时信道输入刚好是*j a ,则称为译码正确,否则称为译码错误。
j b 的译码正确概率是后验概率:*(|)()|j j j j P X a Y b P F b b ⎡⎤===⎣⎦ (5.1)j b 的译码错误概率:(|)()|1()|j j j j j P e b P X F b Y b P F b b ⎡⎤⎡⎤=≠==-⎣⎦⎣⎦ (5.2)平均差错率是译码错误概率的统计平均,记为e P :{}1111()(|)()1()|1(),1()|()s se j j j j j j j ssj j j j j j j P P b P e b P b P F b b P F b b P F b P b F b ====⎡⎤==-⎣⎦⎡⎤⎡⎤⎡⎤=-=-⎣⎦⎣⎦⎣⎦∑∑∑∑ (5.3)5.2.2 两种典型的译码规则两种典型的译码规则是最佳译码规则和极大似然译码规则。
信息论与编码理论_西安电子科技大学中国大学mooc课后章节答案期末考试题库2023年
信息论与编码理论_西安电子科技大学中国大学mooc课后章节答案期末考试题库2023年1.在现代通信系统中,信源编码主要用于解决信息传输中的可靠性问题,信道编码主要用于解决信息传输中的有效性问题。
参考答案:错误2.时间离散的可加高斯噪声信道,若限定输入平均功率上限为1,噪声服从高斯分布N(0,1),则该信道信道容量为____比特。
(保留一位有效数字)参考答案:0.53.无失真信源编码方法中,huffman编码属于分块编码,而算术编码和LZ编码属于连续编码。
参考答案:正确4.二元码【图片】_____。
参考答案:不是唯一可译码5.典型序列集的元素数目大于非典型序列集。
参考答案:错误6.X, Y和Z为离散型随机变量,I(XY;Z) ____I(X;Z)参考答案:大于等于7.设离散无记忆信道输入集合为{0,1},输出集合为{0,1},信道转移概率矩阵为【图片】。
则信道容量为_____比特(保留四位有效数字)参考答案:0.18878.接上题,最佳输入分布为____分布参考答案:高斯##%_YZPRLFH_%##正态##%_YZPRLFH_%##均值为0,方差为1的高斯分布##%_YZPRLFH_%##均值为0,方差为1的正态分布9.令信道输入端熵为H(X),输出端熵为H(Y),若该信道为无噪有损信道,其信道容量为参考答案:H(Y)10.当离散信源的输出服从 ___ 分布时,其熵值为最大。
参考答案:等概率11.信道输入与输出间的平均互信息是信道传递概率的函数。
参考答案:下凸12.信道输入与输出间的平均互信息是输入分布的函数。
参考答案:上凸13.当离散信源输出服从分布时,其熵为最大。
参考答案:等概率分布14.熵功率与平均功率的数值关系为【图片】参考答案:≥15.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<”H(XY) H(Y)+H(X∣Y)参考答案:=16.在平均功率受限情况下,非高斯噪声信道的容量要大于高斯噪声信道的容量。
信息论与编码理论-习题答案-姜楠-王健-编著-清华大学
可得 ,3种状态等概率分布。
一阶马尔可夫信源熵为
信源剩余度为
(2)二阶马尔可夫信源有9种状态(状态转移图略),同样列方程组求得状态的平稳分布为
二阶马尔可夫信源熵为
信源剩余度为
由于在上述两种情况下,3个符号均为等概率分布,所以信源剩余度都等于0。
总的概率
所需要的信息量
2.6设 表示“大学生”这一事件, 表示“身高1.60m以上”这一事件,则
故
2.7四进制波形所含的信息量为 ,八进制波形所含信息量为 ,故四进制波形所含信息量为二进制的2倍,八进制波形所含信息量为二进制的3倍。
2.8
故以3为底的信息单位是比特的1.585倍。
2.9(1)J、Z(2)E(3)X
(2)三元对称强噪声信道模型如图所示。
4.7由图可知信道1、2的信道矩阵分别为
它们串联后构成一个马尔科夫链,根据马氏链的性质,串联后总的信道矩阵为
4.8传递矩阵为
输入信源符号的概率分布可以写成行向量形式,即
由信道传递矩阵和输入信源符号概率向量,求得输出符号概率分布为
输入符号和输出符号的联合概率分布为
由冗余度计算公式得
3.18(1)由一步转移概率矩阵与二步转移概率矩阵的公式 得
(2)设平稳状态 ,马尔可夫信源性质知 ,即
求解得稳态后的概率分布
3.19设状态空间S= ,符号空间
且
一步转移概率矩阵
状态转移图
设平稳状态 ,由马尔可夫信源性质有
即
可得
马尔可夫链只与前一个符号有关,则有
3.20消息元的联合概率是
平均信息传输速率
信息理论与编码》,答案,考试重点(1--3章)
《信息理论与编码》习题参考答案1. 信息是什么信息与消息有什么区别和联系答:信息是对事物存在和运动过程中的不确定性的描述。
信息就是各种消息符号所包含的具有特定意义的抽象内容,而消息是信息这一抽象内容通过语言、文字、图像和数据等的具体表现形式。
2. 语法信息、语义信息和语用信息的定义是什么三者的关系是什么答:语法信息是最基本最抽象的类型,它只是表现事物的现象而不考虑信息的内涵。
语义信息是对客观现象的具体描述,不对现象本身做出优劣判断。
语用信息是信息的最高层次。
它以语法、语义信息为基础,不仅要考虑状态和状态之间关系以及它们的含义,还要进一步考察这种关系及含义对于信息使用者的效用和价值。
三者之间是内涵与外延的关系。
第2章1. 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量答:依据题意,这一随机事件的概率空间为120.80.2X x x P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦其中:1x 表示摸出的球为红球事件,2x 表示摸出的球是白球事件。
a)如果摸出的是红球,则获得的信息量是()()11log log0.8I x p x =-=-(比特)b)如果摸出的是白球,则获得的信息量是()()22log log0.2I x p x =-=-(比特)c) 如果每次摸出一个球后又放回袋中,再进行下一次摸取。
则如此摸取n 次,红球出现的次数为()1np x 次,白球出现的次数为()2np x 次。
随机摸取n 次后总共所获得信息量为()()()()1122np x I x np x I x +d)则平均随机摸取一次所获得的信息量为()()()()()()()()()112211221log log 0.72 H X np x I x np x I x n p x p x p x p x =+⎡⎤⎣⎦=-+⎡⎤⎣⎦=比特/次2. 居住某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(1)符号之间的相互依赖性造成了信源的条件熵 比信源熵 少。
(2)联合熵 表示平均每两个信源符号所携带的信息量。平均每一个信源符号所携带的信息量近似为
原因在于 考虑了符号间的统计相关性,平均每个符号的不确定度就会小于不考虑符号相关性的不确定度。
2、20黑白气象传真图的消息只有黑色(B)与白色(W)两种,即信源 ,设黑色出现的概率为 ,白色的出现概率为 。
(1)假设图上黑白消息出现前后没有关联,求熵
(2)假设图上黑白消息出现前后有关联,其依赖关系为 , , , ,求此一阶马尔可夫信源的熵 。
(3)分别求上述两种信源的剩余度,并比较 与 的大小,试说明其物理意义。
解:(1)假设传真图上黑白消息没有关联,则等效于一个DMS,则信源概率空间为
信源熵为
(2)该一阶马尔可夫信源的状态空间集为
解:猜测木球颜色所需要的信息量等于木球颜色的不确定性。令
R——“取到的就是红球”,W——“取到的就是白球”,
Y——“取到的就是黄球”,B——“取到的就是蓝球”。
(1)若布袋中有红色球与白色球各50只,即
则 bit
(2)若布袋中红色球99只,白色球1只,即
则 bit
bit
(3)若布袋中有红,黄,蓝,白色各25只,即
0
1
2
0
1/4
1/18
0
1
1/18
1/3
1/18
2
0
1/18
7/36
求信源的信息熵、条件熵与联合熵,并比较信息熵与条件熵的大小。
解:边缘分布为
条件概率 如下表:
0
1
2
0
9/11
1/8
0
1
2/11
3/4
2/9
2
0
1/8
7/9
所以信源熵为
条件熵:
可知
因为无条件熵不小于条件熵,也可以得出如上结论。
联合熵:
则发生事件B所得到的信息量为
bit
dit
2、5设在一只布袋中装有100只对人手的感觉完全相同的木球,每只上涂有1种颜色。100只球的颜色有下列三种情况:
(1)红色球与白色球各50只;
(2)红色球99只,白色球1只;
(3)红,黄,蓝,白色各25只。
求从布袋中随意取出一只球时,猜测其颜色所需要的信息量。
(2)平均每个回答中含有多少信息量?
(3)如果您问一位女同志,则答案中含有的平均信息量就是多少?
解:对于男性,就是红绿色盲的概率记作 ,不就是红绿色盲的概率记作 ,这两种情况各含的信息量为
bit
bit
平均每个回答中含有的信息量为
bit/回答
对于女性,就是红绿色盲的概率记作 ,不就是红绿色盲的记作 ,则平均每个回答中含有的信息量为
(1)试问这个信源就是否就是平稳的?
(2)试计算 , 及 ;
(3)试计算 并写出 信源中可能有的所有符号。
2、3一副充分洗乱的牌(含52张),试问:
(1)任一特定排列所给出的不确定性就是多少?
(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性就是多少?
解:(1)52张扑克牌可以按不同的顺序排列,所有可能的不同排列数就就是全排列种数,为
因为扑克牌充分洗乱,任一特定排列出现的概率相等,设事件A为任一特定排列,则其发生概率为
bit/回答
联合熵与条件熵
2、9任意三个离散随机变量 、 与 ,求证:
。
证明:
方法一:要证明不等式 成立,等价证明下式成立:
根据熵函数的定义
得证
方法二:因为
所以,求证不等式等价于
因为条件多的熵不大于条件少的熵,上式成立,原式得证。
2、11设随机变量 与 的联合概率空间为
定义一个新随机变量 (普通乘积)。
H =H
H =H
H =H -H
根据对称性,把X与Y互换得
H =H
H =H -H
(3)
根据对称性,得
根据对称性得
2、17设信源发出二次扩展消息 ,其中第一个符号为A、B、C三种消息,第二个符号为D、E、F、G四种消息,概率 与 如下:
A
B
C
1/2
1/3
1/6
D
1/4
3/10
1/6
E
1/4
1/51/2ຫໍສະໝຸດ F可得,该排列发生所给出的信息量为
bit
dit
(2)设事件B为从中抽取13张牌,所给出的点数互不相同。
扑克牌52张中抽取13张,不考虑排列顺序,共有 种可能的组合。13张牌点数互不相同意味着点数包括A,2,…,K,而每一种点数有4种不同的花色意味着每个点数可以取4中花色。所以13张牌中所有的点数都不相同的组合数为 。因为每种组合都就是等概率发生的,所以
2、23设信源为
试求:
(1)信源的熵、信息含量效率以及冗余度;
(2)求二次与三次扩展信源的概率空间与熵。
解:(1)
(2)假设X为DMS,则
可得二次扩展信源的概率空间
2次扩展信源的熵为
三次扩展信源的概率空间及熵为
2、18设有一个信源,它产生0,1符号的信息。它在任意时间而且不论以前发生过什么符号,均按 的概率发出符号。
(1)计算熵 、 、 、 、 以及 ;
(2)计算条件熵 、 、 、 、 、 、 、 以及 ;
(3)计算互信息量 、 、 、 、 以及 ;
解(1)
bit/symbol
bit/symbol
可得 的概率空间如下
由 得
由对称性可得
(2)
H -
H =H -H
根据对称性,
H =H
H =H -H
H =H -H
根据对称性,
则 bit
2、7设信源为
求 ,井解释为什么 ,不满足信源熵的极值性。
解:
bit/symbol
不满足极值性的原因就是 ,不满足概率的完备性。
2、8大量统计表明,男性红绿色盲的发病率为7%,女性发病率为0、5%,如果您问一位男同志就是否为红绿色盲,她回答“就是”或“否”。
(1)这二个回答中各含多少信息量?
1/4
1/5
1/6
G
1/4
3/10
1/6
求二次扩展信源的联合熵 。
解:联合概率为
可得X,Y的联合概率分布如下:
A
B
C
D
1/8
1/10
1/36
E
1/8
1/15
1/12
F
1/8
1/15
1/36
G
1/8
1/10
1/36
所以
2、19设某离散平稳信源 ,概率空间为
并设信源发出的符号只与前一个相邻符号有关,其联合概率为 如下表所示:
根据题意可得状态的一步转移矩阵
状态极限概率 满足
即
可以解得
,
该一阶马尔可夫信源的熵为
(3)黑白消息信源的剩余度为
一阶马尔可夫信源的剩余度为
由前两小题中计算的 与 比较可知
该结果说明:当信源的消息(符号)之间有依赖时,信源输出消息的不确定性降低。所以,信源消息之间有依赖时信源熵小于信源消息之间无依赖时信源熵。这表明信源熵反映了信源的平均不确定性的大小。而信源剩余度反映了信源消息依赖关系的强弱,剩余度越大,信源消息之间依赖关系就越大。