第二章 信源熵-习题答案
信息论与编码第二章答案
2-1、一阶马尔可夫链信源有3个符号{}123,,u u u ,转移概率为:1112()u p u=,2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。
画出状态图并求出各符号稳态概率。
解:由题可得状态概率矩阵为:1/21/20[(|)]1/302/31/32/30j i p s s ⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦状态转换图为:令各状态的稳态分布概率为1W ,2W ,3W ,则: 1W =121W +132W +133W , 2W =121W +233W , 3W =232W 且:1W +2W +3W =1 ∴稳态分布概率为:1W =25,2W =925,3W = 6252-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。
解:状态转移概率矩阵为:令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1-17)可得方程组。
1111221331441132112222332442133113223333443244114224334444240.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+⎧⎪=+++=+⎪⎨=+++=+⎪⎪=+++=+⎩ 且12341w w w w +++=;0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦解方程组得:12345141717514w w w w ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩ 即:5(00)141(01)71(10)75(11)14p p p p ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是16,求:(1)、“3和5同时出现”事件的自信息量;(2)、“两个1同时出现”事件的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵; (5)、两个点数中至少有一个是1的自信息量。
第二章 信源熵-习题答案
· 1 ·2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0=== 所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
2.2 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。
假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量?解:设随机变量X 代表女孩子学历X x 1(是大学生) x 2(不是大学生) P(X) 0.25 0.75设随机变量Y 代表女孩子身高Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 0.5 0.5已知:在女大学生中有75%是身高160厘米以上的 即:bit x y p 75.0)/(11=求:身高160厘米以上的某女孩是大学生的信息量 即:bit y p x y p x p y x p y x I 415.15.075.025.0log )()/()(log )/(log )/(11111111=⨯-=-=-=2.3 一副充分洗乱了的牌(含52张牌),试问(1) 任一特定排列所给出的信息量是多少?(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量?解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:!521)(=i x p bit x p x I i i 581.225!52log )(log )(==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:· 2 ·bit C x p x I C x p i i i 208.134log)(log )(4)(135213135213=-=-==2.4 设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I 811.87log =-= (2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==2.5 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?解: 男士:sym bolbit x p x p X H bitx p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%93)( 837.307.0log )(log )(%7)(2=+-=-==-=-===-=-==∑女士:symbol bit x p x p X H ii i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2=+-=-=∑2.6 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡17.016.017.018.019.02.0)(654321x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6不满足信源熵的极值性。
信息论习题答案第二章陈前斌版
第2章习题2-3 同时掷两个正常的骰子,也就是各面呈现的概率都是l/6,求: (1) “3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量; (4) 两个点数之和(即 2,3,…,12构成的子集)的熵; (5)两个点数中至少有一个是1的自信息。
解:(1)P (3、5或5、3)=P (3、5)+P (5、3)=1/18I =log2(18)= 4.1699bit 。
(2)P (1、1)=l/36。
I =log2(36)=5.1699bit 。
(3)相同点出现时(11、22、33、44、55、66)有6种,概率1/36。
不同点出现时有15种,概率1/18。
H (i ,j )=6*1/36*log 2(36)+15*1/18*log 2(18)=4.3366bit/事件。
2/36 1/36)=3.2744bit/事件。
(5)P (1、1or1、j or i 、1)=1/36+5/36+5/36=11/36。
I =log2(36/11)=1.7105bit/2-5 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为1.6m 以上,而女孩中身高1.6m 以上的占总数一半。
假如得知“身高1.6m 以上的某女孩是大学 生”的消息,问获得多少信息量?、解:P (女大学生)=1/4;P (身高>1.6m / 女大学生)=3/4;P (身高>1.6m )=1/2; P (女大学生 / 身高>1.6m )=P (身高>1.6m 、女大学生)/P (身高>1.6m ) =3/4*1/4*2=3/8 I =log2(8/3)=1.4150bit 。
2-7两个实验123{,,}X x x x =和123{,,}Y y y y =,联合概率()i j ij p x y p =为1112132122233132337/241/2401/241/41/2401/247/24p p p p p p p p p ⎡⎤⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦(1)如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少? (2)如果有人告诉你Y 的实验结果,你得到的平均信息量是多少?(3)在已知Y 的实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少? 解:(1)3311(,)(,)log (,)2.301/i j i j i j H X Y p x y P x y bit symbol===-=∑∑(2)31()()log ()1.5894/j j j H Y p y p y bit symbol==-=∑(3)(|)(,)()2.301 1.58940.7151/H X Y H X Y H Y bit symbol=-=-=2.11某一无记忆信源的符号集为{}0,1,已知01/4p =,13/4p =。
2.1.2 信源熵
i, j
i
j
p(aib j )log p(ai ) p(b j / ai )
p(ai b j )log p(ai )
i, j
i, j
i, j
ห้องสมุดไป่ตู้
p(aib j )log p(b j / ai )
i, j
i, j
p(ai )log p(ai ) p(ai b j )log p(b j / ai )
p(ai )log2 p(ai ) H ( X )
其中
p( b ) p( a / b ) p( a b ) p( a )
j i j i j i j j
i
【例2.12】 二进制通信系统中使用符号0和1 。由于存在失真,
传输时会产生误码,用符号表示下列事件:
a0:发出一个0;a1:发出一个1;b0:收到一个0;b1:收到一个 1。给定下列概率:p(a0)=1/2,p(b0/a0)=3/4,p(b0/a1)=1/2。求:
①已知发出一个“0”,收到符号后得到的信息量;
②已知发出的符号,收到符号后得到的信息量; ③已知发出的和收到的符号得到的信息量; ④已知收到的符号,被告知发出的符号得到的信息量。
某一信源,不管它是否输出符号,只要这些符号具有某些概
率特性,必有信源的熵值;此熵值是在总体平均上才有意义, 因而是一个确定值,一般写成H(X) ,X是指随机变量的整体 (包括概率分布)。
只有当信源输出符号而被接收者收到后,信息量才有意义,
这就是给予接收者的信息度量,此值本身也可以是随机量, 也可以与接收者的情况有关。
当某一符号ai的概率pi
为零时, pi logpi 在熵公式中无意义, 为此规定这时的pi logpi也为零。当信源X中只含一个符号a 时, 必定有 p(a)=1,此时信源熵H(X)也为零。
信源熵例题
物理与信息工程学院 郭里婷
10
2019/2/7
例2:随机变量X表示人的性别,X=0表示男性,X=1表示女性;随即变量Y表 示是否抽烟,Y=0表示抽烟,Y=1表示不抽烟。(X,Y)的联合分布分别如下3 种情况时,求抽到的是男性给抽烟这个事件提供多大的信息量。
物理与信息工程学院 郭里婷
11
2019/2/7
物理与信息工程学院 郭里婷
12
2019/2/7
例3:设信源发出8种消息(符号),各消息等概发送,各符号分别用3位二进 码元表示,并输出消息(事件),设8个消息按自然二进制进行编码,见 p23表2-3。通过对输出码元序列的观察来推测信源的输出。假设信源发出 的消息x4,用二进码011表示, 求依次接收0,01,011后,得到的关于x4 的信息量。
X x1 (红), x2 (白) P 0.8, 0.2
物理与信息工程学院 郭里婷
2
2019/2/7
单符号无记忆连续信源 例2:一节5V的干电池,测电压。电压可以看成单符号无记 忆连续信源。消息数无限多.
物理与信息工程学院 郭里婷
3
2019/2/7
信息论与编码
第二章 信源熵 例题
福州大学物理与信息工程学院 郭里婷
物理与信息工程学院 郭里婷
1
2019/2/7
第二章 第一节例题
单符号无记忆离散信源 例1:一个布袋中有100个球,其中80个红色,20个白色。随 机摸取一个球,看颜色。球的颜色可以看成单符号无记忆离 散信源。消息数量为2,红白消息的概率分别为0.8和0.2。
X x1 x1 , x1 x2 , x2 x1 , x2 x2 P 0.64, 0.16, 0.16, 0.04
第2章信源熵--马尔科夫信源及极限熵
信源熵
四、马尔科夫信源及其极限熵
1、马尔科夫信源
定义
N维离散平稳信源符号序列中第N个符号只与前m (≤N-1)个符号相关,该信源为m阶马尔科夫信源。
马尔科夫信源是离散平稳有限记忆信源,其记忆 长度为m 。* m阶马尔科夫信源符号序列的长度N=m+1。
信源熵
信源熵
中华人民共和国
中国
*华人民*和国
*国
信源熵 抽象描述
实际信源抽象为N维离散平稳信源,H∞是其熵率, 即从理论上看,只要传送H∞就可以了。 但是这必须掌握信源的全部统计特性,这显然是 不现实的。实际中,只能掌握有限记忆长度m, 其熵率用Hm+1近似,即需要传送Hm+1 与理论值相比,多传送了Hm+1-H∞ 由于Hm+1>H∞,表现在信息传输上存在冗余。
信源熵
0.2P(s1 ) 0.5P(s3 ) 0 0.2P(s1 ) P(s 2 ) 0.5P(s3 ) 0 0.5P(s 2 ) P(s3 ) 0.2P(s 4 ) 0 0.5P(s 2 ) 0.2P(s 4 ) 0
完备性
P(s1 ) P(s2 ) P(s3 ) P(s4 ) 1
信源熵
定义
信源的m阶极限熵Hm+1与N-1阶极限熵H∞的相对差 为该信源的冗余度,也叫剩余度。
信源熵
马尔可夫链的应用 排队理论和统计学中的建模,还可作为信号模型用 于熵编码技术,如算术编码 著名的LZMA数据压缩算法就使用了马尔可夫链与 类似于算术编码的区间编码。 生物学应用, 人口过程,可以帮助模拟生物人口过程的建模。 隐蔽马尔可夫模型还被用于生物信息学,用以编 码区域或基因预测。 马尔可夫链最近的应用是在地理统计学 (geostatistics)中,被称为是“马尔可夫链地理 统计学”。仍在发展过程中。
信息论与编码第二章答案
信息论与编码第二章答案本页仅作为文档封面,使用时可以删除This document is for reference only-rar21year.March2-1、一阶马尔可夫链信源有3个符号{}123,,u u u ,转移概率为:1112()u p u =,2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。
画出状态图并求出各符号稳态概率。
解:由题可得状态概率矩阵为:1/21/20[(|)]1/302/31/32/30j i p s s ⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦状态转换图为:令各状态的稳态分布概率为1W ,2W ,3W ,则:1W =121W +132W +133W , 2W =121W +233W , 3W =232W 且:1W +2W +3W =1 ∴稳态分布概率为:1W =25,2W =925,3W = 6252-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=,P(0|11)=,P(1|00)=,P(1|11)=,P(0|01)=,p(0|10)=,p(1|01)=,p(1|10)=画出状态图,并计算各符号稳态概率。
解:状态转移概率矩阵为:令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1-17)可得方程组。
1111221331441132112222332442133113223333443244114224334444240.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+⎧⎪=+++=+⎪⎨=+++=+⎪⎪=+++=+⎩ 且12341w w w w +++=;0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦解方程组得:12345141717514w w w w ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩ 即:5(00)141(01)71(10)75(11)14p p p p ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩ 2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是16,求:(1)、“3和5同时出现”事件的自信息量; (2)、“两个1同时出现”事件的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵;(5)、两个点数中至少有一个是1的自信息量。
信息论习题解答
第二章 信息量和熵2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。
解:同步信息均相同,不含信息,因此每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。
问各得到多少信息量。
解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61 得到的信息量 =)(1loga p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=)(1logb p =36log =5.17 bit2.4 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521 信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13.208 bit2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6 =3.2744 bit)|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit)|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit2.10 设一个系统传送10个数字,0,1,…,9。
信息论与编码第2章习题解答
2.1设有12枚同值硬币,其中一枚为假币。
只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。
现用比较天平左右两边轻重的方法来测量(因无砝码)。
为了在天平上称出哪一枚是假币,试问至少必须称多少次?解:分三组,每组4个,任意取两组称。
会有两种情况,平衡,或不平衡。
(1) 平衡:明确假币在其余的4个里面。
从这4个里面任意取3个,并从其余8个好的里面也取3个称。
又有 两种情况:平衡或不平衡。
a )平衡:称一下那个剩下的就行了。
b )不平衡:我们至少知道那组假币是轻还是重。
从这三个有假币的组里任意选两个称一下,又有两种情况:平衡与不平衡,不过我们已经知道假币的轻重情况了,自然的,不平衡直接就知道谁是假币;平衡的话,剩下的呢个自然是假币,并且我们也知道他是轻还是重。
(2) 不平衡:假定已经确定该组里有假币时候:推论1:在知道该组是轻还是重的时候,只称一次,能找出假币的话,那么这组的个数不超过3。
我们知道,只要我们知道了该组(3个)有假币,并且知道轻重,只要称一次就可以找出来假币了。
从不平衡的两组中,比如轻的一组里分为3和1表示为“轻(3)”和“轻(1)”,同样重的一组也是分成3和1标示为“重(3)”和“重(1)”。
在从另外4个剩下的,也就是好的一组里取3个表示为“准(3)”。
交叉组合为:轻(3) + 重(1) ?=======? 轻(1) + 准(3)来称一下。
又会有3种情况:(1)左面轻:这说明假币一定在第一次称的时候的轻的一组,因为“重(1)”也出现在现在轻的一边,我们已经知道,假币是轻的。
那么假币在轻(3)里面,根据推论1,再称一次就可以了。
(2)右面轻:这里有两种可能:“重(1)”是假币,它是重的,或者“轻(1)”是假币,它是轻的。
这两种情况,任意 取这两个中的一个和一个真币称一下即可。
(3)平衡:假币在“重(3)”里面,而且是重的。
根据推论也只要称一次即可。
2.2 同时扔一对骰子,当得知“两骰子面朝上点数之和为2”或“面朝上点数之和为8”或“骰子面朝上之和是3和4”时,试问这三种情况分别获得多少信息量?解:设“两骰子面朝上点数之和为2”为事件A ,则在可能出现的36种可能中,只能个骰子都为1,这一种结果。
信息论基础第二章信源熵-习题答案.doc
为(202120130213001203210110321010021032011223210),求(1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:(]\25X ——,4丿此消息的信息量是:/ =-log/? = 87.811 bit(2)此消息中平均每符号携带的信息量是://〃 = 87.811/45 = 1.951 bit解释为什么> Iog6不满足信源储的极值性。
解: 6 H(X)= -工 /?(%,) log p(xji= -(0.2 log 0.2+ 0.19 log 0.19 + 0.181og0.18 + 0.171og0」7 + 0.161og0.16 + 0.171og0.17) =2.657 bit / symbolW(X)>log 2 6 = 2.5856不满足极值性的原因是工#(兀)=1.07 > i 。
2.7同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息;(2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的*商和平均信息量;(4) 两个点数之和(即2, 3,…,12构成的子集)的储;(5) 两个点数中至少有一个是1的自信息量。
解:2.4 设离散无记忆信源X P(X) 兀[=0 兀2 = 1 兀3 = 2 X 4 =3 3/8 1/4 1/4 1/8 ,其发出的信息 2. 6 ■ X 'x 2 兀4 尤5 兀6 ' > P(X).[0.2 0.19 0.18 0.17 0.16 0」74H(X)=-工"(xjlog #(兀)= 2.010 /=!设信源 求这个信源的储,并⑴用随机事件兀表示“3和5同时出现”,贝UI(x i ) = - log p(xj = - log — = 4.170 bit 18(2)用随机事件齐表示“两个1同吋出现”,则 p(xj = — X —=—'6 6 36/(兀)=- log p{x i ) = -log — = 5」70 bit⑶两个点数的排列如下: 1112 13 14 15 16 2122 23 24 25 26 3132 33 34 35 36 4142 43 44 45 46 5152 53 54 55 56 61 62 63 64 65 6622, 33, 44, 55, 66的概率是卜卜召 其他"组合的概率是2x 肚诂H(X) =-工 p(x /)logp(x,) = -f6x-^log-^ + 15x-l-log-^/ I 3o 3b 1 o 1 o ⑷参考上而的两个点数的排列,可以得出两个点数求和的概率分布如H :Xf 2 3 4 5 6 7 8 9 1() 11 121 1 1 1 1 5 1 5 1 1 1 1]p(X)_ 、36 18 12 9 36 6 36 9 12 18 36.H(X) = -工卩(无)log pg1 . 1 c 1 I 1,1. 1,1. 1,5, 5 1 I 1)-2x ——log — + 2x —log — + 2x — log — + 2x —log —+ 2x — log — + —log —I 36 36 18 18 12 12 9 9 36 36 6 6)= 3.274 bit/symbol⑸p(x.) = —x — xl 1 =——'6 6 36/(x z ) = - log /?(%, ) = - log= 1.710 bit 36共有21种组合:其中11,= 4.337 bit I symbol2.10对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷 暖两个状态,调查结果得联合出现的相对频度如下:若把这些频度看作概率测度,求:(1) 忙闲的无条件爛;(2) 天气状态和气温状态已知时忙闲的条件爛;⑶从天气状态和气温状态获得的关于忙闲的信息。
信源熵的计算与理解习题3及详细解答
习题3-1(情况二:认为事件“0/0”“1/1”不会出现;)
解:设X={S1=“0”, S2=“1”}, (1) Y={ t1=“0” , t2=“1”};
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
序列熵: 而 即:
p(1) [a(1) d (1)] max [a(1) d min] max
由于 t (1) [a(1) d min],
(6 8) (6 8)
且d (1) a(1) t (1)为确定值
H ( X Y ) H ( X ) H (Y / X )
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
信源熵的计算与理解习题3及详细解答
公式:
习题3-1(?)
解:设X={S1=“0”, S2=“1”}, Y={ t1=“0” , t2=“1”};
(1)
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
第二章习题解答
第 二 章 基 本 信 息 论
习题解答
2.3 试求: 试求: (1) 在一付标准扑克牌中抽出一张牌的平均信息量; 在一付标准扑克牌中抽出一张牌的平均信息量; (2) 若扑克仅按它的等级鉴定而不问花色,重复上述计算。 若扑克仅按它的等级鉴定而不问花色,重复上述计算。 解 (1) 每张牌不同,共有 54 种状态且等概, p = 1 / 54, 每张牌不同, 种状态且等概, 平均信息量为: 平均信息量为: I = log 54 = 5.7549 ( bit ); (2) 只按等级,共有 14 种状态,其状态空间为: 只按等级, 种状态,其状态空间为: X p(x) A 2 3 …… J Q K 王 2 54 4 4 4 4 4 4 …… 54 54 54 54 54 54
首先求联合概率: 首先求联合概率: p ( i j ) = p( i ) p( j / i ) p( i j ) A B C A 0 16 / 54 2 / 54 j B 36 / 135 16 / 54 4 / 135 C 9 / 135 0 2 / 270 7
i
第 二 章 基 本 信 息 论
习题解答
所提供的信息量分别为: 消息 xB和 xC 所提供的信息量分别为:
I ( x B ) = − log p( x B ) = − log 0.2 = 2.3219 (bit ); I ( xC ) = − log p( xC ) = − log 0.3 = 1.737 (bit ).
可见, 消息x 所提供的信息量大一些 大一些。 可见,消息 xB比消息 C 所提供的信息量大一些。 3
i
1 1 4 4 2 2 H ( x / y3 ) = − log − log − log = 1.3788 ; 7 7 7 7 7 7 H ( x / y4 ) = −(1 / 3) log(1 / 3) − ( 2 / 3) log( 2 / 3) = 0.9138 .
信息论与编码课后习题答案
信息论与编码课后习题答案第二章2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。
解:(1)bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==⨯+⨯=(2)bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-==⨯=(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是3616161=⨯ 其他15个组合的概率是18161612=⨯⨯ symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=⎪⎭⎫ ⎝⎛⨯+⨯-=-=∑参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:symbolbit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=⎪⎭⎫ ⎝⎛+⨯+⨯+⨯+⨯+⨯-=-=⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡∑(5)bit x p x I x p i i i 710.13611log)(log )(3611116161)(=-=-==⨯⨯=2.42.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r ⎛⎫⎛⎫⎪ ⎪= ⎪ ⎪ ⎪ ⎪⎝⎭⎝⎭(1) 如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少?(2) 如果有人告诉你Y 的实验结果,你得到的平均信息量是多少?(3) 在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?解:联合概率(,)i j p x y 为 22221(,)(,)log (,)724112log 4log 24log 4247244i j i j ijH X Y p x y p x y ==⨯+⨯+∑=2.3bit/符号X 概率分布 21()3log 3 1.583H Y =⨯=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是 =0.72bit/符号 Y y1 y2 y3 P8/248/248/242.15P(j/i)=2.16 黑白传真机的消息元只有黑色和白色两种,即X={黑,白},一般气象图上,黑色的Y X y1y 2 y 3 x 1 7/24 1/24 0 x 2 1/24 1/4 1/24 x 31/247/24X x 1 x 2 x 3 P8/248/248/24出现概率p(黑)=0.3,白色出现的概率p(白)=0.7。
1-4 信源熵-习题答案
600
1030 3408 2520
382
489 1808 859
3.137
3.1595 3.1415929 3.1795
利用蒙特卡罗(Monte Carlo)法进行计算机模拟. 取a 1, b 0.85. 单击图形播放/暂停 ESC键退出
二
概率的公理化定义
概率 P 是在事件域 上有定义的集合函数,它
§1.4
一
概率的公理化定义及概率的性质
几何概率 古典概型中试验结果是有限的,但许多问题试验
结果是无限的,一般的情况是不易解决的,下面考虑 所谓的“等可能性”问题. 在一个面积为 S 的区域 中,等可能地投点.这 里“等可能”的确切意义是:设在区域 中有任意一个 小区域 A ,如果它的面积为 S A,则点落入 A 中的可 能性大小与 S A成正比,而与 A 的位置和形状无关。
所以 1 P ( S ) P ( A A) P ( A) P ( A) . P ( A) 1 P ( A).
(6) ( 加法公式) 对于任意两事件 A, B 有 P ( A B ) P ( A) P ( B ) P ( AB ).
证明 由图可得
A B A ( B AB),
通常,在
代数 上有定义的非负、可列可加的
上
集函数称作是 上的测度.概率不过是事件域
的一个规范化的测度.
一般地描述一个随机试验的数学模型,应该有 三件东西: (1) 样本空间 (2) 事件域 (3) 概率(上的规范测度) P 三者写成 ( , , P) 并称它是一个概率空间.
会面问题
例7 甲、乙两人相约在 0 到 T 这段时间内, 在预 定地点会面. 先到的人等候另一个人, 经过时间 t ( t<T ) 后离去.设每人在0 到T 这段时间内各时刻
第二章 信源熵练习题
6、已知离散随机变量 X 和 Y,及相应的熵 H(X)、H(Y)、H(XY)、 H(X/Y)、H(Y/X)则,X 和 Y 之间的平均互信息 I(X;Y)=( )
A、 H(XY)-H(Y); B、 H(XY)-H(X); C、 H(X)-H(X/Y); D、 H(X)-H(Y/X)
7、已知离散随机变量 X 和 Y,及相应的熵 H(X)、H(Y)、H(XY)、 H(X/Y)、H(Y/X)则,X 和 Y 之间的平均互信息 I(X;Y)=( )
期望(或者概率统计/加权平均) ,在数学上表达为
H XY p( xi y j )I ( xi y j ) p( xi y j ) log p( xi y j ) 。
i 1 j 1 i 1 j 1
n
m
n
m
7. 条件熵是联合离散符号集合 XY 上,条件自信息量的的数学期望(或者概 率统计/加权平均) ,在数学上表达为
是互信息在对应联合概率空间上的数学期望(概率统计平均/概率加权平 均) ,也具有对称性 I (X; Y) I (Y; X) ,有三种表达形式:1)
I ( X; Y) H X H X / Y ;2) I (Y; X) H Y H Y / X ;3) I ( X; Y) H X H Y H XY 。
H X Y p ( xi y j )I ( xi y j ) p ( xi y j ) log p ( xi y j )
i 1 j 1 i 1 j 1
n
m
n
mቤተ መጻሕፍቲ ባይዱ
8. 平均符号熵是离散平稳信源输出 N 长的信源符号序列中平均每个信源符号 所携带的信息量称为平均符号熵,记为 H N X ,数学上表达为
信源及信源熵习题答案
(1)
(2)
(3)
H(X) > H2(X)
表示得物理含义就是:无记忆信源得不确定度大与有记忆信源得不确定度,有记忆信源得结构化信息较多,能够进行较大程度得压缩。
2、12 同时掷出两个正常得骰子,也就就是各面呈现得概率都为1/6,求:
(1) “3与5同时出现”这事件得自信息;
(2) “两个1同时出现”这事件得自信息;
第二章:
2、1 试问四进制、八进制脉冲所含信息量就是二进制脉冲得多少倍?
解:
四进制脉冲可以表示4个不同得消息,例如:{0, 1, 2, 3}
八进制脉冲可以表示8个不同得消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}
二进制脉冲可以表示2个不同得消息,例如:{0, 1}
假设每个消息得发出都就是等概率得,则:
若把这些频度瞧作概率测度,求:
(1) 忙闲得无条件熵;
(2) 天气状态与气温状态已知时忙闲得条件熵;
(3) 从天气状态与气温状态获得得关于忙闲得信息。
解:
(1)
根据忙闲得频率,得到忙闲得概率分布如下:
(2)
设忙闲为随机变量X,天气状态为随机变量Y,气温状态为随机变量Z
(3)
2、15 有两个二元随机变量X与Y,它们得联合概率为
(1) 求符号得平均熵;
(2) 有100个符号构成得序列,求某一特定序列(例如有m个“0”与(100m)个“1”)得自信息量得表达式;
(3) 计算(2)中序列得熵。
解:
(1)
(2)
(3)
2、14 对某城市进行交通忙闲得调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现得相对频度如下:
(2) 若从中抽取13张牌,所给出得点数都不相同能得到多少信息量?
信息论第二章习题
(3) H(X1X2…X100)=H(X1)+H(X2)+…+H(X100)=100H(X) =100×0.81=81比特
已知一个马尔可夫信源,转移概率为p(s1/s1)=2/3, p(s2/s1)=1/3, p(s1/s2)=1, p(s2/s2)=0,试画出状态转移图并求信源熵
解:
2 P 3 1
p(a1/b2) I (a1;b2)=log p(a1)
P(b2)=P(b2,a1)+P(b2,a2)=P(b2/a1)P(a1)+ P(b2/a2)P(a2)
=ε*1/2 + (1-ε)*(1/2) =1/2
P(a1,b2)= P(b2/a1)*P(a1)= 1/2* ε P(a1/b2)=P(a1,b2)/ P(b2)=ε
已知信源发出a1和 a2,,且p(a1)=p(a2)=1/2,在信道上传输时, 传输特性为p(b1/a1)=p(b2/a2)=1-ε, p(b1/a2)=p(b2/ a1)=ε,求互信 息量 I(a1;b1)和I (a1;b2)
解: p(a 1/b1) p(a 1/b1) I(a1;b1)=log =log
(3) P(红)=P(白)=P(蓝)=P(黄)=1/4
所以 H(X)= 4 x ( 1 log 2 1)
4 4
= 2比特/球
一个消息由符号0,1,2,3组成,已知p(0)=3/8, p(1)=1/4, p(2)=1/4, p(3)=1/8,求60个符号构成的消息 所含的信息量和平均信息量。
解: 平均信息量 H(X)=3/8log2(8/3)+2/4log24+1/8log28 =1.905比特/符号 信息量 H1(X)=60*1.905=114.3比特
信源熵-习题答案
C
1 m1
C
2 m
2
+…+
C n1 m n 1
C n1 mn
P(A3)=
!! (
)!
[C
0 2
1
…
C 1
2
]
评注:
=
!! (
)!
C
1
1
=
如果把题中的“白球”、“黑球”换为“正品”、 “次品”或“甲物”、“乙物”等等,我们就可以得到各 种各样的“摸球模型”.
二. 古典概型的基本模型:分球入盒模型
排列.所以样本点总数为107.
(1)事件A1,要求所取的7个数是互不相同的,考虑到各 个数取出时有先后顺序之分,所以有利场合相当于从10个 相异元素里每次取出7个相异元素的排列.因此,A1所包含 的样本点数为 A170,于是
.
P(A1)=
A170 10 7
0.06048
(2)A2:不含10与1;
(1)杯子容量无限
问题1 把 4 个球放到 3个杯子中去,求第1、2个 杯子中各有两个球的概率, 其中假设每个杯子可 放任意多个球.
3
3
3
3
4个球放到3个杯子的所有放法 3 3 3 3 34种,
4种 2
2种 2
2个
2个
因此第1、2个杯子中各有两个球的概率为
p 4 2 34 2 .
个样本点,.这样
评注:
P(C)=
Cnm (N 1)nm Nn
Cnm
(
1 N
)m
(1
.
1 N
) nm
不难发现当n和N确定时P(C)只依赖于m.如果把 P(C)记作Pm,依二项式定理有
第2章 信源熵
最大熵值随平均功率 P的变化而变化。
2
1 1 1 log 2 2 log e log 2e 2 2 2 2
11
均值受限条件下的最大熵定理
定理3:若连续信源X输出非负信号的均值受限,则其 输出信号幅度呈指数分布时,连续信源X具有最大熵值。
证明:连续信源 X呈指数分布时的概率密 度函数为 1 m p( x ) e ( x 0 ),其它任意分布的概率密 度函数记为q( x ) m 由限制条件知:
... q( x) log
aN a1 N
bN
b1
p ( x) dx ... dx log e ... q ( x ) 1 dx1...dxN 1 N N aN a1 q ( x ) (bi ai ) 1
bN b1 i 1
log (bi ai ) (1 1) log e H c [ p ( x), X ]
R2 R2 R2
p( x ) dxdy p( x / y )
log x log e ln x, ln x x 1, x 0; p( x ) 0, p( x / y ) 0, 则x p( x ) I c ( X ;Y ) log e p( xy ) 1dxdy p( x / y ) R2 log e[ p( x ) p( y )dxdy p( xy )dxdy] 0
当( b a ) 1时,H c ( x ) 0, 为负值
这是由连续熵的相对性所致。
1
2.3.3 连续熵的性质及最大连续熵定理
2.可加性
H c ( XY ) H c ( X ) H c ( Y / X ) Hc( Y ) Hc( X / Y ) 证明: H c ( XY ) p( xy) log p( xy)dxdy
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
i1 i 2 i3
i1 i3
∑∑∑ ∑∑∑ = −
p(xi1xi2 xi3 ) log p(xi3 / xi1xi2 ) +
p(xi1xi2 xi3 ) log p(xi3 / xi2 )
i1 i 2 i3
i1 i 2 i3
∑ ∑ ∑ =
i1
i2
i3
p(xi1xi2 xi3 ) log
p(xi3 / xi2 ) p(xi3 / xi1xi2 )
I(X2; X1) ≥ 0
⇒ H (X2 ) ≥ H (X2 / X1)
I(X3; X1X2 ) ≥ 0
⇒ H (X3) ≥ H(X3 / X1X2 )
...
I ( X N ; X1 X 2...X n−1) ≥ 0
⇒ H ( X N ) ≥ H ( X N / X1 X 2...X n−1)
∴ H ( X1 X 2...X n ) ≤ H ( X1) + H ( X 2 ) + H ( X 3 ) + ... + H ( X n )
设随机变量 Y 代表女孩子身高
Y
y1(身高>160cm) y2(身高<160cm)
P(Y)
0.5
0.5
已知:在女大学生中有 75%是身高 160 厘米以上的
即: p( y1 / x1) = 0.75 bit
求:身高 160 厘米以上的某女孩是大学生的信息量
即: I (x1
/
y1 )
=
− log
p( x1
0x.167⎭⎬⎫ ,求这个信源的熵,并解释为什么 H(X)
> log6 不满足信源熵的极值性。
解:
6
∑ H ( X ) = − p(xi ) log p(xi ) i = −(0.2 log 0.2 + 0.19 log 0.19 + 0.18 log 0.18 + 0.17 log 0.17 + 0.16 log 0.16 + 0.17 log 0.17)
四进制脉冲的平均信息量 H ( X1) = log n = log 4 = 2 bit / symbol
八进制脉冲的平均信息量 H ( X 2 ) = log n = log8 = 3 bit / symbol
二进制脉冲的平均信息量 H ( X 0 ) = log n = log 2 = 1 bit / symbol
∑2
H(X) = −
i
p(xi ) log
p(xi )
=
−⎜⎛ 63 log 63 ⎝103 103
+ 40 log 40 ⎟⎞ 103 103 ⎠
=
0.964
bit / symbol
(2) 设忙闲为随机变量 X,天气状态为随机变量 Y,气温状态为随机变量 Z
∑∑∑ H (XYZ) = −
p(xi y j zk ) log p(xi y j zk )
=
4.337
bit / symbol
(4)参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:
⎡X ⎢⎣P( X
⎤ )⎥⎦
=
⎪⎧ ⎨ ⎪⎩
2 1
36
3 1
18
4 1
12
5 1
9
6 5
36
7 1
6
8 5
36
9 1
9
10 1
12
11 1
18
12 1
⎪⎫ ⎬
36 ⎪⎭
∑ H ( X ) = − p(xi )log p(xi ) i
i jk
= −⎜⎛ 12 log 12 + 8 log 8 + 27 log 27 + 16 log 16 ⎝103 103 103 103 103 103 103 103
+ 8 log 8 + 15 log 15 + 5 log 5 + 12 log 12 ⎟⎞ 103 103 103 103 103 103 103 103 ⎠
⇒ p(xi1xi2 ) p(xi3 / xi2 ) = p(xi3 / xi1xi2 ) p(xi1xi2 )
⇒ p(xi1) p(xi2 / xi1) p(xi3 / xi2 ) = p(xi1xi2 xi3 )
∴
等式成立的条件是X
1
,
X
2
,
X
是马
3
_
氏链
·4·
2.10 对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态, 调查结果得联合出现的相对频度如下:
p( xi
)
=
1 52!
I (xi ) = − log p(xi ) = log52!= 225.581 bit
(2) 52 张牌共有 4 种花色、13 种点数,抽取 13 张点数不同的牌的概率如下:
p( xi
)
=
413 C13
52
I
( xi
)
=
−
log
p( xi
)
=
−
log
413 C13
52
= 13.208
∑ ∑ ∑ ≤ i1
i2
i3
⎛ p(xi1xi2 xi3 ) ⎜
⎝
p( xi 3 p(xi3 /
/ xi2 ) xi1xi2 )
⎞ −1⎟ log2
⎠
e
∑∑∑ ∑∑∑ =
⎛ ⎜⎝
i1
i2
p(xi1xi2 ) p(xi3 / xi2 ) −
i3
i1
i2
⎞ i3 p(xi1xi2 xi3 ) ⎟⎠ log2 e
女士:
2
∑ H ( X ) = − p(xi )log p(xi ) = −(0.005log 0.005 + 0.995log0.995) = 0.045 bit / symbol i
2.6
设信源
⎡X ⎢⎣P( X
⎤ )⎥⎦
=
⎩⎨⎧0x.12
x2 x3 0.19 0.18
x4 x5 0.17 0.16
共有 21 种组合:
其中 11,22,33,44,55,66 的概率是 1 × 1 = 1 6 6 36
其他 15 个组合的概率是 2× 1 × 1 = 1 6 6 18
∑ H (X ) = − i
p(
xi
)
log
p(
xi
)
=
−⎜⎛ ⎝
6
×
1 36
log
1 36
+
15
×
1 18
log
1 18
⎟⎞ ⎠
=
1 18
×10
+
1 36
=
21 36
I
( xi
)
=
−
log
p( xi
)
=
−
log
21 36
=
0.7776
bit
2.8 证明:H(X1X2 。。。 Xn) ≤ H(X1) + H(X2) + … + H(Xn)。
证明:
H ( X1 X 2 ...X n ) = H ( X1 ) + H ( X 2 / X1 ) + H ( X 3 / X1 X 2 ) + ... + H ( X n / X1 X 2 ...X n−1 )
2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?
解: 四进制脉冲可以表示 4 个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示 8 个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示 2 个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:
= 2.657 bit / symbol
H ( X ) > log2 6 = 2.585
6
不满足极值性的原因是 ∑ p(xi ) = 1.07 > 1。 i
·2·
2.7 同时掷出两个正常的骰子,也就是各面呈现的概率都为 1/6,求: (1) “3 和 5 同时出现”这事件的自信息; (2) “两个 1 同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即 2, 3, … , 12 构成的子集)的熵; (5) 两个点数中至少有一个是 1 的自信息量。
(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少? (2) 此消息中平均每符号携带的信息量是多少? 解: (1) 此消息总共有 14 个 0、13 个 1、12 个 2、6 个 3,因此此消息发出的概率是:
p = ⎜⎛ 3 ⎟⎞14 × ⎜⎛ 1 ⎟⎞25 × ⎜⎛ 1 ⎟⎞6 ⎝8⎠ ⎝4⎠ ⎝8⎠
所以: 四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的 2 倍和 3 倍。
2.2 一副充分洗乱了的牌(含 52 张牌),试问
(1) 任一特定排列所给出的信息量是多少?
(2) 若从中抽取 13 张牌,所给出的点数都不相同能得到多少信息量?
解:
(1) 52 张牌共有 52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:
/
y1 )
=
− log
p(x1) p( y1 / p( y1)
x1 )
=
−log 0.25× 0.75 0.5
= 1.415
bit
·1·
2.4
设离散无记忆信源
⎡ ⎢⎣