信源及信源熵习题答案
通信原理第4章信息熵例题
(5)接收到信息 Y 后获得的平均互信息为: I ( X ; Y ) = H ( X ) − H ( X | Y ) = 0.0075 比特/符号
I ( x1 ; y 2 ) = log
I ( x 2 ; y 2 ) = log
(3)信源 X 以及 Y 的熵为: H ( X ) = − ∑ P( x) log P( x) = −0.6 log 0.6 − 0.4 log 0.4 = 0.971 比特/符号
X
H (Y ) = −∑ P( y ) log P( y ) = −0.8 log 0.8 − 0.2 log 0.2 = 0.722 比特/符号
【3.1】 设信源 X x1 x 2 P( x) = 0.6 0.4 通过一干扰信道,接收符号为 Y = [ y1 , y 2 ] ,信道传递概率如下图所示,求 (1)信源 X 中事件 x1 和 x 2 分别含有的自信息; (2) 收到消息 y j ( j = 1,2) 后,获得的关于 xi (i = 1,2) 的信 息量; (3)信源 X 和信源 Y 的信息熵; (4)信道疑义度 H ( X | Y ) (5)接收到消息 Y 后获得的平均互信息。 解: (1)信源 X 中事件 x1 和 x 2 分别含有的自信息分别为: I ( x1 ) = log 1 = − log 0.6 = 0.737 比特 P( x1 ) 1 = − log 0.4 = 1.32 比特 P( x2 ) 3/4 x2 1/4 y2 x1 5/6 1/6 y1
I ( x 2 ; y1 ) = log
P( y1 | x2 ) 3/ 4 15 = log = log = −0.093 比特 P( y1 ) 0.8 16 P( y 2 | x1 ) 1/ 6 5 = log = log = −0.263 比特 P( y 2 ) 0.2 6 P( y 2 | x2 ) 1/ 4 5 = log = log = 0.322 比特 P( y 2 ) 0.2 4
第三章 信道与信道容量 习题解答
,
,求
,
,
和
;
(2) 求该信道的信道容量及其达到信道容量时的输入概率分布。
解:
(1)先写出
:
根据公式
计算联合概率:
信宿端符号分布概率:
根据公式
计算:
3
求各熵: 信源熵:
比特/消息
信宿熵:
比特/消息
可疑度:
平均互信息量: 噪声熵: (2)二元对称离散信道的信道容量:
比特/消息 比特/消息
比特/秒
信源等概分布时(
解:设下标 1为原状况,下标 2为改变后状况。由
可得:
,
倍
如果功率节省一半则
倍 ,为 了 使 功 率 节 省 一 半 又 不 损 失 信 息 量 I,根 据
,可以: (1) 加大信道带宽 W,用带宽换取信噪比
,
,
7
缺点是对设备要求高。 (2) 加大传输时间 T,用传输时间换取信噪比,同理可得:
缺点是传输速度降低了。
噪声熵:
(5)平均互信息量:
2.有一个生产 A、B、C、D四种消息的信源其出现的概率相等,通过某一通信系统传输时,B和 C无误,A 以 1/4概率传为 A,以 1/4概率误传为 B、C、D,而 D以 1/2概率正确传输,以 1/2概率误传为 C,
(1)试求其可疑度?(2)收到的信号中哪一个最可靠?(3)散布度为多少? 解:(1)
,
将各数据代入: 解得:
如果
则
将各数据代入: 解得:
14.在理想系统中,若信道带宽与消息带宽的比为 10,当接收机输入端功率信噪比分别为 0.1和 10时,试
比较输出端功率信噪比的改善程度,并说明
与
之间是否存在阀值效应。
信息论、编码与密码学课后习题答案
第1章 信源编码
1.1考虑一个信源概率为{0.30,0.25,0.20,0.15,0.10}的DMS。求信源熵H(X)。
解: 信源熵
H(X)=-[0.30*(-1.737)+0.25*(-2)+0.2*(-2.322)+0.15*(-2.737)+0.1*(-3.322)]
10100+11110=01010 10100+00111=10011
10100+01101=11001
11110+00111=11001 11110+01101=10011
00111+01101=01010
满足第一条性质
2、全零码字总是一个码字
{00000,01010,10011,11001,10100,11110,00111,01101}
(1)给出此信源的霍夫曼码并确定编码效率。
(2)每次考虑两个符号时,给出此信源的霍夫曼码并确定编码效率。
(3)每次考虑三个符号时,给出此信பைடு நூலகம்的霍夫曼码并确定编码效率。
解:
(1)本题的霍夫曼编码如下图所示:
图1.11 霍夫曼编码
则霍夫曼码如下表:
符号
概率
码字
x1
0.5
1
x2
0.4
00
x3
0.1
01
该信源的熵为:
(2)全零字总是一个码字,
(3)两个码字之间的最小距离等于任何非零码字的最小重量,即
设 ,即 , , , ,
首先证明条件(1):
, , , , , ,
很明显,条件(1)是满足的。条件(2)也是显然成立的。
信息论基础第五章课后答案
5.1设有信源⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛01.01.015.017.018.019.02.0)(7654321a a a a a a a X P X (1)求信源熵H(X)(2)编二进制香农码(3)计算其平均码长及编码效率解:(1)H(X)=-)(log )(21i ni i a p a p ∑=H(X)=-0.2log 20.2-0.19log 20.19-0.18log 20.18-0.17log 20.17-0.15log 20.15-0.log 20.1-0.01log 20.01H(X)=2.61(bit/sign)(2)ia i P(ai)jP(aj)ki码字a 001a 10.210.0030002a 20.1920.2030013a 30.1830.3930114a 40.1740.5731005a 50.1550.7431016a 60.160.89411107a 70.0170.9971111110(3)平均码长:-k =3*0.2+3*0.19+3*0.18+3*0.17+3*0.15+4*0.1+7*0.01=3.14(bit/sign)编码效率:η=R X H )(=-KX H )(=14.361.2=83.1%5.2对习题5.1的信源二进制费诺码,计算器编码效率。
⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛0.01 0.1 0.15 0.17 0.18 0.19 2.0 )(7654321a a a a a a a X P X 解:Xi)(i X P 编码码字ik 1X 0.2000022X 0.191001033X 0.18101134X 0.17101025X 0.151011036X 0.110111047X 0.01111114%2.9574.2609.2)()(74.2 01.0.041.0415.0317.0218.0319.032.02 )(/bit 609.2)(1.5=====⨯+⨯+⨯+⨯+⨯+⨯+⨯===∑KX H R X H X p k K sign X H ii i η已知由5.3、对信源⎭⎬⎫⎩⎨⎧=⎪⎪⎭⎫ ⎝⎛01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制赫夫曼码,计算各自的平均码长和编码效率。
信息论与编码习题答案-曹雪虹
3-14
信源 符号 xi x1 x2 x3 x4 x5 x6 x7
符号概 率 pi 1/3 1/3 1/9 1/9 1/27 1/27 1/27 1/3 1/3 1/9 1/9 2/27 1/27 1/3 1/3 1/9 1/9 1/9
编码过程
编码 1/3 1/3 1/3 2/3 1/3 00 01 100 101 111 1100 1101
得p0p1p223当p0或p1时信源熵为0第三章无失真信源编码31321因为abcd四个字母每个字母用两个码每个码为05ms所以每个字母用10ms当信源等概率分布时信源熵为hxlog42平均信息传递速率为2信源熵为hx0198bitms198bitsbitms200bits33与上题相同351hu12log2?14log4?18log8?116log16?132log32?164log64?1128log128?1128log128?1984111111112481632641281282每个信源使用3个二进制符号出现0的次数为出现1的次数为p0p134相应的香农编码信源符号xix1x2x3x4x5x6x7x8符号概率pi12141811613216411281128累加概率pi00507508750938096909840992logpxi12345677码长ki12345677码字010110111011110111110111111011111110相应的费诺码信源符号概符号xi率pix1x2x3x4x5x6x7x812141811613216411281128111第一次分组0第二次分组0第三次分组0第四次分组0第五次分组011第六次分组01第七次分组01二元码0101101110111101111101111110111111105香农码和费诺码相同平均码长为编码效率为
信息论与编码课后习题答案
1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。
解:该信源的香农线图为:1/3○ ○2/3 (x 1) 1 (x 2)在计算信源熵之前,先用转移概率求稳固状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p=)()(2132x p x p +)()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得431)(=x p 412)(=x p马尔可夫信源熵H = ∑∑-IJi j i jix x p x xp x p )(log )()( 得 H=0.689bit/符号2.设有一个无经历信源发出符号A 和B ,已知4341)(.)(==B p A p 。
求:①计算该信源熵;②设该信源改成发出二重符号序列消息的信源,采纳费诺编码方式,求其平均信息传输速度; ③又设该信源改成发三重序列消息的信源,采纳霍夫曼编码方式,求其平均信息传输速度。
解:①∑-=Xiix p x p X H )(log )()( =0.812 bit/符号②发出二重符号序列消息的信源,发出四种消息的概率别离为1614141)(=⨯=AA p 1634341)(=⨯=AB p1634143)(=⨯=BA p 1694343)(=⨯=BB p用费诺编码方式 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3无经历信源 624.1)(2)(2==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号BX H R )(22==0.963 bit/码元时刻③三重符号序列消息有8个,它们的概率别离为641)(=AAA p 643)(=AAB p 643)(=BAA p 643)(=ABA p 649)(=BBA p 649)(=BAB p 649)(=ABB p 6427)(=BBB p用霍夫曼编码方式 代码组 b iBBB 6427 0 0 1 BBA 649 0 )(6419 1 110 3BAB 649 1 )(6418 )(644 1 101 3ABB 649 0 0 100 3AAB 6431 )(6461 11111 5 BAA 643 0 1 11110 5ABA6431 )(6440 11101 5 AAA641 0 11100 5)(3)(3X H X H ==2.436 bit/三重符号序列 3B =2.469码元/三重符号序列3R =BX H )(3=0.987 bit/码元时刻3.已知符号集合{ 321,,x x x }为无穷离散消息集合,它们的显现概率别离为 211)(=x p ,412)(=x p 813)(=x p ···ii x p 21)(=···求: ① 用香农编码方式写出各个符号消息的码字(代码组); ② 计算码字的平均信息传输速度; ③ 计算信源编码效率。
信息论与编码第五章课后习题答案
第五章课后习题【5.1】某信源按43)0(=P ,41)1(=P 的概率产生统计独立的二元序列。
(1)试求0N ,使当0N N >时有01.005.0)()(≤≥−S H N I P i α 式中,)(S H 是信源的熵。
(2)试求当0N N =时典型序列集N G ε中含有的信源序列个数。
解:(1)该信源的信源熵为811.0)(log )()(=−=∑i i s p s p S H 比特/符号自信息的方差为4715.0811.04log 4134log 43)()]([)]([22222=−+=−=S H s I E s I D i i 根据等长码编码定理,我们知道δεα−≤≥−1)()(S H N I P i 根据给定条件可知,05.0=ε,99.0=δ。
而[]2)(εδN s I D i =因此[]5.19099.0*05.04715.0)(220==≥δεi s I D N 取1910=N 。
(2)ε典型序列中信源序列个数取值范围为:])([])([22)1(εεεδ+−<<−S H N N S H N G代入上述数值得451.164351.1452201.0<<×N G ε【5.2】有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A 、B 、C 、D 、E 和F 。
表5.2消息 )(i a P A B C D E F 1a 1/2 000 0 0 0 0 0 2a 1/4 001 01 10 10 10 100 3a 1/16 010 011 110 110 1100 101 4a 1/16 011 0111 1110 1110 1101 110 5a 1/16 100 01111 11110 1011 1110 111 6a1/1610101111111111011011111011(1) 求这些码中哪些是惟一可译码; (2) 求哪些码是非延长码(即时码); (3) 求对所有惟一可译码求出其平均码长L 。
信源熵的计算与理解习题3及详细解答
习题3-1(情况二:认为事件“0/0”“1/1”不会出现;)
解:设X={S1=“0”, S2=“1”}, (1) Y={ t1=“0” , t2=“1”};
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
序列熵: 而 即:
p(1) [a(1) d (1)] max [a(1) d min] max
由于 t (1) [a(1) d min],
(6 8) (6 8)
且d (1) a(1) t (1)为确定值
H ( X Y ) H ( X ) H (Y / X )
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
信源熵的计算与理解习题3及详细解答
公式:
习题3-1(?)
解:设X={S1=“0”, S2=“1”}, Y={ t1=“0” , t2=“1”};
(1)
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
1-4 信源熵-习题答案
600
1030 3408 2520
382
489 1808 859
3.137
3.1595 3.1415929 3.1795
利用蒙特卡罗(Monte Carlo)法进行计算机模拟. 取a 1, b 0.85. 单击图形播放/暂停 ESC键退出
二
概率的公理化定义
概率 P 是在事件域 上有定义的集合函数,它
§1.4
一
概率的公理化定义及概率的性质
几何概率 古典概型中试验结果是有限的,但许多问题试验
结果是无限的,一般的情况是不易解决的,下面考虑 所谓的“等可能性”问题. 在一个面积为 S 的区域 中,等可能地投点.这 里“等可能”的确切意义是:设在区域 中有任意一个 小区域 A ,如果它的面积为 S A,则点落入 A 中的可 能性大小与 S A成正比,而与 A 的位置和形状无关。
所以 1 P ( S ) P ( A A) P ( A) P ( A) . P ( A) 1 P ( A).
(6) ( 加法公式) 对于任意两事件 A, B 有 P ( A B ) P ( A) P ( B ) P ( AB ).
证明 由图可得
A B A ( B AB),
通常,在
代数 上有定义的非负、可列可加的
上
集函数称作是 上的测度.概率不过是事件域
的一个规范化的测度.
一般地描述一个随机试验的数学模型,应该有 三件东西: (1) 样本空间 (2) 事件域 (3) 概率(上的规范测度) P 三者写成 ( , , P) 并称它是一个概率空间.
会面问题
例7 甲、乙两人相约在 0 到 T 这段时间内, 在预 定地点会面. 先到的人等候另一个人, 经过时间 t ( t<T ) 后离去.设每人在0 到T 这段时间内各时刻
10-11第二学期信息论作业题参考答案
第1讲2、信息论创始人是谁?香农。
3、信息和消息、信号有什么联系与区别?从信息理论角度上看,信号是消息的载体,信息含藏在消息之中,有信号有消息不一定有信息。
4、通信系统的主要性能指标是什么? 有效性、可靠性和安全性。
5、举例说明信息论有哪些应用?为信息传送和处理系统提供数学模型和评估方法,在通信和信息处理领域是一门基础理论,在其它领域如语言学、生物学、医学、神经网络、经济学方面的应用也很成功。
具体应用实例有:语音、图像和数据信息的压缩,通信信道有效性和可靠性的提高,或信道传输功率指标要求的降低,通信或计算机系统可靠性和安全性的提高,信息处理领域的信号重建和模式识别等。
2.4 (求车牌自信息量)某车牌号的概率是(1/26)3×(1/10)3,24bit/牌,后一种概率为(1/36)6,31bit/牌, 第2讲设二元对称信道的传递矩阵(条件概率矩阵)为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132若P(0) = 3/4, P(1) = 1/4,求H(X), H(Y), H(X/Y), H(Y/X)和I(X;Y);先求P(Y)=∑X P(XY)和P(XY)=P(X)P(Y|X),再得各种熵和互信息。
H(X)=H(3/4,1/4), H(Y)=H(7/12,5/12);H(XY)=H(1/2,1/4,1/12,1/6); H(X/Y)=H(XY)-H(Y)H(Y/X)=H(XY)-H(X);或H(Y/X)=∑P(X=a)H(Y/a)=H(3/4,1/4) I(X;Y)=H(X)-H(X/Y)=H(X)+H(Y)-H(XY); 2.2(求条件信息量)1.6米以上女孩是条件,某个1.6米以上的女大学生是概率事件,得条件概率为:P=0.25×0.75/0.5=0.375=3/8,信息量为I= -log0.375=1.42比特。
2.52.10(1)(2)(由联合概率分布求熵、联合熵和条件熵)(1)思路:先求出X 、Y 、Z 、XZ 、YZ 、XYZ 的概率或联合分布,再求其熵。
信源及信源熵习题答案
(1)
(2)
(3)
H(X) > H2(X)
表示得物理含义就是:无记忆信源得不确定度大与有记忆信源得不确定度,有记忆信源得结构化信息较多,能够进行较大程度得压缩。
2、12 同时掷出两个正常得骰子,也就就是各面呈现得概率都为1/6,求:
(1) “3与5同时出现”这事件得自信息;
(2) “两个1同时出现”这事件得自信息;
第二章:
2、1 试问四进制、八进制脉冲所含信息量就是二进制脉冲得多少倍?
解:
四进制脉冲可以表示4个不同得消息,例如:{0, 1, 2, 3}
八进制脉冲可以表示8个不同得消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}
二进制脉冲可以表示2个不同得消息,例如:{0, 1}
假设每个消息得发出都就是等概率得,则:
若把这些频度瞧作概率测度,求:
(1) 忙闲得无条件熵;
(2) 天气状态与气温状态已知时忙闲得条件熵;
(3) 从天气状态与气温状态获得得关于忙闲得信息。
解:
(1)
根据忙闲得频率,得到忙闲得概率分布如下:
(2)
设忙闲为随机变量X,天气状态为随机变量Y,气温状态为随机变量Z
(3)
2、15 有两个二元随机变量X与Y,它们得联合概率为
(1) 求符号得平均熵;
(2) 有100个符号构成得序列,求某一特定序列(例如有m个“0”与(100m)个“1”)得自信息量得表达式;
(3) 计算(2)中序列得熵。
解:
(1)
(2)
(3)
2、14 对某城市进行交通忙闲得调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现得相对频度如下:
(2) 若从中抽取13张牌,所给出得点数都不相同能得到多少信息量?
第2章 -1信源与信息熵1【单符号离散信源】
1. 离散信源熵 (平均自信息量/无条件熵)
[定义] 自信息量的数学期望为信源的平均信息量,记为:H(X)。
H(X)=E[I(xi)]= –∑p(xi)log2 p(xi)
——平均不确定度的度量、体现: 总体平均
[单位]
二进制:bit/(信源)符号,或bit/(信源)序列 [含义]信息熵具有以下三方面物理含义: ⑴ 表示信源输出前,信源的平均不确定性 ⑵ 表示信源输出后,每个符号所携带的平均信息量 ⑶ 表示信源的的随机性(不同的信源有不同的统计特性) 信息熵的意义: 信源的信息熵是从整个信源的统计特性来考虑的。它是从 平均意义上来表征信源的总体特性的。对于某特定的信源, 其信息熵只有一个。不同的信源因统计特性不同,其信息熵 也不同。
√
(后续章节)
一、概述
⒈ 信息的一般概念 一个人获得消息→消除不确定性→获得信息。 ⒉ 信息度量的定性分析 事件发生的概率越大,不确定性越小,该事件 包含的信息量越小; 事件发生的概率越小,不确定性越大,该事件 包含的信息量越大; 如果一个事件发生的概率为1,那么它包含的 信息量为0; 两个相互独立事件所提供的信息量应等于它们 各自提供的信息量之和。
2.2.1
自信息量
1.自信息量 [定义] 若信源发出符号xi,由于信道无干扰,收到的就
信息论与编码课后习题答案
1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。
解:该信源的香农线图为: 1/3○○2/3(x 1) 1 (x 2)在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p=)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p=)(0)(2131x p x p + )()(21x p x p +=1 得431)(=x p 412)(=x p 马尔可夫信源熵H = ∑∑-IJi j i jix x p x xp x p )(log )()( 得 H=0.689bit/符号2.设有一个无记忆信源发出符号A 和B ,已知4341)(.)(==B p A p 。
求: ①计算该信源熵;②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。
解:①∑-=Xiix p x p X H )(log )()( =0.812 bit/符号②发出二重符号序列消息的信源,发出四种消息的概率分别为1614141)(=⨯=AA p 1634341)(=⨯=AB p 1634143)(=⨯=BA p 1694343)(=⨯=BB p 用费诺编码方法 代码组 b iBB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号BX H R )(22==0.963 bit/码元时间③三重符号序列消息有8个,它们的概率分别为641)(=AAA p 643)(=AAB p 643)(=BAA p 643)(=ABA p 649)(=BBA p 649)(=BAB p 649)(=ABB p 6427)(=BBB p用霍夫曼编码方法 代码组 b i BBB 6427 0 0 1 BBA 649 0 )(6419 1 110 3 BAB 649 1 )(6418)(644 1 101 3 ABB 649 0 0 100 3AAB 643 1 )(646 1 11111 5 BAA 643 0 1 11110 5ABA 643 1 )(6440 11101 5AAA 6410 11100 5)(3)(3X H X H ==2.436 bit/三重符号序列 3B =2.469码元/三重符号序列3R =BX H )(3=0.987 bit/码元时间 3.已知符号集合{ 321,,x x x }为无限离散消息集合,它们的出现概率分别为 211)(=x p ,412)(=x p 813)(=x p ···i i x p 21)(=···求: ① 用香农编码方法写出各个符号消息的码字(代码组); ② 计算码字的平均信息传输速率; ③ 计算信源编码效率。
(完整版)信息论基础与编码课后题答案(第三章)
3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为51661344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。
解:(1)12()0.737,() 1.322I x bit I x bit ==(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,22(;)0.907I x y bit =(3)()(0.6,0.4)0.971/H X H bit symbol ==()(0.6,0.4)0.971/H Y H bit symbol ==(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =(5)(;)0.9710.7140.257/I X Y bit symbol =-=3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。
该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。
验证在该信道上每个字母传输的平均信息量为0.21比特。
证明:信道传输矩阵为:11112666111162661111662611116662P ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦,信源信宿概率分布为:1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,信宿收到的消息集合Y 包含12,y y 。
信息论习提答案
1、 熵 是香农信息论最基本最重要的概念。
2、 单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
3、 两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
4、 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
5、 对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
6、 若一离散无记忆信源的信源熵H (X )等于4.2,对信源进行等长的无失真二进制编码,则编码长度至少为 5 。
7、 同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和6同时出现”这件事的自信息量是 log 218或(1+2 log 23)。
8、 一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 52log 2 。
9、 具有一一对应关系的无噪信道的信道容量C= log 2n 。
10、 信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。
11、 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小12、 平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 。
13、 率失真函数对允许的平均失真度是 单调递减和连续的 。
14、 对于离散无记忆信源的率失真函数的最大值是 log 2n 。
15、 信源编码的目的是: 提高通信的有效性 。
16、 对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为0的消息。
17、 对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。
18、 游程序列的熵 等于 原二元序列的熵。
19、 n 位重复码的编码效率是 1/n 。
20、 若纠错码的最小距离为d min ,则可以纠正任意小于等于t= ⎥⎦⎥⎢⎣⎢-21min d 个差错。
通信原理习题答案郑国梓精要
第1章 绪论1-2 设信源X 由4个符号a,b,c,d 组成,各符号出现概率分别为3/8,1/4,1/8,1/4,每个符号的出现是独立的,求(1)信源熵H(X);(2)一个消息babcacaddabbcdcaabdcb 的信息量I 。
解:(1)符号/bit .log log log log )x (p log )x (p )x (H i i i 906141418181414183832222241=----=-=∑= (2)4148154168362222412log log log log )x (p log N I i i i ----=-=∑=bit ..494381512498=+++=若 bit ..)x (H 0264021906121=⨯=⨯个符号 是统计平均,与题意不符,为错的。
1-4 八进制数字信号在3分钟内共传送72000个码元,求码元速率和每个码元所含的信息量。
解:码元速率: B R B 40060372000=⨯=每个码元所含的信息量:bit log I 382==1-5 已知信源X 含有两个符号x 1,x 2,它们的出现概率分别为p(x 1)=q ,p(x 2)=1-q ,设信源每秒向信道发出1000个符号,求此无扰离散信道的信道容量。
解:符号/bit )q (log )q (q log q )x (p log)x (p )x (H i i i----=-=∑=1122212当21=q 时,信源熵有最大值:符号/bit H max 1= 每秒发送1000个符号,所以最大信息速率:s /bit R max b =⨯=10001信道容量:s /bit R C max b 1000==第2章 预备知识2-4 (a )试写出图P2-3(a )所示方波波形的复数傅里叶级数表示式;(b )用(a )中所得结果写出图P2-3(b )所示三角形波的复数傅里叶级数表示式。
解:(a )t n j n e n Aj t f 0)12(1)12(2)(ωπ+∞-∞=∑⋅+= (b )∑∞-∞=+⋅++=n t n j e n AT AT t f 0)12(22002)12(4)(ωπ2-9 已知)(t f 的频谱函数如图P2-5所示,画出t t fcos )(ω的频谱函数图,设τωω50=。
第4章习题解答
4。
1 某集源按P (0)=3/4,P(1)=1/4的概率产生统计独立的二元序列.(1) 试求N 0,使当N>N 0时有: P {|I(a i )/N -H(S )| ≥0.05}≤0.01其中H (S)是信源的熵。
(2)试求当N= N 0时典型序列集G εN 中含有的信源序列个数.解:(1) H(S)= —∑Pi ㏒Pi= -3/4㏒(3/4)—1/4㏒(1/4) =0.811 比特/符号根据契比雪夫不等式,对于任意ε>0,当N >N0时,P {∣I(αi)/N – H(S )∣≥ε}≤D[I(Si )]/N ε2现有ε=0.05,欲证原式,只要 D [I(Si )]/N ε2≤0。
01根据信源,D [I (Si)]=∑P (Si )[㏒P(Si)]2– H 2(S)=3/4(㏒3/4)2+1/4(㏒1/4)2—(0。
811)2=0。
471∴N0= D[I(Si)]/0。
01ε2=0.471/0。
01×(0.05)2=18840(2) 序列G εN 是所有N 长的ε典型序列集合,(1-δ)2N [H (S )—ε]≤‖G εN ‖≤2N[H (S )-ε]0.99×214342。
5≤‖G εN ‖≤216226。
54。
2 设无记忆二元信源,其概率为P1=0.005, P0=0。
995.信源输出N =100的二元序列.在长为N =100的信源序列中只对含有3个或小于3个“1”的各信源序列构成一一对应的一组等长码。
(1)求码字所需的最小长度。
(2)计算式(4.27a )中的ε。
(3)考虑没有给予编码的信源序列出现的概率,该等长码引起的错误概率PE 是多少?若从契比雪夫不等式(4。
22)考虑,PE 应是多少?试加以比较。
解:(1)无记忆二元信源()⎢⎣⎡⎥⎦⎤=⎢⎣⎡⎥⎦⎤005.0995.01,0i s P S N=100的扩展信源()()()()()⎢⎢⎢⎣⎡⎥⎥⎦⎤⨯⨯=====⎢⎢⎣⎡⎥⎦⎤--N N N N NN N N i N N N P S 005.0,005.0995.0005.0995.0,995.0111,1011010001121221,,,,,- ααααα 现只对含有3个或小于3个“1”的各信源序列构成一一对应的一组二元等长码。
信源熵-习题答案
C
1 m1
C
2 m
2
+…+
C n1 m n 1
C n1 mn
P(A3)=
!! (
)!
[C
0 2
1
…
C 1
2
]
评注:
=
!! (
)!
C
1
1
=
如果把题中的“白球”、“黑球”换为“正品”、 “次品”或“甲物”、“乙物”等等,我们就可以得到各 种各样的“摸球模型”.
二. 古典概型的基本模型:分球入盒模型
排列.所以样本点总数为107.
(1)事件A1,要求所取的7个数是互不相同的,考虑到各 个数取出时有先后顺序之分,所以有利场合相当于从10个 相异元素里每次取出7个相异元素的排列.因此,A1所包含 的样本点数为 A170,于是
.
P(A1)=
A170 10 7
0.06048
(2)A2:不含10与1;
(1)杯子容量无限
问题1 把 4 个球放到 3个杯子中去,求第1、2个 杯子中各有两个球的概率, 其中假设每个杯子可 放任意多个球.
3
3
3
3
4个球放到3个杯子的所有放法 3 3 3 3 34种,
4种 2
2种 2
2个
2个
因此第1、2个杯子中各有两个球的概率为
p 4 2 34 2 .
个样本点,.这样
评注:
P(C)=
Cnm (N 1)nm Nn
Cnm
(
1 N
)m
(1
.
1 N
) nm
不难发现当n和N确定时P(C)只依赖于m.如果把 P(C)记作Pm,依二项式定理有
(完整版)信息论第五章答案
5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二章:试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量H(X 1) = log 2n = log 24 = 2 bit/symbol 八进制脉冲的平均信息量H(X 2) = log 2n = log 28 = 3 bit/symbol 二进制脉冲的平均信息量H(X 0) = log 2n = log 22 = 1 bit/symbol 所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。
假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量解:设随机变量X 代表女孩子学历X x 1(是大学生) x 2(不是大学生) P(X)设随机变量Y 代表女孩子身高Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y)已知:在女大学生中有75%是身高160厘米以上的 即:p(y 1/ x 1) =求:身高160厘米以上的某女孩是大学生的信息量 即:bit y p x y p x p y x p y x I 415.15.075.025.0log )()/()(log )/(log )/(2111121111=⎪⎭⎫⎝⎛⨯-=⎥⎦⎤⎢⎣⎡-=-=一副充分洗乱了的牌(含52张牌),试问(1) 任一特定排列所给出的信息量是多少(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:bit x p x I i i 581.225!52log )(log )(2==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:bit C x p x I C x p i i i 208.134log )(log )(4)(13521322135213=-=-==设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202032),求 (1) 此消息的自信息量是多少(2) 此消息中平均每符号携带的信息量是多少解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I 811.87log 2=-=(2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%,如果你问一位男士:“你是否是色盲”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量如果问一位女士,则答案中含有的平均自信息量是多少解: 男士:symbolbit x p x p X H bitx p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%93)( 837.307.0log )(log )(%7)(22222222=+-=-==-=-===-=-==∑女士:symbol bit x p x p X H ii i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2222=+-=-=∑设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡17.016.017.018.019.02.0)(654321x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6不满足信源熵的极值性。
解:585.26log )(/ 657.2)17.0log 17.016.0log 16.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(222222262=>=+++++-=-=∑X H symbol bit x p x p X H ii i 不满足极值性的原因是107.1)(6>=∑iix p 。
证明:H(X 3/X 1X 2) ≤ H(X 3/X 1),并说明当X 1, X 2, X 3是马氏链时等式成立。
证明:log 1)/()(log )()/()(log 1)/()/()()/()/(log)()/(log )()/(log )()/(log )()/(log )()/()/(2123132121233211231321123221313321123213133211231332112321332113133112321332113213=⎪⎪⎭⎫⎝⎛-⎥⎦⎤⎢⎣⎡=⎪⎭⎫⎝⎛-=⎪⎪⎭⎫⎝⎛-≤=+-=+-=-∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑e x x p x x p ex x x p x x p x x p e x x x p x x p x x x p x x x p x x p x x x p x x p x x x p x x x p x x x p x x p x x p x x x p x x x p X X H X X X H i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i氏链是马等式成立的条件是时等式成立当_,,)/()/()/()()/()/()()()/()/()()/()/(01)/()/()/()/(321132131232113121212131321213132131313213X X X x x x p x x p x x p x x x p x x p x x p x p x x p x x x p x x p x x p x x x p x x p x x x p x x p X X H X X X H i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i ∴=⇒=⇒=⇒=⇒=-≤∴证明:H(X 1X 2 。
X n ) ≤ H(X 1) + H(X 2) + … + H(X n )。
证明:)(...)()()()...().../()(0)...;(...)/()(0);()/()(0);().../(...)/()/()()...(3212112112121332131221212121312121N N N N N N N N N N X H X H X H X H X X X H X X X X H X H X X X X I X X X H X H X X X I X X H X H X X I X X X X H X X X H X X H X H X X X H ++++≤∴≥⇒≥≥⇒≥≥⇒≥++++=---设有一个信源,它产生0,1序列的信息。
它在任意时间而且不论以前发生过什么符号,均按P(0) = ,P(1) = 的概率发出符号。
(1) 试问这个信源是否是平稳的 (2) 试计算H(X 2), H(X 3/X 1X 2)及H ∞;(3) 试计算H(X 4)并写出X 4信源中可能有的所有符号。
解: (1)这个信源是平稳无记忆信源。
因为有这些词语:“它在任意时间....而且不论以前发生过什么符号...........……” (2)symbolbit X H H symbol bit x p x p X H X X X H symbolbit X H X H ii i / 971.0)(/ 971.0)6.0log 6.04.0log 4.0()(log )()()/(/ 942.1)6.0log 6.04.0log 4.0(2)(2)(2223213222===+-=-===+⨯-==∞∑(3)1011111111101101110010101001100001110110010101000011001000010000的所有符号:/ 884.3)6.0log 6.04.0log 4.0(4)(4)(4224X symbol bit X H X H =+⨯-==一阶马尔可夫信源的状态图如下图所示。
信源X 的符号集为{0, 1, 2}。
(1) 求平稳后信源的概率分布; (2) 求信源的熵H ∞。
PP解: (1)⎪⎩⎪⎨⎧===⎩⎨⎧=++==⎪⎪⎩⎪⎪⎨⎧⋅+⋅=⋅+⋅=⋅+⋅=⎪⎩⎪⎨⎧+=+=+=3/1)(3/1)(3/1)(1)()()()()()()()()()()()()()()()/()()/()()()/()()/()()()/()()/()()(321321321133322211131333332322222121111e p e p e p e p e p e p e p e p e p e p p e p p e p e p p e p p e p e p p e p p e p e e p e p e e p e p e p e e p e p e e p e p e p e e p e p e e p e p e p⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡⎪⎪⎩⎪⎪⎨⎧=+=⋅+⋅=+==+=⋅+⋅=+==+=⋅+⋅=+=3/123/113/10)(3/13/)()()()/()()/()()(3/13/)()()()/()()/()()(3/13/)()()()/()()/()()(131313333323232222212121111X P X p p e p p e p p e x p e p e x p e p x p p p e p p e p p e x p e p e x p e p x p p p e p p e p p e x p e p e x p e p x p (2)()symbolbit p p p p p p p p p p p p p p p p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e p H iji j i j i / log log log 31log 31log 31log 31log 31log 31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/(31)/(log )/()(2222222233233322323123123223222222122113213122121121133⋅+⋅-=⎥⎦⎤⎢⎣⎡⋅⋅+⋅⋅+⋅⋅+⋅⋅+⋅+⋅⋅-=⎥⎦⎤++++++⎢⎣⎡++-=-=∑∑∞黑白气象传真图的消息只有黑色和白色两种,即信源X ={黑,白}。