信息论第二次作业

合集下载

信息论作业答案

信息论作业答案

信息论作业答案第二章1 ■一阶齐次马尔柯夫信源消息集X ∈{321,,a a a },状态集S ∈{321,,S S S }。

且令3,2,1,==i a S i i , 符号条件转移概率为[]=21414141214113131)/(i j S a P(1) 画出该信源的状态转移图;(2)解:(1)[]111333111424111442(|)jip SS =??(2)1111231344111123232411112333421231w w w w w w w w w w w w w w w ++=??++=??++=??++=?311142114311w w w =??=??=?H(X|S 1)=H (1/3,1/3,1/3)=1.58bit/符号H(X|S 2)=H (1/4,1/2,1/4)=1.5bit/符号= H(X|S 3)33411111()(|) 1.58 1.52 1.52i i i H X w H X S ∞===?+??=∑bit/符号2 如果你确定你的朋友是6月的生日,但是不知道具体是哪一天。

那么你问你的朋友“你的生日是6月哪一天?”,则答案中含有的信息量为4.91bit ;3p42 2-12 4 p42 2-13 5 p43 2-19 6 p44 2-29第三章1. ■设信道的转移概率矩阵为P =0.90.10.10.9??(1)若p(x 0)=0.4,p(x 1)=0.6,求H(X ),H(Y ),H(Y|X )和I(X ;Y );(2)求该信道的信道容量及其达到信道容量时输入符号的概率分布。

(3)设该信道以1800个二元符号/秒的速度传输输入符号。

现有一消息序列共有10000个二元符号,在p(x 0)=1/2,p(x 1)=1/2情况下,从信息传输的角度来考虑,10秒内能否将这消息序列无失真地传送完?解:(1)[]0.360.04(,)0.060.54p x y ??=?, [p(y)]=[0.42 0.58] H(X)(0.4,0.6)0.97H ==bit/符号H(Y)(0.42,0.58)0.98H ==bit/符号 H(Y|X)(0.9,0.1)0.47H ==bit/符号I(X;Y)= H(Y)-H(Y|X)=0.51bit/符号(2)C=1-H(ε)=1-H(Y|X)=0.53bit/符号 p 0=p 1=0.5(3)H(X)×104=104 bit1800×C ×10=9540 bit < 104 所以不能无失真传送完。

最优化期末复习总结

最优化期末复习总结

第一次课后作业:老三论:控制论、信息论和系统论,新三论:突变理论、耗散结构理论和协同论美国数学家维纳的控制论”美国数学家申农的信息论”美籍奥地利理论生物学家和哲学家贝塔朗菲的系统论”比利时化学家普里高津的耗散结构理论”德国物理学家哈肯的协同论:法国数学家托姆的突变理论”第二次课后作业:3工1 + 2 j 2 + -£'1 —*0-Tt —+ 3工3 -- J 1 1 52-i'i + = Z:* 十 1 O首先标准化:Max z=--3x1-2x2-x3+x4s.t x1-2x2+3x3-x4 < 152x1+x2-x3+2x4 < 10X1 ,x 2 ,X2 ,x 3 ,x 4> 0添加2个松弛变量x5 x6x1-2x2+3x2-x4+x5=15 2x1+x2-x3+2x4+x6=10用对偶单纯形法:0 X5 20 2 -1.5 2.5 0 1 0.5 51 X4 5 1 0.5 -0.5 1 0 0.5 --z -5 -4 -2.5 -0.5 0 0 -0.5在最优单纯性表中, 最小值为:-5 x5,x6的检验数均为负数,于是得到最优解X*=(0,0,0,5,20) T,所以可以C 1 > minSf t -S- t ” L- -Ta-Tf + 2J ;4 一 3 J 1 + gHu + 2-a-』一 5.rO >= 1 -6此题和上题类似:变成标准化Max -x1-x2-x3s.t.X5于是得到最优解由此得出min X*=(0,0,0,5,3,3)的值为0,。

—1 O J "I — 5% — 2口 + 5工I + 3^2 +心9—吕4十6工卫+ 15帀总]52Hi + >rj + 才1 —工* = 13工1t 工*耳。

添加松弛变量x5, x6, x7s.t. 5x1+3x2+x3 <9-5x1+6x2+15x2=15X6-z-1 -1(1)-1*-5化为标准化为:max 10x1+5x2+2x3-6x4 -+x1 -x4 -2x6=5 x2+2x4-3x5+x6=3 x3+2x4-5x5+6x6=5Cb XbX4 X5 X6-zX4 xj X),j=1 ….6;-1 X1-1 X2-1 X3X4 -1 2-1 X5 0 -3 -5X6 -2 1-2-313> min2x1+x2+x3-x4=13X1 ... x4》0令 Z1=3x1+2x2+x3-x415x1+3x2+x1+x5=9 -5x1+6x2+15x3+x6=15 2x1+x2+x3-x4+x7=133+ 才J 一hl + —工冃十工*工3丢2于是变为标准形为: max -3x1-2x2-x2+x41X1-2x2+x3-x41+x5=17 2x1+x2-x3+2x41+x6+x7= 14 x41 二0 X1 …x3>0CbXbb 10 5 2 -6 0 0 0X1X2 X3 X4 X5 X6 X7 0 X5 9 5 3 1 0 1 0 0 0 X6 15 -5 6 15 0 0 1 0 0X713 2 1 1 -1 0 0 1 -z-10-5-260 X1 1.8 1 0.6 0.2 0 0.2 0 0 0 X6 24 0 9 16 0 1 1 0 0X79.4 0 -0.2 0.6 -1 -0.4 0 1 -z-18-1-6-2T于是得到最优解 X*=(1.8,0,0,0,0,24,9.4) 于是最小值为: -18<15对第二个约束条件左右同时乘上X1-2x2+x3-x41-2+x5=15 2x1+x2-x3+2(x41-2)+x6+x7= 10 -1 ,再添加松弛变量 即 X1-2x2+x3-x41+x5=17 即 2x1+x2-x3+2x41+x6+x7= 14x5,x6,x7。

信息论-第二章信源熵-习题答案

信息论-第二章信源熵-习题答案

2.4 设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I811.87log =-=(2) 此消息中平均每符号携带的信息量是:bitn I 951.145/811.87/==41()()log () 2.010i i i H X p x p x ==-=∑2.6 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡17.016.017.018.019.02.0)(654321x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6不满足信源熵的极值性。

解:585.26log )(/ 657.2 )17.0log 17.016.0log 16.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0( )(log )()(26=>=+++++-=-=∑X H symbol bit x p x p X H ii i 不满足极值性的原因是107.1)(6>=∑iix p 。

2.7 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。

解:(1)用随机事件i x 表示“3和5同时出现”,则bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==⨯+⨯=(2) 用随机事件i x 表示“两个1同时出现”,则bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-==⨯=(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 6263646566共有21种组合:其中11,22,33,44,55,66的概率是3616161=⨯ 其他15个组合的概率是18161612=⨯⨯symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=⎪⎭⎫ ⎝⎛⨯+⨯-=-=∑(4)参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:sym bolbit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=⎪⎭⎫ ⎝⎛+⨯+⨯+⨯+⨯+⨯-=-=⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡∑(5)bitx p x I x p i i i 710.13611log )(log )(3611116161)(=-=-==⨯⨯=2.10 对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现的相对频度如下:忙晴雨冷 12暖 8暖 16冷 27闲晴雨冷 8暖 15暖 12冷 5若把这些频度看作概率测度,求: (1) 忙闲的无条件熵;(2) 天气状态和气温状态已知时忙闲的条件熵;(3) 从天气状态和气温状态获得的关于忙闲的信息。

信息论作业原题chapter2、3

信息论作业原题chapter2、3

第二、三章 习题4.1 同时掷两个正常的骰子,也就是各面呈现的概率是61,求:(1)“3和5同时出现”这一事件的自信息量。

(2)“两个1同时出现”这一事件的自信息量。

(3)两个点数的各种组合(无序对)的熵或平均信息量。

(4)两个点数之和(即2,3…12构成的子集)的熵。

(5)两个点数中至少有一个是1的自信息。

4.2 消息符号集的概率分布和二进制代码如下表(1)求消息的符号熵。

(2)每个消息符号所需要的平均二进制码的个数或平均代码长度。

进而用这个结果求码序列中的一个二进制码的熵。

(3)当消息是由符号序列组成时,各符号之间若相互独立,求其对应的二进制码序列中出现0和1的无条件概率0p 和1p ,求相邻码间的条件概率10110100,,,P P P P 。

4.3 某一无记忆信源的符号集为{0,1},已知0p =14,1p =34(1)求符号的平均信息熵。

(2)由100个符号构成的序列,求某一特定序列(例如有m 个“0”和(m -100)个“1”)的自信息量的表达式。

(3)计算(2)中的序列的熵4.6 有两个离散随机变量X 和Y ,其和为Y X Z +=(一般加法),若X 和Y 相互独立, 求证:(1))()(Z H X H ≤)()(Z H Y H ≤(2))()(Z H XY H ≥4.7 对于任意的三个离散随机变量X ,Y ,Z ,求证:(1) (;)(;)(;)(;)(;)(;)I X Y Z I X Y I Y Z X I Y Z I Z X Y I Z X -=-=- (2) ()()()(;)I XYZ H XZ H Y X I Z Y X =+- (3) )()()()(X H ZX H XY H XYZ I -≤-4.9 一个等概率的信源符号有八种字母,分别是10000x =,20011x =,30101x =,40110x = ,51001x = ,61010x = ,71100x = ,81111x =,用实验测定上述码字中的每个二进制符号,可得二元输出y ,已知条件概率为00P =11P =1-ε10P =01P =ε。

信息论第2章作业(DOC)

信息论第2章作业(DOC)

2.居住在某地区的女孩中有25%是大学生,在大学生中有75%是身高1.6以上的,而女孩中身高1.6米以上的占总数一半.假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?
解:
信息量:比特
有一信源输出X∈{0,1,2},其概率为p0=1/4,p1=1/4,p2=1/2。

设计两个独立实验去观察它,其结果为Y1∈{0,1}和Y2∈{0,1}。

已知条件概率为
P(Y1|X) 0 1 P(Y2|X) 0 1
0 1 0 0 1 0
1 0 1 1 1 0
2 1/2 1/2 2 0 1 求:
1)I(X;Y1)和I(X;Y2),并判断哪一个实验好些。

2)I(X;Y1,Y2),并计算做Y1和Y2两个实验比做Y1或Y2中的一个实验各可多得多少关
于X的信息。

3)I(X;Y1/Y2)和I(X;Y2/Y1),并解释它们的含义。

H(X)=
.若有二个串接的离散信道,它们的信道矩阵都是
00
10001⎡⎤⎢⎥
11.有一个一阶平稳马尔可夫链X1,X2,……X r……,各X r取值于集合A={a1,a2,a3}。

已知起始概率p(X r)为p1=1/2,p2=p3=1/4,转移概率如下。

j
1 2 3
21.0585
.1251
.11100=-=-
=∞H H R。

(信息论)第二、三章习题参考答案

(信息论)第二、三章习题参考答案

第二章习题参考答案2-1解:同时掷两个正常的骰子,这两个事件是相互独立的,所以两骰子面朝上点数的状态共有6×6=36种,其中任一状态的分布都是等概的,出现的概率为1/36。

(1)设“3和5同时出现”为事件A ,则A 的发生有两种情况:甲3乙5,甲5乙3。

因此事件A 发生的概率为p(A)=(1/36)*2=1/18 故事件A 的自信息量为I(A)=-log 2p(A)=log 218=4.17 bit(2)设“两个1同时出现”为事件B ,则B 的发生只有一种情况:甲1乙1。

因此事件B 发生的概率为p(B)=1/36 故事件B 的自信息量为I(B)=-log 2p(B)=log 236=5.17 bit (3) 两个点数的排列如下:因为各种组合无序,所以共有21种组合: 其中11,22,33,44,55,66的概率是3616161=⨯ 其他15个组合的概率是18161612=⨯⨯symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=⎪⎭⎫ ⎝⎛⨯+⨯-=-=∑(4) 参考上面的两个点数的排列,可以得出两个点数求和的概率分布:sym bolbit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=⎪⎭⎫ ⎝⎛+⨯+⨯+⨯+⨯+⨯-=-=⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡∑(5)“两个点数中至少有一个是1”的组合数共有11种。

bitx p x I x p i i i 710.13611log )(log )(3611116161)(=-=-==⨯⨯=2-2解:(1)红色球x 1和白色球x 2的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡2121)(21x x x p X i 比特 12log *21*2)(log )()(2212==-=∑=i i i x p x p X H(2)红色球x 1和白色球x 2的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡100110099)(21x x x p X i 比特 08.0100log *100199100log *10099)(log )()(22212=+=-=∑=i i i x p x p X H (3)四种球的概率分布为⎥⎥⎦⎤⎢⎢⎣⎡=⎥⎦⎤⎢⎣⎡41414141)(4321x x x x x p X i ,42211()()log ()4**log 4 2 4i i i H X p x p x ==-==∑比特2-5解:骰子一共有六面,某一骰子扔得某一点数面朝上的概率是相等的,均为1/6。

信息论课后题答案

信息论课后题答案

2.2 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。

假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设随机变量X 代表女孩子学历 X x 1(是大学生) x 2(不是大学)P(X) 0.250.75设随机变量Y 代表女孩子身高Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 0.50.5已知:在女大学生中有75%是身高160厘米以上的 即:bit x y p 75.0)/(11=求:身高160厘米以上的某女孩是大学生的信息量即:b i ty p x y p x p y x p y x I 415.15.075.025.0log )()/()(log )/(log )/(11111111=⨯-=-=-= 2.4 设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为( 02120130213001203210110321010021032011223210),求(1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少? 解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p 此消息的信息量是:bit p I 811.87log =-=(2) 此消息中平均每符号携带的信息量是:b i t n I 951.145/811.87/==2.9 设有一个信源,它产生0,1序列的信息。

它在任意时间而且不论以前发生过什么符号,均按P(0) = 0.4,P(1) = 0.6的概率发出符号。

(1) 试问这个信源是否是平稳的? (2) 试计算H(X 2), H(X 3/X 1X 2)及H ∞;(3) 试计算H(X 4)并写出X 4信源中可能有的所有符号。

信息论大作业2课件

信息论大作业2课件

一、实验目的1、通过实验进一步理解霍夫曼编码、算术编码和LZ编码原理和方法2、熟悉matlab编程和GUI界面的设计二、实验原理1、赫夫曼(Huffman )编码是1952年提出的,是一种比较经典的信息无损熵编码,该编码依据变长最佳编码定理,应用Huffman 算法而产生。

Huffman 编码是一种基于统计的无损编码。

设信源X 的信源空间为:⎩⎨⎧∙)()()()(:)(::][32121N N x P x P x P x P X P x x x X P X 其中,1)(1=∑=Ni i x P ,现用二进制对信源X 中的每一个符号i x (i=1,2,…N)进行编码。

根据变长最佳编码定理,Huffman 编码步骤如下:(1)将信源符号xi 按其出现的概率,由大到小顺序排列。

(2)将两个最小的概率的信源符号进行组合相加,并重复这一步骤,始终将较大的概率分支放在上部,直到只剩下一个信源符号且概率达到1.0为止;(3)对每对组合的上边一个指定为1,下边一个指定为0(或相反:对上边一个指定为0,下边一个指定为1);(4)画出由每个信源符号到概率1.0处的路径,记下沿路径的1和0;(5)对于每个信源符号都写出1、0序列,则从右到左就得到非等长的Huffman 码。

Huffman 编码的特点是:(1)Huffman 编码构造程序是明确的,但编出的码不是唯一的,其原因之一是两个概率分配码字“0”和“1”是任意选择的(大概率为“0”,小概率为“1”,或者反之)。

第二原因是在排序过程中两个概率相等,谁前谁后也是随机的。

这样编出的码字就不是唯一的。

(2)Huffman 编码结果,码字不等长,平均码字最短,效率最高,但码字长短不一,实时硬件实现很复杂(特别是译码),而且在抗误码能力方面也比较差。

(3)Huffman 编码的信源概率是2的负幂时,效率达100%,但是对等概率分布的信源,产生定长码,效率最低,因此编码效率与信源符号概率分布相关,故Huffman 编码依赖于信源统计特性,编码前必须有信源这方面的先验知识,这往往限制了哈夫曼编码的应用。

10-11第二学期信息论作业题参考答案

10-11第二学期信息论作业题参考答案

第1讲2、信息论创始人是谁?香农。

3、信息和消息、信号有什么联系与区别?从信息理论角度上看,信号是消息的载体,信息含藏在消息之中,有信号有消息不一定有信息。

4、通信系统的主要性能指标是什么? 有效性、可靠性和安全性。

5、举例说明信息论有哪些应用?为信息传送和处理系统提供数学模型和评估方法,在通信和信息处理领域是一门基础理论,在其它领域如语言学、生物学、医学、神经网络、经济学方面的应用也很成功。

具体应用实例有:语音、图像和数据信息的压缩,通信信道有效性和可靠性的提高,或信道传输功率指标要求的降低,通信或计算机系统可靠性和安全性的提高,信息处理领域的信号重建和模式识别等。

2.4 (求车牌自信息量)某车牌号的概率是(1/26)3×(1/10)3,24bit/牌,后一种概率为(1/36)6,31bit/牌, 第2讲设二元对称信道的传递矩阵(条件概率矩阵)为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132若P(0) = 3/4, P(1) = 1/4,求H(X), H(Y), H(X/Y), H(Y/X)和I(X;Y);先求P(Y)=∑X P(XY)和P(XY)=P(X)P(Y|X),再得各种熵和互信息。

H(X)=H(3/4,1/4), H(Y)=H(7/12,5/12);H(XY)=H(1/2,1/4,1/12,1/6); H(X/Y)=H(XY)-H(Y)H(Y/X)=H(XY)-H(X);或H(Y/X)=∑P(X=a)H(Y/a)=H(3/4,1/4) I(X;Y)=H(X)-H(X/Y)=H(X)+H(Y)-H(XY); 2.2(求条件信息量)1.6米以上女孩是条件,某个1.6米以上的女大学生是概率事件,得条件概率为:P=0.25×0.75/0.5=0.375=3/8,信息量为I= -log0.375=1.42比特。

2.52.10(1)(2)(由联合概率分布求熵、联合熵和条件熵)(1)思路:先求出X 、Y 、Z 、XZ 、YZ 、XYZ 的概率或联合分布,再求其熵。

信息论习题一二答案参考

信息论习题一二答案参考

信息论习题一二答案参考信息论习题一二答案参考信息论习题一、二答案参考1.一个随即变量x的概率密度函数P(x)= x /2,0≤x≤2V,则信源的相对熵为()。

A. 1.44bit/符号B. 1bit/符号正确C. 0.5bit/符号D. 0.72bit/符号2.下列不属于消息的是()A. 文字B. 图像C. 语言D. 信号3.下列哪一项不属于最简单的通信系统模型()A. 信宿B. 加密C. 信道D. 信源4.下列离散信源,熵最大的是()。

A. H(1/2,1/2)B. H(1/2,1/4,1/8,1/8)C. H(1/3,1/3,1/3)D. H(0.9,0.1)5.下面哪一项不属于熵的性质()A. 对称性B. 确定性C. 完备性D. 非负性6.同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为()。

A. -log36bitB. log36bitC. -log (11/36)bitD. log (11/36)bit7.对连续信源的熵的描述不正确的是()。

A. 连续信源的熵和离散集的熵形式一致,只是用概率密度代替概率,用积分代替求和B. 连续信源的熵由相对熵和无穷大项构成C. 连续信源的熵值无限大D. 连续信源的熵可以是任意整数9.相对熵()。

A. 总非负B. 总为正C. 总为负D. 都不对9.英文字母有26个,加上空格共27个符号,由此H0(X)=4.76bit/符号,根据有关研究H∞(X)=1.4 bit/符号,则冗余度为()。

A. 0.71B. 0.51C. 0.11D. 0.3110.设信源S,若P(s1)=1/2、P(s2)=1/4、P(s3)=1/4,则其信源剩余度为()。

A. 3/4B. 0C. 1/4D. 1/211.设有一个无记忆信源发出符号A和B,已知p(A)=1/4,p (B)=3/4,发出二重符号序列消息的信源,则二次扩展信源熵为()。

A. 0.81bit/二重符号B. 1.86 bit/二重符号C. 0.93 bit/二重符号D. 1.62bit/二重符号12.H(X/X)=0。

信息论与编码课后作业

信息论与编码课后作业

(3) D=3,M=8,D*=M[mod(D-1)]=0 D*∈(2,3…D) D*=2,即第一次取两个,第二次取三个 编码结果为:0,21,20,12,11,10,221,220 平均码长为:n=1*0.2+2*0.17*2+2*0.1*2+2*0.08*3=1.96 编码效率:=2.93/1.96*1.59=0.937 (4)D=4,M=8,D*=M[mod(D-1)]=2 D*∈(2,3…D) D*=4,即第一次取 4 个,以后每次取 4 个 编码结果:2,0,33,32,31,30,11,10 平均码长:n=1*0.2+1*0.17+2*0.17+2*0.1*3+2*0.08*2=1.63 编码效率:=2.93/1.63*2=0.89
*i+
2
2������ +1
*(i+1)=i+
2 2������ +1
������1 ������2 ������3 ������ 3.17 信源分布 ������(������) = 1/3 1/3 1/4 (1) 对该信源进行二元霍夫曼编码;
������4 1/12 ,
(2)证明存在两个不同的最佳码长集合,即证明码长集合{1,2,3,4} 和{2,2,2,2}都是最佳的。 答: (1) 0 1/3 1 1/4 0 1/12 1 1/3 1 1 2/3 0 1/3
(0.08+0.07+0.06+0.05)=3.26 编码效率:=H(x)/nlogD=0.99 (2)D=3,M=10,D*=M[mod(D-1)]=0 D*∈(2,3…D) D*=2,即第一次取 2 个,以后每次取 3 个 编码结果:22,21,20,12,10,02,01,00,111,110 平 均 码 长 :

信息论课后习题解答

信息论课后习题解答
问男,回答“是”所获昨的信息量为:
问男,回答“否”所获得的信息量为:
男,平均回答中含有的信息量为:
同样,女为红绿色盲的概率空间为 问女,回答“是”所获昨的信息量为: 问女,回答“否”所获昨的信息量为: 女,平均回答中含有的信息量为
【2.12】 (1)为了使电视图像获得良好的清晰度和规定的适 当的对比度,需要用 5×105个像素和10个不同亮度电平,求传 递此图像所需的信息率(比特/秒)。并设每秒要传送 30帧图 像,所有像素是独立变化的,且所有亮度电平等概率出现。 (2)设某彩电系统,除了满足对于黑白电视系统的上述要求外, 还必须有30个不同的色彩度,试证明传输这彩色系统的信息率 要比黑白系统的信息率约大2.5倍。 解: (1)每个像素的电平取自10个不同的电平,形成的概率 空间为:
解: 每个像素的电平亮度形成了一个概率空间,如下:
平均每个像素携带的信息量为:
每帧图像由3×105个像素组成,且像素间是独立的,因此每帧图
像含有的信息量为:
平均每个汉字携带的信息量为 择1000字来描述,携带的信息量为
bit/sym; 选
需要汉字个数为:
【2.18】设有一信源,它在开始时以P(a)=0.6, P(b)=0.3, P(c)=0.1的概率发出X1。如果X1为a时,则 X2为 a、b、c 的概 率为1/3;如果X1为b时,则X2为 a、b、c 的概率为1/3;如果X1 为c时,则X2为a、b的概率为1/2,为c的概率为0。而且后面发 出Xi的概率只与Xi-1有关,又 。试用马尔克夫信源的图示法画出状态 转移图,并计算此信源的熵H∞。
解: 信源为一阶马尔克夫信源,其状态转换图如下所示。
根据上述状态转换图,设状态分别为
P(a)、P(b) 和P(c) ,

《信息论》试题(精华)及答案(精华版)

《信息论》试题(精华)及答案(精华版)

期终练习,10%就是胖子 ,80%不胖不瘦 ,10%就是瘦子;已知胖子得高血压的概率 一,某地区的人群中 就是 15% ,不胖不瘦者得高血压的概率就是 10%,瘦子得高血压的概率就是 5% ,就“该地区的 某一位高血压者就是胖子”这句话包含了多少信息量;解: 设大事 A: 某人就是胖子 ; B: 某人就是不胖不瘦 C:某人就是瘦子D: 某人就是高血压者依据题意 ,可知 :P(A)=0 , 1 P(B)=0 , 8 P(C)=0 ,1P(D|A)=0 , 15 P(D|B)=0 , 1 P(D|C)=0 , 05而“该地区的某一位高血压者就是胖子” 这一消息说明在 D 大事发生的条件下 ,A 大事 的发生 ,故其概率为 依据贝叶斯定律 P(A|D),可得 :P(D) = P(A)* P(D|A) + P(B)* P(D|B) +P(C)* P(D|C) = 0, 1P(A|D) = P(AD)/P(D) = P(D|A)*P(A)/ P(D) = 0, 15*0 , 1/0, 1= 0,15故得知“该地区的某一位高血压者就是胖子”这一消息获得的多少信息量为 I(A|D) = - logP(A|D)=log(0 ,15) ≈ 2, 73 (bit): 二,设有一个马尔可夫信源 ,它的状态集为 {S 1,S 2,S 3}, 符号集为 {a 1,a 2,a 3 }, 以及在某状态下发出 p (a k | s i ) (i,k=1,2,3), 如下列图符号集的概率就是 (1) 求图中马尔可夫信源的状态极限概率并找出符号的极限概率(2) 运算信源处在某一状态下输出符号的条件熵 H(X|S=j) (j=s 1,s 2,s 3)(3) 求出马尔可夫信源熵 H解 :(1) 该信源达到平稳后 , 有以下关系成立 :Q( E 1 ) Q(E 3 ) 273727Q(E 1 )3 4 1 4 1 2 1 2 Q( E 2 ) Q(E 1 ) Q( E 2 )Q(E )可得 2 Q( E 3 ) Q(E 1 ) Q( E 2 )Q(E ) 3Q( E 1 ) Q(E 2 ) Q(E 3 ) 133 72 73 7 p(a 1)Q(E i ) p( a 1 |E i ) i 13 p(a 2 )Q(E i ) p(a 2 |E i ) i 1 3p(a ) Q(E ) p(a |E ) 3 i 3 i i 13 p(a k |S 1 ) log p(a k | S 1) 1.(5 bit/ 符号)H ( X | S 1 ) k 13(1 bit/ 符号)(2) H ( X | S 2 ) p(a k |S 2 ) log p(a k | S 2 ) k 13p(a k |S 3 ) log p(a k | S 3 ) 0(bit/ 符号)H ( X | S 3 ) k 13(3) H Q(E i ) H (X | E i ) 2 / 7*3/ 2 3/ 7*1 2 / 7*0 6 / 7 (比特 /符号 )i 1三,二元对称信道的传递矩阵为 (1) 如 P(0)=3/4,P(1)=1/4, 求 H(X),H(X|Y) 与 I(X;Y)(2) 求该信道的信道容量及其最大信道容量对应的正确输入分布2解: ⑴ H ( X ) = p(x i )log p( x i ) 75 25 0, 811(比特 /符号 )= i 1p( y 1 ) p( x 1 ) p( y 1 | x 1 ) p( x 2 ) p( y 1 | x 2 ) =0,75*0 ,6+0 , 25*0 , 4=0 , 55 p( y 2 ) p( x 1 ) p( y 2 | x 1 ) p( x 2 ) p( y 2 | x 2 ) 0, 75*0 , 4+0 , 25*0 , 6=0, 45 H (Y) 0, 992(比特 /符号 )H (Y | X ) p( x)H (Y | x 1) p(x 2 ) H (Y | x 2 ) H (0.6,0.4) H (0.4,0.6) 0.4)7(1 比特 / 符号)H ( X | Y ) H ( XY ) H (Y) H ( X ) H (Y | X ) H (Y)0, 811+0, 971-0 , 992=0, 79 (比特 /符号 )I(X;Y)=H(X)-H(X|Y) =0, 811-0, 79=0, 021(比特 /符号 )(2) 此信道为二元对称信道 ,所以信道容量为C=1-H(p)=1-H(0 , 6)=1-0 , 971=0, 029( 比特 /符号 )当输入等概分布时达到信道容量p p 22pp2244,其中p 1 p ;四,求信道的信道容量0 44 0p p 22pp22解: 这就是一个准对称信道,可把信道矩阵分为: ,N1 M 1 1 4 , N 2 4 , M 422C log r H ( p 2, p 2 ,0,4 ) Nk log Mkk 1log 2 H ( p 2 , p 2 ,0,4 )(1 4 )log(1 44)4log 4(比特/ 符号)故1H ( p 2 , p 2 ,4 ) (1 4 )log(1 4 ) log 4 当输入等概分布时达到信道容量;1XP( x) x1x2x3x4x5x6五,信源(1) 利用霍夫曼码编成二元变长的惟一可译码,并求其L,并求其L(2) 利用费诺码编成二元变长的惟一可译码(3) 利用香农码编成二元变长的惟一可译码(1) 香农编码:,并求其信源符号x 1x 2x 3x 4x 5x 6概率P(x i)0,40,20,20,10,050,05码长233455累积概率0,40,60,80,90,95码字0001110011001110011110l i PL =0 ,4×2+0,2×3+0,2×3+0,1×4+0,05×5+0,05×5=2,9(码元/信源符号)η=H(X)/( L logr)=2 ,222/2,9=0 ,7662(2) 霍夫曼编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)=0 ,9964(3)费诺编码:L =0 ,4×2+0,2×2×2+0 ,1×3+0,05×4×2=2,3(码元/信源符号)η=H(X)/( L logr)= 0 ,99641 21312161613121613六,设有一离散信道,传递矩阵为设P(x1 )= P(x 2)=1/4,P(x 3)=1/2,试分别按最小错误概率准就与最大似然译码准就确定译码规章并相应的运算机平均错误概率的大小;解:(1) 按最大似然译码准就,F(y1)=x1 F(y2)=x2 F(y3)=x3P(E)=1/2(1/3+1/6)+1/4 ×2×(1/3+1/6)=1/2(2) 联合概率矩阵为,就按最小错误概率准1 8 1 24 1 61121811212411214F(y1)=x3 F(y2)=x2 F(y3)=x3 P(E)= 1/8+1/24+2/12 +1/24+1/12=11/240,131,13213UP(u)八,一个三元对称信源0 1 1 1 0 1 11接收符号为 V = {0,1,2}, 其失真矩阵为 (1)求 D max 与 D min 及信源的 R(D) 函数;(2)求出达到 R(D ) 的正向试验信道的传递概率1 r2 3解 :(1) D max = min P ( u ) d(u ,v) 1 V U 3D min = P ( u ) min d (u , v) 0 j i 1由于就是三元对称信源 ,又就是等概分布 ,所以依据 r 元离散对称信源可得 R(D) =log3 - Dlog2 -H(D) = log3 - D - H(D) 0<=D<=2/3= 0 D>2/3(2)满意 R(D) 函数的信道其反向传递概率为1 D (i j )P(u i | v j ) D2 (i j )13以及有 P(v j )= 依据依据贝叶斯定律 ,可得该信道的正向传递概率为 :1 D2 D (i j )P( v j | u i ) (i j )九,设二元码为 C=[11100,01001,10010,00111](1) 求此码的最小距离 d min ;(2) 采纳最小距离译码准就 ,试问接收序列 10000,01100 与 00100 应译成什么码字?(3) 此码能订正几位码元的错误?解:(1) 码距如左图11100 01001 10010 001111110001001 10010 00111 33 4 43 3故 d min = 3(2) 码距如右图故 10000 译为 译为 11100,00100 译为 11100 或 0011110010,01100 d min 2 e 1,知此码能订正一位码元的错误;(3) 依据。

信息论第二章课件及习题答案

信息论第二章课件及习题答案

2013-8-1
2
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
I ( xk ; y j )
loga rkj qk w j
定义2.1.1(非平均互信息量) 给定 一个二维离散型随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J} (因此就给定了两个离散型随机 变量 {X, xk, qk, k=1~K}和{Y, yj, wj, j=1~J})。 事件xk∈X与事件yj∈Y的互信息 量定义为I(xk; yj)
2013-8-1
3
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
I ( xk ; y j )
loga loga rkj qk w j P(( X , Y ) ( xk , y j )) P( X xk ) P(Y y j )
2013-8-1 17
图2.2.1
H(X) 1.0
0.5
0
2013-8-1
0.5
1
P
18
§2.2 离散型随机变量的平均 自信息量(熵)
定义2.2.2(条件熵) 给定一个二维离散型 随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J}。
称如下定义的H(X|Y) 为X相对于Y的条件 熵。
2013-8-1 13
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
小结 非平均互信息量I(xk; yj)。 非平均自信息量h(xk),h(yj)。 条件的非平均自信息量h(xk|yj), h(yj|xk)。 联合的非平均自信息量h(xk, yj)。 相互关系: I(xk; yj)≤min{h(xk),h(yj)}。 h(xk|yj)=h(xk)-I(xk; yj) 。 h(xk, yj)=h(yj)+h(xk|yj)=h(xk)+h(yj|xk)。 h(xk, yj)=h(xk)+h(yj)-I(xk; yj)。

作业参考答案信息论

作业参考答案信息论
2.23设信源为
试求:
(1)信源的熵、信息含量效率以及冗余度;
(2)求二次和三次扩展信源的概率空间和熵。
解:(1)
(2)假设X为DMS,则
可得二次扩展信源的概率空间
2次扩展信源的熵为
三次扩展信源的概率空间及熵为
2.18设有一个信源,它产生0,1符号的信息。它在任意时间而且不论以前发生过什么符号,均按 的概率发出符号。
可得,该排列发生所给出的信息量为
bit
dit
(2)设事件B为从中抽取13张牌,所给出的点数互不相同。
扑克牌52张中抽取13张,不考虑排列顺序,共有 种可能的组合。13张牌点数互不相同意味着点数包括A,2,…,K,而每一种点数有4种不同的花色意味着每个点数可以取4中花色。所以13张牌中所有的点数都不相同的组合数为 。因为每种组合都是等概率发生的,所以
(2)联合熵 表示平均每两个信源符号所携带的信息量。平均每一个信源符号所携带的信息量近似为
原因在于 考虑了符号间的统计相关性,平均每个符号的不确定度就会小于不考虑符号相关性的不确定度。
2.20黑白气象传真图的消息只有黑色(B)和白色(W)两种,即信源 ,设黑色出现的概率为 ,白色的出现概率为 。
(1)假设图上黑白消息出现前后没有关联,求熵
1/18
0
1
1/18
1/3
1/18
2
0
1/18
7/36
求信源的信息熵、条件熵与联合熵,并比较信息熵与条件熵的大小。
解:边缘分布为
条件概率 如下表:
0
1
2
0
9/11
1/8
0
1
2/11
3/4
2/9
2
0
1/8
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

3.5 AEP. Let ,,21X X be independent identically distributed random variables
drawn
according
to
the
probability mass
function {}m x x p ,2,1),(∈. Thus ∏==n
i i n x p x x x p 1
21)(),,,( . We know that
)(),,,(log 1
21X H X X X p n n →- in probability. Let ∏==n
i i n x q x x x q 1
21)(),,,( , where q is another probability mass function on {
}m ,2,1. (a) Evaluate ),,,(log 1
lim 21n X X X q n
-, where ,,21X X are i.i.d. ~ )(x p .
8.1 Preprocessing the output. One is given a communication channel with transition probabilities )|(x y p and channel capacity );(max )(Y X I C x p =. A helpful statistician preprocesses the output by forming )(_
Y g Y =. He claims that this will strictly improve the capacity. (a) Show that he is wrong.
(b) Under what condition does he not strictly decrease the capacity?
8.3 An addition noise channel. Find the channel capacity of the following discrete memoryless channel:
Where {}{}2
1Pr 0Pr ====a Z Z . The alphabet for x is {}1,0=X . Assume that Z is independent of X . Observe that the channel capacity depends on the value of a .
8.5 Channel capacity. Consider the discrete memoryless channel
)11 (mod Z X Y +=, where ⎪⎪⎭⎫
⎝⎛=1/3 1/3, 1/3,3 2, ,1Z and {}10,,1,0 ∈X . Assume that
Z is independent of X .
(a) Find the capacity.
(b) What is the maximizing )(*x p ?
8.12 Time-varying channels. Consider a time-varying discrete memoryless channel. Let n Y Y Y ,,21 be conditionally independent given
n X X X ,,21 , with conditional distribution given by ∏==n
i i i i x y p x y p 1)|()|(.
Let ),,(21n X X X X =, ),,(21n Y Y Y Y =. Find );(max )(Y X I x p .
9.1 Differential entropy. Evaluate the differential entropy ()h ln X f f =-⎰ for the following: (a) (),0x f x e x λλ-=≥. (b) ()1
2
x f x e λλ-=
(c) The sum of X1 and X2, where they are independent normal random variables with means 1μ and variance 2t t=σ,1,2.
10.2 A channel with two independent looks at Y . Let 1Y and 2Y be conditionally independent and conditionally identically distributed given
X .
(a) Show );();(2),;(21121Y Y I Y X I Y Y X I -=. (b) Conclude that the capacity of the channel
X
(Y1,Y2)
is less than twice the capacity of the channel
X
Y1
10.3 The two-look Gaussian channel. Consider the ordinary Shannon Gaussian channel with two correlated looks at X , i.e., ),(21Y Y Y =, where
2
211Z X Y Z X Y +=+= with a power constraint P on X , and ),0(~),(221K N Z Z ,
where
⎥⎦
⎤⎢⎣⎡=N N N N K ρρ. Find the capacity C for (a) 1=ρ (b) 0=ρ (c) 1-=ρ
10.4 Parallel channels and waterfilling. Consider a pair of parallel Gaussian
channels,
i.e.,
⎪⎪⎭

⎝⎛+⎪⎪⎭⎫ ⎝⎛=⎪⎪⎭⎫ ⎝⎛212121Z Z X X Y Y , where
⎪⎪⎭⎫ ⎝⎛⎥⎥⎦⎤⎢
⎢⎣⎡⎪⎪⎭⎫ ⎝⎛222121 00 ,0~σσN Z Z ,And there is a power constraint P X X E 2)(2221≤+.
Assume that 2221σσ>. At what power does the channel stop behaving like a single channel with noise variance 22σ, and begin behaving like a pair of channels?。

相关文档
最新文档