信息论与编码知识梳理及课后答案
信息论与编码题库及答案
信息论与编码题库及答案信息论是一门关于信息传输和处理的学科,主要研究信息的传输、存储与处理,以及在信息传输过程中可能产生的各种噪声和干扰。
信息论在近年来得到了广泛的应用,尤其在计算机科学、通信工程、数据处理以及加密技术等领域中得到了广泛应用。
作为信息处理学科的一个分支,编码学是信息论中重要的研究领域之一,主要研究在信息传输的过程中如何将信息进行编码,并在保证高可靠性的同时减少信息传输的开销。
现代编码学研究所涉及到的内容非常广泛,包括错误检测、纠正编码、信息压缩以及密码学等领域。
为了帮助广大信息与通信工程学习者更好地掌握编码理论及其应用,以下总结了一些编码学的题库及答案,供大家参考。
一、错误检测编码1. 什么是奇偶校验码?答:奇偶校验码是一种简单的错误检测编码方式,它采用了消息的一位奇偶性作为编码方式。
具体而言,对于一组位数固定的二进制数,在其中加入一个附加位,使得这组数的位数为偶数。
然后将这些二进制数按照某种规则排列,例如相邻的两位组成一组,计算每组中1的个数。
如果某组中1的个数是偶数,则附加位赋值为0,否则为1。
这样,如果在传输的过程中数据出现了单一位的错误,则会被检测出来。
2. 什么是海明编码?答:海明编码是一种通过添加校验位来实现错误检测和纠正的编码方式。
在海明编码中,校验位的数目为2的k次幂个,其中k 表示数据位中最大1的位置数。
具体而言,将原始信息看作一组二进制数,再将这些数按照某种规则排列,然后按照一定的算法计算出每个校验位的值,并将这些值添加到原始信息中。
在传输的过程中,如果发现了错误的位,则可以通过一系列错误检测和纠正的操作来确定和修复出错的信息位。
二、信息压缩编码1. 什么是霍夫曼编码?答:霍夫曼编码是一种基于无损数据压缩的编码方式,它的特点是可以将原始信息中出现最频繁的字符用最短的二进制码来表示,同时将出现次数较少的字符用较长的二进制码来表示。
具体来说,霍夫曼编码首先对原始信息中的字符进行统计,确定每个字符出现的频率。
信息论与编码陈运主编答案完整版
∑∑∑ ∑∑ = ?
p x x x( i1 i2i3 )log p x( i3 / x xi1 i2 ) +
p x x( i1 i3 )log p x( i3 / xi1)
i1 i2 i3
i1 i3
∑∑∑ ∑∑∑ = ?
p x x x( i1 i2i3 )log p x( i3 / x xi1 i2 ) +
0.25
0.75
设随机变量 Y 代表女孩子身高
Y y1(身高>160cm) y2(身高<160cm)
P(Y)
0.5
0.5
已知:在女大学生中有 75%是身高 160 厘米以上的
即: p y( 1 / x1) = 0.75 bit
求:身高 160 厘米以上的某女孩是大学生的信息量
p x p y( 1) ( 1 / x1 ) log 0.25×0.75 =1.415 bit 即:I
∴H X X( 1 2...Xn) ≤ H X( 1)+H X( 2)+H X( 3)+ +... H X( n)
2.9 设有一个信源,它产生 0,1 序列的信息。它在任意时间而且不论以前发生过什么符号, 均按 P(0) = 0.4,P(1) = 0.6 的概率发出符号。 (1) 试问这个信源是否是平稳的? (2) 试计算 H(X2), H(X3/X1X2)及 H∞; (3) 试计算 H(X4)并写出 X4 信源中可能有的所有符号。
0.17??
HX
i
px px
=?(0.2log0.2 + + + + + H X( ) > log 62 = 2.585
= 2.657 bit symbol/
信息论与编码陈运主编答案完整版
p x x( i1 i3 )log p x( i3 / xi1)
i1 i2 i3
i1 i3
∑∑∑ ∑∑∑ = −
p x x x( i1 i2i3 )log p x( i3 / x xi1 i2 ) +
p x x x( i1 i2i3 )log p x( i3 / xi1)
i1
i2 i3 i1 i2 i3 p x( i3 / xi1)
( 1)
5 / 61
⎧p e( 1 ) = p e( 2 ) = p e( 3 ) ⎨
⎩p e( 1 ) + p e( 2 ) + p e( 3 ) =1 ⎧p e( 1 ) =1/3 ⎪ ⎨p e( 2 ) =1/3 ⎪⎩p e( 3 ) =1/3
⎧p x( 1 ) = p e( 1 ) (p x1 /e1 ) + p e( 2 ) (p x1 /e2 ) = p p e⋅( 1 ) + p p e⋅( 2 ) = (p + p)/3 =1/3 ⎪⎪ ⎨p x( 2 ) = p e( 2 ) (p x2 /e2 ) + p e( 3 ) (p x2 /e3 ) =p p e⋅( 2 ) + p p e⋅( 3 ) = (p + p)/3 =1/3
p x( i ) = I x( i ) =−log p x( i ) = log52!= 225.581 bit
(2) 52 张牌共有 4 种花色、13 种点数,抽取 13 张点数不同的牌的概率如下:
413 p x( i ) =
C5213
413 I x( i ) = −log p x( i ) = −log C5213 =13.208 bit
解: (1)
信息论与编码习题参考答案(全)
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
《信息论与编码》部分课后习题参考答案
P ( y1 = 0 | M 1 ) P ( y1 = 0)
因为信道为无记忆信道,所以
P( y1 = 0 | M 1 ) = P( y1 = 0 | x11 x12 = 00) = P( y1 = 0 | x11 = 0) = P(0 | 0) = p
同理,得 I ( y1 = 0 | M i ) = P ( y1 = 0 | xi1 xi 2 ) = P ( y1 = 0 | xi1 ) 输出第一个符号是 y1=0 时, 有可能是四个消息中任意一个第一个数字传送来的。 所以
第二章
2.1 同时掷两个骰子,设每个骰子各个面向上的概率都是 1/6。试求: (1)事件“2 和 6 同时出现”的自信息量; (2)事件“两个 3 同时出现”的自信息量; (3)事件“两个点数中至少有一个是 5”的自信息量; (4)两个点数之和的熵。 答: (1)事件“2 和 6 同时出现”的概率为:
《信息论与编码》
部分课后习题参考答案
1.1 怎样理解消息、信号和信息三者之间的区别与联系。 答:信号是一种载体,是消息的物理体现,它使无形的消息具体化。通信系统中传输的是 信号。 消息是信息的载体, 信息是指消息中包含的有意义的内容, 是消息中的未知成分。 1.2 信息论的研究范畴可以分成哪几种,它们之间是如何区分的? 答:信息论的研究范畴可分为三种:狭义信息论、一般信息论、广义信息论。 1.3 有同学不同意“消息中未知的成分才算是信息”的说法。他举例说,他从三岁就开始背 诵李白诗句“床前明月光,疑是地上霜。举头望明月,低头思故乡。 ” ,随着年龄的增长, 离家求学、远赴重洋,每次读到、听到这首诗都会带给他新的不同的感受,怎么能说这 些已知的诗句没有带给他任何信息呢?请从广义信心论的角度对此现象作出解释。 答:从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识 水平、文化素质的影响。这位同学在欣赏京剧时也因为主观因素而获得了享受,因此属于广 义信息论的范畴。
信息论与编码第二章答案
第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。
2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。
2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。
答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。
从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。
2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。
答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。
信息论与编码习题参考答案(全)
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
信息论与编码知识梳理及课后答案共69页文档
•
46、寓形宇内复几时,曷不委心任去 留。
•
47、采菊东篱下,悠然见南山。
•
48、啸傲东轩下,聊复得此生。
•
49、勤学如春起之苗,不见其增,日 有所长 。
•
50、环堵萧然,不蔽风日;短褐穿结 ,箪瓢 屡空, 晏如也 。
谢谢你的阅读
❖ 知识就是财富 ❖ 丰富你的人生
71、既然我已经踏上这条道路,那么,任何东西都不应妨碍我沿着这条路走下去。——康德 72、家庭成为快乐的种子在外也不致成为障碍物但在旅行之际却是夜间的伴侣。——西塞罗 73、坚持意志伟大的事业需要始终不渝的精神。——伏尔泰 74、路漫漫其修道远,吾将上下而求索。——屈原 75、内外相应,言行相称。——韩非
信息论基础与编码课后题答案(第三章)
3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为51661344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。
解:(1)12()0.737,() 1.322I x bit I x bit ==(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,22(;)0.907I x y bit =(3)()(0.6,0.4)0.971/H X H bit symbol ==()(0.6,0.4)0.971/H Y H bit symbol ==(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =(5)(;)0.9710.7140.257/I X Y bit symbol =-=3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。
该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。
验证在该信道上每个字母传输的平均信息量为0.21比特。
证明:信道传输矩阵为:11112666111162661111662611116662P ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦,信源信宿概率分布为:1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,信宿收到的消息集合Y 包含12,y y 。
《信息论与编码》课后习题答案
1、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。
2、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。
4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。
5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
6、 信息的 可度量性 是建立信息论的基础。
7、 统计度量 是信息度量最常用的方法。
8、 熵 是香农信息论最基本最重要的概念。
9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
18、离散平稳有记忆信源的极限熵,。
19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。
21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=。
22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。
24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率 之比 。
信息论与编码知识梳理及课后答案分解共69页文档
43、重复别人所说的话,只需要教育; 而要挑战别人所说的话,则需要头脑。—— 玛丽·佩蒂博恩·普尔
44、卓越的人一大优点是:在不利与艰 难的遭遇里百折不饶。——贝多芬
45、自己的饭量自己知道。——苏联
信息论与编码知识梳及课后答案分 解
51、山气日夕佳,飞鸟相与还。 52、木欣欣以向荣,泉涓涓而始流。
53、富贵非吾愿,帝乡不可期。 54、雄发指危冠,猛气冲长缨。 55、土地平旷,屋舍俨然,有良田美 池桑竹 之属, 阡陌交 通,鸡 犬相闻 。
41、学问是异常珍贵的东西,从任何源泉吸 收都不可耻。——阿卜·日·法拉兹
信息论与编码课后习题答案
1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。
解:该信源的香农线图为: 1/3○○2/3(x 1) 1 (x 2)在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p=)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p=)(0)(2131x p x p + )()(21x p x p +=1 得431)(=x p 412)(=x p 马尔可夫信源熵H = ∑∑-IJi j i jix x p x xp x p )(log )()( 得 H=0.689bit/符号2.设有一个无记忆信源发出符号A 和B ,已知4341)(.)(==B p A p 。
求: ①计算该信源熵;②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。
解:①∑-=Xiix p x p X H )(log )()( =0.812 bit/符号②发出二重符号序列消息的信源,发出四种消息的概率分别为1614141)(=⨯=AA p 1634341)(=⨯=AB p 1634143)(=⨯=BA p 1694343)(=⨯=BB p 用费诺编码方法 代码组 b iBB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号BX H R )(22==0.963 bit/码元时间③三重符号序列消息有8个,它们的概率分别为641)(=AAA p 643)(=AAB p 643)(=BAA p 643)(=ABA p 649)(=BBA p 649)(=BAB p 649)(=ABB p 6427)(=BBB p用霍夫曼编码方法 代码组 b i BBB 6427 0 0 1 BBA 649 0 )(6419 1 110 3 BAB 649 1 )(6418)(644 1 101 3 ABB 649 0 0 100 3AAB 643 1 )(646 1 11111 5 BAA 643 0 1 11110 5ABA 643 1 )(6440 11101 5AAA 6410 11100 5)(3)(3X H X H ==2.436 bit/三重符号序列 3B =2.469码元/三重符号序列3R =BX H )(3=0.987 bit/码元时间 3.已知符号集合{ 321,,x x x }为无限离散消息集合,它们的出现概率分别为 211)(=x p ,412)(=x p 813)(=x p ···i i x p 21)(=···求: ① 用香农编码方法写出各个符号消息的码字(代码组); ② 计算码字的平均信息传输速率; ③ 计算信源编码效率。
信息论与编码习题参考答案(全)
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
信息论与编码理论课后答案
信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。
2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的是建立信息论的基础。
7、8、是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维连续随即变量x在[a,b] 。
1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。
2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。
信息论与编码课后习题答案
信息论与编码课后习题答案信息论与编码课后习题答案第⼆章2.3 同时掷出两个正常的骰⼦,也就是各⾯呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的⾃信息; (2) “两个1同时出现”这事件的⾃信息;(3) 两个点数的各种组合(⽆序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的⼦集)的熵; (5) 两个点数中⾄少有⼀个是1的⾃信息量。
解:(1)bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==+=(2)bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-===(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是3616161=? 其他15个组合的概率是18161612=?symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=??? ??+-=-=∑参考上⾯的两个点数的排列,可以得出两个点数求和的概率分布如下:bit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=?+?+?+?+?+?-=-==?∑(5)bit x p x I x p i i i 710.13611log)(log )(3611116161)(=-=-===2.42.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r=(1)如果有⼈告诉你X 和Y 的实验结果,你得到的平均信息量是多少?(2)如果有⼈告诉你Y 的实验结果,你得到的平均信息量是多少?(3)在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?解:联合概率(,)i j p x y 为 22221(,)(,)log (,)724112log 4log 24log 4247244i j i j ijH X Y p x y p x y ==?=2.3bit/符号X 概率分布 21()3log 3 1.583H Y =?=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是 =0.72bit/符号 Y y1 y2 y3 P8/248/248/242.15P(j/i)=2.16 ⿊⽩传真机的消息元只有⿊⾊和⽩⾊两种,即X={⿊,⽩},⼀般⽓象图上,⿊⾊的Y X y1y 2 y 3 x 1 7/24 1/24 0 x 2 1/24 1/4 1/24 x 31/247/24X x 1 x 2 x 3 P8/248/248/24出现概率p(⿊)=0.3,⽩⾊出现的概率p(⽩)=0.7。
信息论和编码陈运主编答案解析(完整版)
⇒ H X( 2 )
≥ H X( 2 / X1 ) I X( 3;X X1 2 ) ≥ 0
⇒ H X( 3 ) ≥ H X( 3 / X X1 2 )
... I X( N;X X1 2...Xn−1) ≥ 0
⇒ H X( N ) ≥ H X( N / X X1 2...Xn−1)
WORD 完美格式
专业整理
不满足极值性的原因是
。
i
2.7 证明:H(X3/X1X2) ≤ H(X3/X1),并说明当 X1, X2, X3 是马氏链时等式成立。证明:
H X(3 / X X12 ) − H X(3 / X1)
∑∑∑ ∑∑ = −
p x x x( i1 i2i3 )log p x( i3 / x xi1 i2 ) +
⎢p e( 1 ) = p e( 2 ) = p e( 3 ) ⎢
⎢p e( 1 ) + p e( 2 ) + p e( 3 ) =1
⎢p e( 1 ) =1/3 ⎢ ⎢p e( 2 )
⎢
=1/3 ⎢p e( 3 ) =1/3
⎢p x( 1 ) = p e( 1 ) (p x1 /e1 ) + p e( 2 ) (p x1 /e2 ) = p p e⋅( 1 ) + p p e⋅ ( 2 ) = (p + p)/3 =1/3 ⎢⎢ ⎢p x( 2 ) = p e( 2 ) (p x2 /e2 ) + p e( 3 ) (p x2 /e3 ) =p p e⋅( 2 ) + p p e⋅ ( 3 ) = (p + p)/3 =1/3
解: (1)
这个信源是平稳无记忆信源。因为有这些词语:“它在任意时间....而且不论以前发生过什么符 号...........……”
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息存在于自然界,也存在于人 类社会,其本质是运动和变化。可以说 哪里有事物的运动和变化,哪里就会产 生信息。 信息必须依附于一定的物质形式存 在,这种运载信息的物质,称为信息载
体。
人类交换信息的形式丰富多彩,使 用的信息载体非常广泛。概括起来, 有语言、文字和电磁波。
信息至今无确切定义,但信息有以下 主要特征: 1 信息来源于物质,又不是物质本 身;它从物质的运动中产生出来,又可 以脱离源物质而相对独立地存在。 2 信息来源于精神世界,但又不局 限于精神领域。
电子商务系统中不可缺少的重要环节。
密码编码学是信息安全技术的核心,密码编码学的 主要任务是寻求产生安全性高的有效密码算法和协 议,以满足对消息进行加密或认证的要求。 密码分析学的主要任务是破译密码或伪造认证信息, 实现窃取机密信息或进行诈骗破坏活动。 这两个分支既相互对立又相互依存,正是由于这种 对立统一关系,才推动了密码学自身的发展。 香农在 1949 年发表的《保密通信的信息理论》论 文中,首先用信息论的观点对信息保密问题作了全 面的论述。
香农信息论主要讨论的是语法信 息中的概率信息,本书也以概率信息为 主要研究对象。
§1.3 信息论的起源、发展及研究内容
起源
信息论自诞生到现在不过50多年, 在人类科学史上是相当短暂的。但它的
发展和对学术界及人类社会的影响是相
当广泛和深刻的。信息作为一种资源, 如何开发、利用、共享,是人们普遍关 心的问题。
信息论与编码
贵州大学 彭长根
有关说明:
1、计划学时54,全部为讲课学时,适当组织讨论形式。 2、总成绩由两部分组成,平时成绩占30%,考试成绩 占70%,由作业和考勤组成。
课程概述
当今的时代是一个信息的时代,信息处理技术的不 断进步极大的影响了我们的生活,使我们的生活质 量得到很大提高。 现代“信息”的概念,已经与半导体技术、微电子 技术、计算机技术、通讯技术、网络技术、多媒体 技术、信息服务业、信息产业、信息经济、信息化 社会、信息管理等含义紧密地联系在一起。 信息技术(Information Technology,简称IT)是包 括信息的采集、传递、处理、再生和使用等功能的 技术。包括:信息获取技术、信息处理技术、信息 传输技术、信息控制技术和信息应用技术。
语法信息、语义信息和语用信息三个
基本类型。其中最基本也是最抽象的类 型是语法信息。也是迄今为止在理论上 研究得最多的类型。香农研究的就是语 法信息。
全信息
语义信息
语法信息
语用信息
离散信息
连续信息
明晰信息
模糊信息
语法信息考虑的是事物运动状态和 变化方式的外在形式 。 当然,按照事物运动的方式,还可 以把信息进一步细分为概率信息、偶发 信息、确定信息和模糊信息。
可扩充性 :可不断扩充 可存储、传输与携带性:通过 载体实现
可压缩性:精炼 、归纳 可替代性 :代替实物、产生效用
可扩散性 :通过载体实现传播,如媒体 可共享性 :与实物不同,可共享 时效性 :有“寿命” 信息在信息化程度越来越高的社会 中将起到越来越重要的作用,是比物质 和能量更为宝贵的资源,全面掌握信息 的概念,正确、及时、有效地利用信息, 能够为人类创造更多的财富。
本课程将介绍信息科学的基础理论和基本方 法,课程将基于一个通信系统的抽象数学模 型进行展开,课程的数学基础为概率论。整 个课程可分为基础理论和编码理论两部分组 成
信息
信源
编码
信号
信道
信号
解码
信息
信宿
干扰
信道:在物理线路上划分 的逻辑通道。
学习注意事项:
本课程以概率论为基础,数学推导较多,学习时 主要把注意力集中到概念的理解上,不过分追求数 学细节的推导。 学习时一定要从始至终注意基本概念的理解,不 断加深概念的把握。学习时注意理解各个概念的 “用处”,结合其他课程理解它的意义,而不要把 它完全当作数学课来学习,提倡独立思考,注重思 考在学习中的重要性。
3 指出通信系统的中心问题:有效 而可靠传递信息; 4 指明了解决问题的方法:编码。
以上这些成果 1948 年以“通信的 数学理论”(A mathematical theory of communication)为题公开发表, 标志着信息论的正式诞生。
维纳(Wiener)在研究火控系统和 人体神经系统时,提出了在干扰作用下 的信息最佳滤波理论,成为信息论的一 个重要分支。
信息科学是以信息为基本研究对象,以信息 的运动规律和应用方法为主要研究内容,这 是信息科学有别于一切传统科学最基本的特 征。信息科学主要包括信息论和计算科学两 部分,二者奠定了整个信息科技大厦的基石。 信息论源于统计理论和电信技术的发展,主 要研究信息属性、信息度量、信息表示和信 息传输。
20世纪40年代,香农(C.E.Shannon)提出了信 息的统计定义,于1948年发表了信息论的奠基性 论文《通信的数学理论》。由于香农对信息论的 发展作出了巨大贡献,被认为是信息论的创始人。
20世纪30年代,新的调制方式, 如调频、调相、单边带调制、脉冲编 码调制和增量调制的出现,使人们对 信息能量、带宽和干扰的关系有了进
一步的认识。
1936 年 , 阿 姆 斯 特 朗 ( Edwin· Armstrong) 指 出 增 大 带
宽 可 以 使 抗 干 扰 能 力 加 强,并根据这一思想提出了宽频
计算科学是对描述和变换信息的算法过程, 包括其理论、分析、设计、效率分析、实现 和应用的系统的研究,是整个计算机技术、 工程与应用的理论基础。从计算机角度讲, 计算科学的本质就是数据变换。 计算科学与数学的关系很密切,数学是计 算科学的主要基础,数学与电子科学构成 了我们今天计算机系统的基础,也构成了 计算科学的基础。但是,与数学相比,电 子技术基础地位的重要性不及数学。
60 年代, 信道编码技术 有了较 大发展,使它成为信息论的又一重要
分支。
1961年,香农的重要论文“双路 通信信道”开拓了多用户信息理论的
研究。
70 年代以后,多用户信息论成为
中心研究课题之一。
后来,随着通信规模的不断扩大,人们逐渐意识到
信息安全是通信系统正常运行的必要条件。于是,把密码
学也归类为信息论的分支。如今信息安全已是网络通信和
在人类历史的长河中,信息传输和 传播手段经历了五次重大变革:
1 2 3
语言的产生。
文字的产生。 印刷术的发明。
4
5
电报、电话的发明。
计算机技术与通信技术相结 合,促进了网络通信的发展。
1924 年 , 奈 奎 斯 特
(Harry Nyquist) (18891976)解释了信号带宽和信 息速率之间的关系。
色彩
视觉
果香
苦药 知识 冷热
嗅觉
味觉 听觉 触觉
总之,信息处处存在,人的眼、耳、 鼻、舌、身都能感知信息。
那么信息究竟是什么呢?
1 2 3 4
信息是事物之间的差异
信息是物质和能量在时间和空间中 分布的不均匀性” 信息是负熵 信息是作用于人类感觉器官的东 西
5
6 7 8
信息就是情报 信息就是知识。 数学家认为“信息是使概率 分布发生改变的东西” 哲学家认为“信息是物质成 分的意识成分按完全特殊的 方式融合起来的产物”
第1章 绪论
§1.1 信息的一般概念
§1.1 信息的一般概念
组成客观世界的三大基本要素: 物质 能量 信息
三要素中物质是基础,是实体。能量是物质运动的形式, E=mc2,物质可转换成能量,而能量又是改造客观世界的主 要动力。
一位美国科学家说过:“没有物质的世界是虚无 的世界;没有能源的世界是死寂的世界;没有信息 的世界是混乱的世界。”
3 信息与能量息息相关,但又与 能量有本质的区别。
4 信息具有知识的本性,但又比 知识的内涵更广泛。
5 用。 信息可以被认识主体获取和利
根据上述特征和信息的基本定义, 可以导出信息的一些重要性质:
存在的普遍性:信息普遍存在
有序性:消除不确定性,增加有序性
相对性:不同观察者所得信息量不同 可度量性:可测量
可以说我们生活在信息的海洋之中,没有信息就没有世 界,当然也就没有我们人类社会。人类利用信息利用信息 的历史非常悠久,而且随着人类社会的发展而发展。到了 现代,信息的利用已经非常重要,以至于我们当今生活的 社会被称作信息社会。可见信息的重要。
花朵开放时的色彩是一种信息,它可以引来昆虫为其
授粉;
成熟的水果会产生香味,诱来动物,动物食后为其 传播种子,果香也是一种信息; 药有苦味,让人难以吞咽,药味是一种信息; 听老师讲课可以得到许多知识,知识也是信息……。
移的频率调制方法。
1939 年 , 达 得 利 ( Homer Dudley)发明了带通声码器,指
出通信所需带宽至少同待传送消
息的带宽应该一样。声码器是最
早的语音数据压缩系统。这一时
期还诞生了无线电广播和电视广
播。
1928 年,哈特莱( Hartley )首先提
出了用对数度量信息的概念。 Shannon: Hartley的工作给Shannon很大
信息论,但是却没有给出信息的确
切定义他认为“信息就是一种消
息”。
美国数学家、控制论的 主要奠基人维纳 (Wiener)在1950年出 版的《控制论与社会》 一书中写到:“信息既不是物质又不是 能量,信息就是信息”。这句话起初受 到批评和嘲笑。揭示了信息的特质:即 信息是独立于物质和能量之外存在于客 观世界的第三要素。
语法信 息
仅考虑外在形式部分的信息。
语义信 息 仅考虑内在含义部分的信息。 语用信 息
仅考虑效用价值部分的信息。