信息论与编码答案傅祖芸

合集下载

《信息论与编码》傅祖芸_赵建中_课后答案

《信息论与编码》傅祖芸_赵建中_课后答案

⋅ 第二章课后习题【2.1】设有 12 枚同值硬币,其中有一枚为假币。

只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。

现用比较天平左右两边轻重的方法来测量。

为了在天平上称出哪一枚是假币,试问至少必须称多少次?解:从信息论的角度看,“12 枚硬币中,某一枚为假币”该事件发生的概率为 P = 112 ; “假币的重量比真的轻,或重”该事件发生的概率为 P =1 2; 为确定哪一枚是假币,即要消除上述两事件的联合不确定性,由于二者是独立的,因此有I = log12 + log 2 = log 24 比特而用天平称时,有三种可能性:重、轻、相等,三者是等概率的,均为 P = 平每一次消除的不确定性为 I = log 3 比特因此,必须称的次数为13,因此天I 1 I 2log 24 log 3 H 2.9 次因此,至少需称 3 次。

【延伸】如何测量?分 3 堆,每堆 4 枚,经过 3 次测量能否测出哪一枚为假币。

【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”或“面朝上点数之和为 8”或“两骰子面朝上点数是 3 和 4”时,试问这三种情况分别获得多少信息量?解:“两骰子总点数之和为 2”有一种可能,即两骰子的点数各为 1,由于二者是独立的,因此该种情况发生的概率为 P = 1 1 6 6 136,该事件的信息量为:⋅ ⋅ 5 =⋅ ⋅ 2 =I = log 36 H 5.17 比特“两骰子总点数之和为 8”共有如下可能:2 和 6、3 和 5、4 和 4、5 和 3、6 和 2,概率为 P = 1 1 6 6 536 ,因此该事件的信息量为:36 I = logH 2.85 比特 5“两骰子面朝上点数是 3 和 4”的可能性有两种:3 和 4、4 和 3,概率为 P =1 1 6 6 118 , 因此该事件的信息量为:I = log18 H 4.17 比特【2.3】如果你在不知道今天是星期几的情况下问你的朋友“明天星期几?”则答案中含有多少信息量?如果你在已知今天是星期四的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的顺序)?解:如果不知今天星期几时问的话,答案可能有七种可能性,每一种都是等概率的,均为P = 17,因此此时从答案中获得的信息量为I = log 7 = 2.807 比特而当已知今天星期几时问同样的问题,其可能性只有一种,即发生的概率为 1,此时获得的信息量为 0 比特。

信息论-复习资料(傅祖芸版本)

信息论-复习资料(傅祖芸版本)

P(aik)是符号集A的一维
概率分布
23
3)离散无记忆信源的N次扩展信源
若X为离散无记忆信源:
X P(x)
a1 P(a1
)
a2 P(a2 )
a3 P(a3 )
... ... ... ...
aq P(aq )
信源X的各输出Xi间统计独立、且取值同一符号集A。该信源 输出的N维随机矢量X为离散无记忆信源X的N次扩展信源。
27
信息的度量
要点:
信息的度量(信息量)和不确定性消除的程度有关,消除的不 确定性=获得的信息量;
不确定性就是随机性,可以用概率论和随机过程来测度;
推论:
概率小->信息量大,即信息量是概率的单调递减函数; 信息量应该具有可加性; 信息量的计算公式为(香农(自)信息量的度量):
I (ak )
33
3.3 信息熵的基本性质
信息熵是信源概率空间的一种特殊函数。这个函数的取 值大小,与信源的符号数及其概率分布有关。
用概率矢量P来表示概率分布P(x):
(下标1-N为时间标志)
N
P(X) P( X1X 2 X N ) P( Xi )
i 1
若各随机变量Xi取值同样符号集A:{a1,a2,…,aq},则
N
P(x i ) P(ai1ai2 ,..., aiN ) P(aik ), ik (1,2,..., q) k 1
N维随机矢量的一个取值, i=(ai1 ai2…aiN)
信道编码的主要方法 增大码率或频带,即增大所需的信道容量。这恰与信源 编码相反。
信道译码器的作用 具有检错或纠错的功能,它能将落在其检错或纠错范围 内的错传码元检出或纠正,以提高传输消息的可靠性。

《信息论与编码》部分课后习题参考答案

《信息论与编码》部分课后习题参考答案

P ( y1 = 0 | M 1 ) P ( y1 = 0)
因为信道为无记忆信道,所以
P( y1 = 0 | M 1 ) = P( y1 = 0 | x11 x12 = 00) = P( y1 = 0 | x11 = 0) = P(0 | 0) = p
同理,得 I ( y1 = 0 | M i ) = P ( y1 = 0 | xi1 xi 2 ) = P ( y1 = 0 | xi1 ) 输出第一个符号是 y1=0 时, 有可能是四个消息中任意一个第一个数字传送来的。 所以
第二章
2.1 同时掷两个骰子,设每个骰子各个面向上的概率都是 1/6。试求: (1)事件“2 和 6 同时出现”的自信息量; (2)事件“两个 3 同时出现”的自信息量; (3)事件“两个点数中至少有一个是 5”的自信息量; (4)两个点数之和的熵。 答: (1)事件“2 和 6 同时出现”的概率为:
《信息论与编码》
部分课后习题参考答案
1.1 怎样理解消息、信号和信息三者之间的区别与联系。 答:信号是一种载体,是消息的物理体现,它使无形的消息具体化。通信系统中传输的是 信号。 消息是信息的载体, 信息是指消息中包含的有意义的内容, 是消息中的未知成分。 1.2 信息论的研究范畴可以分成哪几种,它们之间是如何区分的? 答:信息论的研究范畴可分为三种:狭义信息论、一般信息论、广义信息论。 1.3 有同学不同意“消息中未知的成分才算是信息”的说法。他举例说,他从三岁就开始背 诵李白诗句“床前明月光,疑是地上霜。举头望明月,低头思故乡。 ” ,随着年龄的增长, 离家求学、远赴重洋,每次读到、听到这首诗都会带给他新的不同的感受,怎么能说这 些已知的诗句没有带给他任何信息呢?请从广义信心论的角度对此现象作出解释。 答:从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识 水平、文化素质的影响。这位同学在欣赏京剧时也因为主观因素而获得了享受,因此属于广 义信息论的范畴。

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的可度量性是建立信息论的基础。

7、统计度量是信息度量最常用的方法。

8、熵是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是∞ 。

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍。

18、离散平稳有记忆信源的极限熵,。

19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。

20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a )。

21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=。

22、对于限峰值功率的N 维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率之比。

25、若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。

信息论傅祖芸第三版答案

信息论傅祖芸第三版答案

信息论傅祖芸第三版答案【篇一:信息论】p class=txt>信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。

信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。

信息传输和信息压缩是信息论研究中的两大领域。

这两个方面又由信息传输定理、信源-信道隔离定理相互联系。

它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。

信息论发展的三个阶段第一阶段:1948年贝尔研究所的香农在题为《通讯的数学理论》的论文中系统地提出了关于信息的论述,创立了信息论。

第二阶段:20世纪50年代,信息论向各门学科发起冲击;60年代信息论进入一个消化、理解的时期,在已有的基础上进行重大建设的时期。

研究重点是信息和信源编码问题。

第三阶段:到70年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。

人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。

信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。

信息科学和技术在当代迅猛兴起有其逻辑必然和历史必然。

信息是信息科学的研究对象。

信息的概念可以在两个层次上定义:本体论意义的信息是事物运动的状态和状态变化的方式,即事物内部结构和外部联系的状态和方式。

认识论意义的信息是认识主体所感知、表达的相应事物的运动状态及其变化方式,包括状态及其变化方式的形式、含义和效用。

这里所说的“事物”泛指一切可能的研究对象,包括外部世界的物质客体,也包括主观世界的精神现象;“运动”泛指一切意义上的变化,包括思维运动和社会运动;“运动状态”指事物运动在空间所展示的性状和态势;“运动方式”是事物运动在时间上表现的过程和规律性。

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案

1、 在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。

2、 1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。

4、 按照信息的地位,可以把信息分成 客观信息和主观信息 。

5、 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。

6、 信息的 可度量性 是建立信息论的基础。

7、 统计度量 是信息度量最常用的方法。

8、 熵 是香农信息论最基本最重要的概念。

9、 事物的不确定度是用时间统计发生 概率的对数 来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。

12、自信息量的单位一般有 比特、奈特和哈特 。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是 ∞ 。

15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。

18、离散平稳有记忆信源的极限熵,。

19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。

20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a ) 。

21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=。

22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率 之比 。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码(傅祖云_讲义)第一章

信息论与编码(傅祖云_讲义)第一章



由于保密问题的特殊性,直至1976 年迪弗(Diffe)和海尔曼(Hellman)发表了《密码 学的新方向》一文,提出了公开密钥密码体制 后,保密通信问题才得到广泛研究。 尤其当今,信息的安全和保密问题更加突出和 重要。人们把线性代数、初等数论、矩阵等引 入保密问题的研究,已形成了独树一帜的分 支——密码学理论。
•香 农 1916 年 4 月 30 日 出 生 于 美 国 密 歇 根 州 的 伟大的科学家——香农 Petoskey,并且是爱迪生的远亲戚。 •1936年毕业于密歇根大学并获得数学和电子工程系 理学学士学位,在那里他遇到了离散数学奠基人乔 治· 布尔,上过他的课程。 •1940年获得麻省理工学院(MIT)数学博士学位和 电子工程硕士学位。




密码编码学是信息安全技术的核心,密码编码学的主要 任务是寻求产生安全性高的有效密码算法和协议,以满 足对消息进行加密或认证的要求。 密码分析学的主要任务是破译密码或伪造认证信息,实 现窃取机密信息或进行诈骗破坏活动。 这两个分支既相互对立又相互依存,正是由于这种对立 统一关系,才推动了密码学自身的发展。 香农在1949年发表的《保密通信的信息理论》论文中, 首先用信息论的观点对信息保密问题作了全面的论述。

信源:消息的来源 编码器:把消息变换成信号 信道:传递信号的媒介 译码器:把信道输出的信号反变换 信宿:信息的接受端 噪声:信道中的干扰
信息论所要解决的问题



可靠性 有效性 保密性 认证性
信息论的理解



狭义信息论(香农信息论) 信息的测度、信道容量、信源和信道 编码理论 一般信息论 噪声、滤波与预测、估计、保密等 广义信息论 所有与信息相关的邻域

信息论 基础理论与应用第三版(傅祖芸) 第1章 绪论

信息论 基础理论与应用第三版(傅祖芸)  第1章 绪论
信息是可以量度的,信息量有多少的差别。
15



1.2 信息论研究的 对象、目的和内容
16
研究对象:通信系统模型
信 源 信 宿
信源编码
信源解码 加密 密钥 信 道 解密 密钥
加密
信道编码
解密
信道解码
干 扰 源
17
信源、信道、信宿

信源:发送消息的源 离散信源 模拟信源
信源是信息论的主要研究对象之一.我们不探讨信 源的内部结构和机理,而关注信源的输出。重点 讨论其描述方法及性质。
7
信息的表达层次
狭义而言,通信中对信息的表达分三个层次:信 号、消息、信息。 信号:信息的物理表达,是一个物理量,是一个载 荷信息的实体,可测量、可描述、可传输、可存储、 可显示。 消息 (或符号) :信息的数学表达,承载了信息, 它是具体物理信号的数学抽象。如语言、文字、语音、 图像等。 信息:更高层次的哲学抽象,是信号与消息的承载 的对象,描述事物运动状态或存在方式的不确定性。
10

香农信息的度量
(1)样本空间 某事物各种可能出现的不同状态。 (2)概率测度 对每一个可能选择的消息指定一个概率。 (3)概率空间
a2 an X a1 P( x) p ( a ) p ( a ) p ( a ) 1 2 n

样本空间 概率测度
卷积码
22
信息论研究的目的
找到信息传输过程中的共同规律,提高信息传输的 可靠性、有效性、保密性、认证性,使信息传输系统 达到最优化。 认证性:接受者能正确判断所接收的消息的正确 性,验证消息的完整性,而不是伪造和窜改的。
23
信息论研究的内容

信息论与编码傅祖云讲义

信息论与编码傅祖云讲义
p( y 1 x 0) p( y 0 x 1) 0 是较合理旳。
单符号离散信道旳数学模型
由此可见,一般单符号离散信道旳转移概率可用
信道转移矩阵P来表达:
b1
b2
a1 a2
p(b1 a1)
p(b1
a2
)
p(b2 a1) p(b2 a2 )
ar p(b1 ar ) p(b2 ar )
3.1信道旳数学模型及分类
在广义旳通信系统中,信道是很主要旳一部分。
信道旳任务是以信号方式传播信息和存储信息。
研究信道旳目旳就是研究信道中能够传送或存储 旳最大信息量,即信道容量问题。
本章首先讨论离散信道旳统计特征和数学模型, 然后定量地研究信道传播旳平均互信息及其性质 ,并导出信道容量及其计算措施。
4、平均互信息旳凸状性(两个定理)
定理3.1 平均互信息I (X ;Y ) 是信源概率分布p(x)旳 ∩型凸函数。
平均互信息旳特征
定理3.1旳意义:对于每一种固定信道,一定存在 一种信源(某一概率分布P(X)),使输出端取得 旳平均信息量为最大Imax(∩型凸函数存在极大 值)。这时称这个信源为该信道旳匹配信源。
log
p
1
p
p
log
1 p
p
log
1 p
H ( p p) H ( p)
二元对称信道BSC旳平均互信息
I
(
X
;Y
)
(
p
p)
log
p
1
p
(p
p)
log
p
1
p
p
log
1 p
p
log
1 p
H ( p p) H ( p)

信息论与编码答案傅祖芸

信息论与编码答案傅祖芸

信息论与编码答案傅祖芸【篇一:信息论与编码课程设计报告】t>设计题目:统计信源熵与香农编码专业班级学号学生姓名指导教师教师评分2014年3月24日目录一、设计任务与要求................................................. 2 二、设计思路....................................................... 2 三、设计流程图..................................................... 3 四、程序运行及结果................................................. 5 五、心得体会....................................................... 6 参考文献 .......................................................... 6 附录:源程序.. (7)一、设计任务与要求1、统计信源熵要求:统计任意文本文件中各字符(不区分大小写)数量,计算字符概率,并计算信源熵。

2、香农编码要求:任意输入消息概率,利用香农编码方法进行编码,并计算信源熵和编码效率。

二、设计思路1、统计信源熵:统计信源熵就是对一篇英文文章(英文字母数为n),通过对其中的a,b,c,d/a,b,c,d.....(不区分大小写)统计每个字母的个数n,有这个公式p=n/n可得每个字母的概率,最后又信源熵计算公式h(x)=??p(xi)logp(xi)i?1n,可计算出信源熵h,所以整体步骤就是先统计出英文段落的总字符数,在统计每个字符的个数,即每遇到同一个字符就++1,直到算出每个字符的个数,进而算出每个字符的概率,再由信源熵计算公式计算出信源熵。

2、香农编码:香农编码主要通过一系列步骤支出平均码长与信源之间的关系,同时使平均码长达到极限值,即选择的每个码字的长度ki满足下式:i(xi)?ki?i(xi)?1,?i具体步骤如下:a、将信源消息符号按其出现的概率大小依次排列为:p1?p2?......?pn b、确定满足下列不等式的整数码长ki为:?lb(pi)?ki??lb(pi)?1 c、为了编成唯一可译码,计算第i个消息的累加概率:pi??p(ak)k?1i?1d、将累加概率pi变换成二进制数。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论基础理论与应用第三版(傅祖芸)第六章讲义(课堂)-2023年学习资料

信息论基础理论与应用第三版(傅祖芸)第六章讲义(课堂)-2023年学习资料

而错误译码的概率为收到b,后翻译为;,但发送端实际上-发送的却不是,则为错误译码,其条件错误概率为:-Pelb;=1 Pa;/b;-e表示:除了Fb,=a:以外的所有输入符号的集合。-则可得平均错误译码概率:-P。=EPe1b,】=∑ b,Pe/b,-它表示经过译码后平均每收到一个符号所产生错误的大小,-也称平均错误概率。-7
第6章有噪信道编码定理-6.1错误概率与译码规则-6.2错误概率与编码方法-6.4有噪信道编码定理-6.5联合信源信 编码定理
前面已经从理论上讨论了,对于无噪无损信道-只要对信源进行适当的编码,总能以信道容量无差-错的传递信息。但是一般信道总 存在噪声和干扰,-信息传输会造成损失。-那么在有噪信道中怎样能使消息传输发生的错误-最少?进行无错传输的可达的最大信 传输率是多-少呢?-这就是本章所要讨论的问题。本章的核心是香农-第二定理。-2
2采用最小错误概率译码准则,则联合矩阵为:-0.125-0.075-0.05-Pab;=Pa,Pb la;[Pab; -0.15-0.2-Fb=43-所得译码函数为:C:Fb,=4-Fb3=43-平均错误概率:-PE=∑PaPb,la -Y,X-a-=∑Pa,b-=0.125+0.05+0.075+0.075+0.05+0.125=0.5≤P-13
选讲当然,也可以对联合概率矩阵PaPbj/a中:-1先求每一行中除去Fb=a*所对应的Pab以外的元素之和;-2然后 对各行的和求和。-具体计算如下:-P=∑PaPb,Ia=∑∑Pa,Pb;la-Y.X-a-XY-a*对应的b;-即: B=∑P4∑{P6,1aF6,≠W}-=∑Pa,pa-某个输入符号ai传P-11
平均错误概率的计算-当译码规则确定后,可进一步计算平均错误概率:-P=2Pb,Pe/b,=21-PIFb,/b,1} b,-=1-2P[Fb,b,]=∑pab,-∑PFb,b,]-=∑pab,-∑Puib,]-,平均正确概率-=∑Pa b,=∑PaPb,1a-+信道传递概率-Y,X-a-上式中,平均错误概率计算是在联合概率矩阵PaPb川a]中:-1先 每一列除去Fb=a*所对应的Pa*b以外的元素之和;-2然后,对所有列求和。-10

信息论与编码(傅祖云 讲义)第五章

信息论与编码(傅祖云 讲义)第五章

平均错误率为:
PE''' 1 * P(b / a) (0.125 0.05) (0.075 0.075) (0.05 0.125) 0.5 3 Y , X a
第二节 错误概率与编码方法
一般信道传输时都会产生错误,而选择译码准则并不会 消除错误,那么如何减少错误概率呢?下边讨论通过编码 方法来降低错误概率。 例:对于如下二元对称信道
第二节 错误概率与编码方法 我们再讨论一个例子,取M=4,n=5,这4个码字按 2 如下规则选取:R
5
设输入序列为:
ai (ai1 ai 2
ai3
ai 4
ai5 )
满足方程: ai 3 ai1 ai 2
ai 4 ai1 a a a i1 i2 i5
若译码采取最大似然准则:
P(b j / a* ) P(a* ) P(b j ) P(b j / ai ) P(ai ) P(b j )
第一节 错误概率与译码规则 即: P(bj / a* )P(a* ) P(bj / ai )P(ai ) 当信源等概分布时,上式为:
P(bj / a* ) P(bj / ai )
和B: (b ) a F 1 1
F (b2 ) a3 F (b3 ) a2
译码规则的选择应该有一个依据,一个自然的依据就 是使平均错误概率最小 有了译码规则以后,收到 bj 的情况下,译码的条件正 确概率为: P( F (b ) / b ) P(a / b )
j j i j
第一节 错误概率与译码规则 而错误译码的概率为收到 bj 后,推测发出除了 ai 之 外其它符号的概率:
第一节 错误概率与译码规则
为了减少错误,提高通信的可靠性,就必到什么程 度。 前边已经讨论过,错误概率与信道的统计特性有关, 但并不是唯一相关的因素,译码方法的选择也会影响错误 率。

信息论第三版傅祖芸(3.7-3.8)

信息论第三版傅祖芸(3.7-3.8)

P( z / yx) P( z / y)
称这两信道的输入和输出X,Y,Z序列构成马尔 可夫链。
这两个串接信道可以等价成一个总的离散信道,其 输入为X,输出为Z, X Z P(z/x)
等价的总信道的传递概率为
P( z / x) P( y / x) 递矩阵
r t rs s t
定理3.6 对于串接信道X、Y、Z,当且仅当
P(Z / XY ) P( Z / Y ) 时, 等式 I ( XY ; Z ) I (Y ; Z )
成立 。
上式 I ( XY ; Z ) 表示联合变量XY与变量Z之间的平均互信息, 也就是接收到Z后获得关于联合变量X和Y的信息量。而 I (Y ; Z ) 是接收到Z后获得关于变量Y的信息量。由上式的成 立条件可知随机变量X、Y、Z组成一个马尔可夫链。在在串 联信道中随机变量Z往往只依赖信道Ⅱ的输入Y,不直接与 变量X发生关系,即随机变量Z仅仅通过变量Y而依赖于X。 所以得出以下定理。
谢谢
定理3.7 若X、Y、Z组成一个马尔可夫链,则有
I ( X ; Z ) I ( X ;Y )
I ( X ; Z ) I (Y ; Z )
定理3.7表明通过数据处理后,一般只会增加信息的损失,最 多保持原来获得的信息,不可能比原来获得的信息有所增加 。也就是说,对接收到的数据Y进行处理后,无论变量Z是Y 的确定对应关系还是概率关系,决不会减少关于X的不确定 性。故定理3.7称为数据处理定理。
这就是信息的不增性原理,与热熵不减原理正好相反。因而串 接信道的信道容量为 max I(X ; Z) C串( Ⅰ, Ⅱ ) P ( x ) max I ( X ;W ) C串( Ⅰ, Ⅱ, Ⅲ )
P(x)

信息论--傅祖芸课后题解答

信息论--傅祖芸课后题解答

1 24
1 12
1 12
11 24
第五章
5.3 (1)最小距离为3
(2) R log 4 2 55
(3) F(1000) 10010, F(01100) 11100, F(00100) 不确定
(4)能纠正一位错误 5.15 (1)最小汉明距离准则
(2) (3) (4)
PE p7 5 p6 p
(2)可分为:
p p 2 0
p
p
0
2
C 1 H ( p , p , 2 ) [(1 2 ) log(1 2 ) 2 log 2 ]
信道2的信道容量大于信道1的信道容量
第三章
3.16
C log 4 H ( p) 2 H ( p)
第四章
4.1 (1)
H (S) 3 log 4 1 log 4 0.811
Байду номын сангаас
H
p log
p
p log
p 2
(1
p) log(1
p)
p log
p
p
求导数得:
H (1 p) log(1 p) p log p p p
log(1 p) 1 log p 1 1
ln 2
ln 2
log 2(1 p) p
log 2(1 p) 0 2(1 p) 1 p 2
p
p
3
第二章习题
(2)每个象素色度所含的信息量为: H (Y ) log 30 4.91
亮度和色度彼此独立
H (XY ) H (X ) H (Y ) log10 log 30 8.23 H (XY ) log 300 2.5 H ( X ) log10
第二章习题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信息论与编码答案傅祖芸【篇一:信息论与编码课程设计报告】t>设计题目:统计信源熵与香农编码专业班级学号学生姓名指导教师教师评分2014年3月24日目录一、设计任务与要求................................................. 2 二、设计思路....................................................... 2 三、设计流程图..................................................... 3 四、程序运行及结果................................................. 5 五、心得体会....................................................... 6 参考文献 .......................................................... 6 附录:源程序.. (7)一、设计任务与要求1、统计信源熵要求:统计任意文本文件中各字符(不区分大小写)数量,计算字符概率,并计算信源熵。

2、香农编码要求:任意输入消息概率,利用香农编码方法进行编码,并计算信源熵和编码效率。

二、设计思路1、统计信源熵:统计信源熵就是对一篇英文文章(英文字母数为n),通过对其中的a,b,c,d/a,b,c,d.....(不区分大小写)统计每个字母的个数n,有这个公式p=n/n可得每个字母的概率,最后又信源熵计算公式h(x)=??p(xi)logp(xi)i?1n,可计算出信源熵h,所以整体步骤就是先统计出英文段落的总字符数,在统计每个字符的个数,即每遇到同一个字符就++1,直到算出每个字符的个数,进而算出每个字符的概率,再由信源熵计算公式计算出信源熵。

2、香农编码:香农编码主要通过一系列步骤支出平均码长与信源之间的关系,同时使平均码长达到极限值,即选择的每个码字的长度ki满足下式:i(xi)?ki?i(xi)?1,?i具体步骤如下:a、将信源消息符号按其出现的概率大小依次排列为:p1?p2?......?pn b、确定满足下列不等式的整数码长ki为:?lb(pi)?ki??lb(pi)?1 c、为了编成唯一可译码,计算第i个消息的累加概率:pi??p(ak)k?1i?1d、将累加概率pi变换成二进制数。

e、取pi二进制数的小数点后ki位即为该消息符号的二进制码字。

在香农编码中对于求解编码效率主要是依靠这个公式:r=h(x)/k,其中k??p(aik)ii?1nh(x)=??p(xi)logp(xi)i?1n对于求解信源熵主要依靠公式:,三、设计流程图1、统计信源熵:2、香农编码【篇二:信息论与编码论文(香农信息论对现代的影响)】txt>摘要:1948年香农在bell system technical journal上发表了《a mathematical theory of communication 》。

论文由香农和威沃共同署名。

这篇奠基性的论文是建立在香农对通信的观察上,即“通信的根本问题是报文的再生,在某一点与另外选择的一点上报文应该精确地或者近似地重现”。

这篇论文建立了信息论这一学科,给出了通信系统的线性示意模型,即信息源、发送者、信道、接收者、信息宿,这是一个新思想。

此后,通信就考虑为把电磁波发送到信道中,通过发送1和0的比特流,人们可以传输图像、文字、声音等等。

今天这已司空见惯,但在当时是相当新鲜的。

他建立的信息理论框架和术语已经成为技术标准。

他的理论在通信工程师中立即获得成功,并刺激了今天信息时代所需要的技术发展。

关键词:香农、通信、编码abstract: in 1948, shannon bell system technical journal published a mathematical theory of communication. paper co-signed by the hong farmers. this ground-breaking paper is based on shannons observation of the communication that the fundamental problem of communication is the message of regeneration, at some point with another point to report theselected text should be reproduced exactly or approximately. this paper established the discipline of information theory,given the linear signal model of communication system, that information source, sender, channel, receiver, message places, this is a new idea. since then, the communication to consider the electromagnetic waves sent to the channel, by sending a stream of bits 1 and 0, one can transfer images, text, and so on. it has become commonplace today, but was very fresh. he established the theoretical framework and terminology of information technology has become the standard. his theory in communications engineer in immediate success, and stimulate the need for the information age of todays technology.keywords: shannon、communications、coding信息论的理论定义是由当代伟大的数学家美国贝尔实验室杰出的科学家香农在他1948年的著名论文《通信的数学理论》所定义的,它为信息论奠定了理论基础。

后来其他科学家,如哈特莱、维纳、朗格等人又对信息理论作出了更加深入的探讨。

使得信息论到现在形成了一套比较完整的理论体系。

上个世纪四十年代,半导体三极管还未发明,电子计算机也尚在襁褓之中。

但是通信技术已经有了相当的发展。

从十九世纪中叶,电报就已经很普遍了。

电报所用的摩斯码(morse code),就是通信技术的一项杰作。

摩斯码用点和线(不同长度的电脉冲)来代表字母,而用空格来代表字母的边界。

但是每个字母的码不是一样长的。

常用的字母e只有一个点。

而不常用的z有两划两点。

这样,在传送英语时,平均每个字母的码数就减少了。

事实上,摩斯码与现代理论指导下的编码相比,传送速度只差15%。

这在一百五十多年前,是相当了不起了。

除了用点,划来表示两个状态外,后来的电报也用极性相反的电流来代表这两个状态,从而使“点”和“划”都能用短的脉冲来表达,加快了传送速度。

爱迪生更发明了用四个不同的电流值来同时传输两路电报。

这和今天用的数字调幅(ask)很像,只是没有载波而已。

另一方面,电话在二十世纪初也迅速发展。

电话公司通过在不同载波上的调制,可以用一路电线传输多路电话。

在二次世界大战时,雷达和无线电在军事上广泛应用。

无线电受各种噪声的干扰很厉害,这也给通讯技术提出了新的课题。

各种不同的调制方式也纷纷问世。

于是就出现了这样一个问题:给定信道条件,有没有最好的调制方式,来达到最高的传送速率?在这种情况下,香农(claude e shannon)在1948年发表了《通信的一个数学理论》,完整地解决了通讯速度上限的问题。

“信息论”(information science)从此诞生。

要建立信息理论,首先要能够度量信息。

信息是由信号传播的。

但是信息与信号有本质的区别。

所以如何度量一个信号源的信息量,就不是简单的问题。

从直觉上说,如果一个信号源发出不变的符号值(比如总是1),它是没有信息量的,因为它没有告诉别人任何东西,而且如果信号源发出的符号值是变化的但是可以预计的(比如圆周率的数字序列),那也是没有信息量的,因为我不需要接受任何东西,就可以把这些符号值重复出来。

而且,即使信号源发出的符号不是完全可确定的,它的信息量也和“确定”的程度有关。

例如,如果一个地方90%的时候是晴天,气象报告就没有多大用处。

而如果50%的时候是晴天其余时候下雨,人们就需要气象报告了。

从这点出发,香农就把信息量与信号源的不确定性,也就是各个可能的符号值的几率分布联系起来。

他从直观上给出了信息量需要满足的几个简单的数学性质(如连续性,单调性等),而给出了一个唯一可能的表达形式。

那么这样定义的信息量与我们通常所说的数据量,也就是需要多少比特来传送数据,有什么关系呢?(比特就是二进制数据的位数)。

为此,我们来看看一个含有固定符号数的序列(也就是信号或码字)。

由于每个符号值的出现是随机的,这样的序列就有很多可能性。

显然,每个可能的符号在序列中出现次数,对于所有可能序列的平均值正比于符号出现的几率。

我们把每个符号出现次数“正好”等于其次数平均值的序列叫做“典型序列”,而其他的就叫作“非典型序列”。

而数学上可以证明,当n趋于无穷大时,“非典型序列”出现的几率趋于零。

也就是说,我们只要注意“典型序列”就行了。

而典型序列的个数,就是它们出现概率的倒数(因为总概率为1)。

而码字所携带的数据量,就是它的个数以2为底的对数。

所以,这样的分析就得出了序列所含的数据量。

除以序列的长度,就得到每个符号所含的数据量。

而这个结果恰好就等于上面所说的信息量!至此,香农开创性地引入了“信息量”的概念,从而把传送信息所需要的比特数与信号源本身的统计特性联系起来。

这个工作的意义甚至超越了通信领域,而成为信息储存,数据压缩等技术的基础。

解决了信号源的数据量问题后,我们就可以来看信道了。

信道(channel)的作用是把信号从一地传到另一地。

在香农以前,那奎斯特已经证明了:信道每秒能传送的符号数是其频宽的一半。

但问题是,即使这些符号,也不是总能正确地到达目的地的。

相关文档
最新文档