《信息论基础A》(清华)复习资料

合集下载

信息论总结与复习

信息论总结与复习
状态、状态转移、状态转移图、稳定状态、稳态方程
(3)稳态符号概率: (4)稳态信息熵:
结论:N阶马氏信源稳态信息熵(即极限熵)等于N+1阶条件熵。
第一部分、信息论基础
1.1 信源的信息理论
[例1] 已知二阶马尔可夫信源的条件概率:
p(0|00)=p(1|11)=0.8;p(0|01)=p(1|10)=0.6;
(2)联合熵:
H(XY)= -0.21log0.21 –0.14log0.14 –0.35log0.35 –0.12log0.12 –0.09log0.09–0.09log0.09 =2.3924 bit/符号
第一部分、信息论基础
1.2 信道的信息理论
(3)噪声熵:
由 和
H(Y | X)= – 0.21log0.3 –0.14log0.2 –0.35log0.5
(4)无噪有损信道:分组多对一(归并),其传输矩阵应具 有多行一列的分块对角化形式。
(5)对称信道:传输矩阵的各行都是一些相同元素的重排, 各列也是一些相同元素的重排。
第一部分、信息论基础
1.2 信道的信息理论
3、信道有关的信息熵:
(1)信源熵 (先验熵):
(2)噪声熵 (散布度):
(3)联合熵: (4)接收符号熵:
–0.12log0.4 –0.09log0.3–0.09log0.3
==(0.21+0.12,0.14+0.09,0.35+0.09) = (0.33, 0.23, 0.44)
H(Y)= -0.33log0.33 -0.23log0.23 -0.44log0.44
[例3]求对称信道 解:C =log4-H(0.2,0.3,0.2,0.3) =2+(0.2log0.2+0.3log0.3)×2 = 0.03 bit/符号; 的信道容量。

信息论基础复习题目PPT课件

信息论基础复习题目PPT课件
p(x2 y2) p(x2) p(y2 | x2) 0.50.8 0.40
22
则:H(XY)
p(xi y j ) log p(xi y j )
i1 j1
1.43比特/ 信源符号
.
15
N
由p( y j ) p(xi y j )得到Y集中各消息概率 i 1 2 p( y1) p(xi y1) p(x1 y1) p(x2 y1) 0.59 i 1
则该事件携带的信息量为:
I (xi | yj ) log p(xi | yj ) log(1/ 8) 3bit
由结果可知:
事件yj的出现降低了事件xi发生所携带的信息量
原因:
事件yj的出现带来了事件xi的部分的信息,导致对事件xi的
不确定性减小
.
6
例2-4
设一系统的输入符号集X=(x1,x2,x3,x4,x5),输出符号集 Y=(y1,y2,y3,y4) 输入符号与输出符号间的联合分布为
x 0.98 1 0.02
y1
x 0.2
2
0.8
y2
.
13
解:由题意可知
p(x1 ) 0.5 p(x2 ) 0.5 p( y1 | x1 ) 0.98 p( y2 | x1 ) 0.02 p( y1 | x2 ) 0.2 p( y2 | x2 ) 0.8
2
则:H ( X ) p(xi ) log p(xi ) i 1
.
3
(2)此消息中平均每个符号携带的信息量为:
I2 87.81/ 45 1.95bit / symbol
信源的信息熵:
4
H ( X ) p(ai ) log p(ai ) i 1
3 log 3 1 log 1 1 log 1 1 log 1 8 84 44 48 8

信息论基础知识

信息论基础知识

信息论基础知识在当今这个信息爆炸的时代,信息论作为一门重要的学科,为我们理解、处理和传输信息提供了坚实的理论基础。

信息论并非是一个遥不可及的高深概念,而是与我们的日常生活和现代科技的发展息息相关。

接下来,让我们一同走进信息论的世界,揭开它神秘的面纱。

信息是什么?这似乎是一个简单却又难以精确回答的问题。

从最直观的角度来看,信息就是能够消除不确定性的东西。

比如,当我们不知道明天的天气如何,而天气预报告诉我们明天是晴天,这一消息就消除了我们对明天天气的不确定性,这就是信息。

那么信息论又是什么呢?信息论是一门研究信息的量化、存储、传输和处理的学科。

它由克劳德·香农在 20 世纪 40 年代创立,为现代通信、计算机科学、统计学等众多领域的发展奠定了基础。

在信息论中,有几个关键的概念是我们需要了解的。

首先是“熵”。

熵这个概念听起来可能有些抽象,但其实可以把它理解为信息的混乱程度或者不确定性。

比如说,一个完全随机的字符串,其中每个字符的出现都是完全不确定的,它的熵就很高;而一个有规律、可预测的字符串,其熵就相对较低。

信息的度量是信息论中的一个重要内容。

香农提出了用“比特”(bit)作为信息的基本度量单位。

一个比特可以表示两种可能的状态(0 或1)。

如果一个事件有8 种等可能的结果,那么要确定这个事件的结果,就需要 3 个比特的信息(因为 2³= 8)。

信息的传输是信息论关注的另一个重要方面。

在通信过程中,信号会受到各种噪声的干扰,导致信息的失真。

为了保证信息能够准确、可靠地传输,我们需要采用一些编码和纠错技术。

比如,在数字通信中,常常使用纠错码来检测和纠正传输过程中产生的错误。

信息压缩也是信息论的一个重要应用。

在数字化的时代,我们每天都会产生大量的数据,如图片、音频、视频等。

通过信息论的原理,可以对这些数据进行压缩,在不损失太多有用信息的前提下,减少数据的存储空间和传输带宽。

再来说说信息的存储。

信息论基础讲义

信息论基础讲义

(7,4)汉明码的译码算法
1. 计算伴随式 s Hy ; ˆ 0 ;到4步。 2. 如果s = 0,设置 z 3. 寻找H中唯一与s相同的列,称它为第i 列,并设置 z ˆ 的第i位等于1,其余位 都为0。 ˆ yz ˆ 。(这是接收者对传输 4. 设置 x 码字的估计。) ˆ0 , x ˆ1 , x ˆ2 , x ˆ3)。 5. 输出 x ˆ 的前四个分量( x (这是解码器对原始信源比特的估 计。)
图0.1 对应BSC(p=0.1)的一些可达到的(R,Pe)点
如果存在一个(n,k)码满足
k/n x, Pe y, 就称图0.1中
的点(x,y)是“可达到”的。
(n,k)码
u y
x
信源 u1 , u2 , , uk 编道
0 1 0 1 111 0 0 1 1 0 110 1 0 1 1 1 010 0 1 0 0 1
101
z可能的16种候选值: 0100000 0010011 1100011 0001010 0000101 0111001 0110110 1010000 0101111 1001001 1000110 1111010 1110101 0011100 1101100 1011111 重量最小的错误图案(0100000)只有一个, 这里重量代表错误图案中1的个数。 传输码字的估计是x=y+z=(0011001); 而最终对四个信源比特的估计是(0011)。
误比特率
1 3 P (1 p ) p e 4 4 1 p/2 4
注意到,R=3时,前一种“抛硬币”方法的结果为
1/3+p/3, 因此现在的结果要更小些。

信息论基础复习提纲

信息论基础复习提纲

第一章 绪论1、什么是信息?香农对于信息是如何定义的。

答:信息是事物运动状态或存在方式的不确定性的描述(Information is a measure of one's freedom of choice when one selects a message )。

2、简述通信系统模型的组成及各部分的含义。

答:(1)、信源:信源是产生消息的源。

信源产生信息的速率---熵率。

(2)、编码器:编码器是将消息变成适合于信道传送的信号的设备。

包括信源编码器(提高传输效率)、信道编码器(提高传输可靠性)、调制器。

(3)、信道:信道是信息传输和存储的媒介。

(4)、译码器:译码是编码的逆变换,分为信道译码和信源译码。

(5)、信宿:信宿是消息的接收者(人或机器)。

3、简述香农信息论的核心及其特点。

答:(1)、香农信息论的核心:在通信系统中采用适当的编码后能够实现高效率和高可靠性的信息传输,并得出了信源编码定理和信道编码定理。

(2)、特点:①、以概率论、随机过程为基本研究工具。

②、研究的是通信系统的整个过程,而不是单个环节,并以编、译码器为重点。

③、关心的是最优系统的性能和怎样达到这个性能(并不具体设计系统)。

④、要求信源为随机过程,不研究信宿。

第二章 信息的度量2.1 自信息和互信息1、自信息(量):(1)、定义:一个事件(消息)本身所包含的信息量,它是由事件的不确定性决定的。

某个消息i x 出现的不确定性的大小定义为自信息,用这个消息出现的概率的对数的负值来表示: (2)、性质:①、()i x I是()i x p 的严格递减函数。

当()()21x p x p <时()()21x I x I >概率越小,事件发生的不确定性越大,事件发生以后所包含的自信息量越大。

()()()i i i x p x p x I 1loglog =-=②、极限情况下,当()0=i x p 时()∞→i x I ;当()1=i x p 时,()0→i x I 。

信息论基础总复习2

信息论基础总复习2
i 1 def n
H C ( X ) p( x) log p( x)dx
RX
课程复习大纲
⑸. 熵函数的性质 (指离散熵) 1. 对称性: H ( p1, p2 ,, pn ) H ( p2 , p1, p3 , pn ) 2. 非负性: H ( X ) 0 Hn1 ( p1, p2 ,, pn , ) Hn ( p1, p2 ,, pn ) 3. 扩展性: lim 0 4. 确定性: H (1,0) H (1,0,0) H (1,0,0,,0) 0 5. 可加性: H ( XY ) H ( X ) H (Y X )
课程复习大纲 《Elements of Information Theorem》
Summary
P(ai | b j ) log Pji
I (ai | bj )
I (ai ) I (ai bj )
I (ai ; b j )
E[I (Pji )]
C
max I ( X ; Y )
min I ( X ; Y )
课程复习大纲
⒆. 比特能量的物理意义
Em Ps Em S t dt Eb 0 K R ⒇. 频谱利用率与功率利用率
T 2
w
bit
R F
def
bit Sec.Hz
and
Eb N0
如何提高两者的有效性?
(21). 什么是Shannon Limit ?要达到它的条件是什么?
n j i Pji i 1 解出极限分布 i 1 , 2 , , n L nL i 1 i 1
L
Then H i Pji log Pji

《信息论基础》教学大纲

《信息论基础》教学大纲

《信息论基础A》教学大纲Basic Information Theory A一、课程的性质和目的当前信息产业发展很快,需要大量从事信息、通信、电子工程类专业的人才,本课程正是这类专业的基础课程,信息与计算科学专业(信息安全方向)的专业课程。

通过对本课程的学习,使学生能掌握有关信息论的基本理论以及编码的理论和实现原理。

重点讨论了信源的熵、熵的性质和无失真信源编码理论、限失真信源编码理论以及各种常用的信源编码方法,讨论了信道编码理论以及各种常用的信道编码方法。

而且针对信息安全的具体问题,研究了信息论的应用,信息论与安全理论的关系。

本课程为以后开设的专业课程打下了坚实的基础,也为学生更好的理解信息安全理论奠定了基础。

二、课程教学内容及学时分配1.绪论(2学时)本章要求了解信息论的形成和发展,了解信息,信号,消息的区别和联系;掌握通信系统的模型。

本章的主要内容为:信息论的形成和发展,信息、信号、消息的区别,香农信息的定义,通信系统的模型。

2.离散信源及其信息测度(10学时)本章要求掌握信源的数学模型,了解信源的分类;掌握离散信源熵,了解信息熵的基本性质;掌握离散序列信源及马尔可夫信源信息熵的求法。

本章的主要内容为:信源的数学模型及分类,离散信源熵及其性质,离散序列信源的熵,离散平稳信信源的极限熵,马尔可夫信源,信源剩余度。

3.离散信道及其信道容量(10学时)本章要求掌握信道的数学模型,了解信道的分类;掌握平均互信息的定义,了解平均互信息的特性;了解离散信道信道容量的一般计算方法,会计算对称离散信道的信道容量;理解数据处理定理以及信源与信道匹配的意义。

本章的主要内容为:信道的数学模型及其分类,平均互信息及其特性,信道容量及其一般计算方法,数据处理定理,信源和信道的匹配。

4.无失真信源编码(8学时)本章要求了解码的分类方法如:定长码和变长码,奇异码和非奇异码,即时码和非即时码等;理解定长编码定理和变长编码定理;了解几种编码方法:香农编码方法、费诺编码方法、MH编码及算术编码;掌握哈夫曼编码方法;会确定编码效率。

信息论基础及答案

信息论基础及答案

《信息论基础》试卷答案一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。

(或()()lg lim lg p x p x dx +∞-∞∆→∞--∆⎰)2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。

3、无记忆信源是指 信源先后发生的符号彼此统计独立 。

4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。

根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。

5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。

6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。

7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 22x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22e π)。

8、即时码是指 任一码字都不是其它码字的前缀 。

9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。

10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。

11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。

12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。

13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。

14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)二、(5分)已知信源的概率密度函数为()10a x b p x b a ⎧≤≤⎪=-⎨⎪⎩其他,计算信源的相对熵。

信息论基础

信息论基础

I信源编码与数据压缩-关键理论进展 的十个里程碑[Kieffer 1993]
无扰信源编码的诞生(1948, C. E. Shannon)。 Huffman算法的发现(1952, D. A. Huffman)。 建立Shannon-McMillan定理(1953, B. McMillan)。 发现Lloyd算法(1957, S. P. Lloyd ,1982年发表,)。 率失真理论系统化(1959, C. E. Shannon,)。 Kolmogorov Complexity概念诞生(1964, A. N. Kolmogorov,)。 通用信源编码理论系统化(1973, L. D. Davission)。 多端信源编码理论诞生(1973, D. Slepian和J. K. Wolf)。 第一个实际的算术编码方案(1976, J. Rissannen和R. Pasco 1976 博士论文)。 10.发现Lempel-Ziv码(1977, J. Ziv和A. Lempel)。
未来的趋势
过去50年中Shannon信息论已取得巨大、丰富的理论和技 术成果,在未来的50年中,Shannon信息论将继续繁荣还是趋 向衰落和消亡? 在过去50年中也曾几次出现过类似的争论。如果信息论继 续推动技术的发展,则在未来的几十年中就会继续繁荣下去, 否则会象近30年来的物理学所经受的萧条。 当前信息论对无线通信的重要作用为信息论的发展提供了 契机,无线频带资源的匮乏更趋严重,高效和高可靠性通信愈 加依靠信息论的发展,同时需要更多的信息论人才。 Internet通信、移动通信、光存储、生物等领域将向信息 论提出新的挑战。
第一章 引论
1.1 1.2 1.3 1.4 通信系统模型 信息论研究的中心问题及发展 shannon信息论的局限性 信息的广义性

信息论基础第3章

信息论基础第3章


则该信源称为离散平稳信源。 对于平稳信源来说,其条件概率也与时间起点 无关。
12
3.3 离散平稳信源

(m+1)维离散平稳信源

如果离散平稳信源某时刻发出什么符号只与 前面发出的m个符号有关联,而与更早些时 刻发出的符号无关联,则该信源称为(m+1) 维离散平稳信源。
P (x i +m | x 1 x i +m-1 ) = P (x i +m | x i x i +m-1 )
信息论基础
第3章 离散信源和熵
通信与信息工程学院 雷维嘉
本章内容

3.1 3.2 3.3 3.4 3.5
离散信源的分类 离散信源的N次扩展信源 离散平稳信源 马尔可夫信源 信源的相关性和剩余度
2
3.1 离散信源的分类


按照离散信源输出的是一个消息符号还是消息 符号序列,可分为单符号离散信源和多符号离 散信源。 按输出符号之间依赖关系分类,多符号离散信 源可分为无记忆信源和有记忆信源。 按照信源输出的符号序列的统计特性是否随时 间变化,多符号离散信源可分为平稳信源和非 平稳信源。
P (x 1 = 1) = 1/ 2, P (x 1 = 2) = 1/ 4, P (x 1 = 3) = 1/ 4
信源输出符号只与前一个符号有关,其条件概率 P (xl +1 | xl ) (l = 1,2, )具有时间推移不变性,如下表 所示。试问该信源是否为二维离散平稳信源?
xl xl+1 1 2 3
3.2 离散信源的N次扩展信源
6

N次扩展信源的数学模型

设单符号离散信源的数学模型为
é X ù é a ù a a 1 2 q ê ú=ê ú êP (x )ú êP (a ) P (a ) P (a )ú 1 2 q ú êë úû êë û

信息论基础A

信息论基础A

信息的定义
信息(Information)作为一个专业名词, 其科学定义来自通信。
通信系统的基本组成
信源
发出信息
信道
传输信息
信宿
接收信息
消息(Message):
信源发出的语言、文字、公式、 数据、声音、图像等等统成为消息。 每个消息都是具体的,其内容千千万 万,形式多种多样。
消息中包含着信息,但消息却不 等于信息。
数字语音与数字图像技术的出现,是通信领域划时代的革命。 而只要有数字技术,就离不开编码。
直到今天,有线和无线的电话网、有线和无线的电视网仍然 是语音和图像的主要传输途径,因特网则是目前除报刊书籍 外最主要的文字传输媒体。
随着数字技术的发展,三大信息网络在数字通信的平台上融 合为一的趋势日益加速,集语言、文字和图像为一体的,世 界范围的信息实时交互已不是梦想。
国标GB2312规定将6763个常用汉字存储在94行(区)94 列(位)的表中,每个汉字用2字节(16bit)表示:
位 0010 0010 0010 0010 0010 0010 0010 0010 区 0001 0010 0011 0100 0101 0110 0111 1000
1011 0000
百年来通信技术发生了天翻地覆的变化,而编码的课题始终 伴随通信技术,成为研究的热点。
3.信源编码、信道编码和保密编码这 三大类编码是实现高效、可靠、安全 通信的重要保障。
如何更加有效、可靠、安全地传输信息,一直 是人们非常关注的问题。三大类编码是实现高 效、可靠、安全通信的重要保障。
高效:为了用较短的代码表达更多的信息,人 们提出了压缩代码长度的问题,并发明了多种 压缩方法和实施方案,它们被称为信源编码。
信号(Signal):

信息论基础-练习与思考1

信息论基础-练习与思考1

p/2
/p e2
p(e2 ) p(e1) p(e2 / e1) p(e2 ) p(e2 / e2 ) p(e3) p(e2 / e3) 0
p/2
1
p/2
p(e3 ) p(e1) p(e3 / e1) p(e2 ) p(e3 / e2 ) p(e3) p(e3 / e3) p/2
p/2 p/2
间而且不论此前发生过什么符号,均按P(0)=0.4, P(1)=0.6旳概率发出符号。
(1)试问这个信源是否是平稳旳?
(2)试计算
H
(
X
2
),
H
(
X
3
/
X1X
2
)及
lim
N
H
N
(
X
);
(3)试计算 H(x4)并写出x4信源中可能有旳全部符号。
2024/9/28
18
作业题6
第二章 信源熵
解答: (1)信源发出符号旳概率分布与时间平移无关,而且 信源发出旳序列之间也是彼此无依赖旳,所以该信源是 平稳旳,而且是离散无记忆信源。
2024/9/28
20
作业题7
第二章 信源熵
2.22.一阶马尔可夫信源旳状态图如图2.8所示。信源X旳符
号集为{0,1,2}。
(1)求信源平稳后旳概率分布P(0),P(1),P(2);
(2)求信源旳熵H∞。
/p
p/2
/p
(3)近似以为此信源为无记忆时, 符号旳概率分布为平稳分布,
e1
e2
0
p/2
1
2024/9/28
7
作业题2
第二章 信源熵
2.2. 同步扔一对均匀旳骰子,当得知“两骰子面 朝上点数之和为2”或“面朝上点数之和为8” 或“骰子面朝上点数是3和4时”,试问这三种 情况分别取得多少信息量?

信息论基础

信息论基础

信息论研究的目的
研究这样一个概括性很强的通信系统,其目的就是 要找到信息传输过程的共同规律高信息传输的可靠性、 有效性、保密性、认证性,使达到信息传输系统最优 化。 可靠性:就是要使信源发出的消息经过信道传输以 后,尽可能准确地、不失真地再现在接收端。 有效性:就是经济效果好,即用尽可能短的时间和 尽可能少的设备来传送一定数量的信息。
信息论研究的对象、目的和内容
信源 消息
编码器 信号
信道
译码器 信号+干扰 消息
信宿
噪声源
通信系统模型图
信息论研究的对象、目的和内容
信息论研究的对象:正是这种统一的通信系统模型,人们通过系统 中消息的传输和处理来研究信息传输和处理的共同规律. 这个模型主要分成下列五个部分: 1、信息源(简称信源) 顾名思义,信源是产生消息和消息序列的源。它可以是人, 生物,机器或其他事物。它是事物各种运动状态或存在状态的集 合。 如前所述,“母亲的身体状况”,“各种气象状态”等客观存在 是信源。人的大脑思维活动也是一种信源。信源的输出是消息, 消息是具体的,但它不是信息本身。消息携带着信息,消息是信 息的表达者。
信息论基础
刘昌红
第一章 绪论
1、信息的概念 2、信息论研究的对象、目的和内容 3、信息论发展简史与信息科学
信息的概念
1、信息论的定义:信息论是人们在长期通信工程的实践中, 由通信技术与概率论、随机过程和数理统计相结合而逐步发 展起来的一门科学。 2、信息论的奠基人:是美国科学家香农 (C.E.Shannon),他 在1948年发表了著名的论文《通信的数学理论》,为信息论 奠定了理论基础。 3、香农信息的定义:信息是事物运动状态或存在方式的不 确定性的描述,这就是香农信息的定义。 4、信息、情报、知识、消息及信号间的区别与联系。

信息论基础复习共38页

信息论基础复习共38页


27、只有把抱怨环境的心情,化为上进的力量,才是成功的保证。——罗曼·罗兰

28、知之者不如好之者,好之者不如乐之者。——孔子

29、勇猛、大胆和坚定的决心能够抵得上武器的精良。——达·芬奇

30、意志是一个强壮的盲人,倚靠在明眼的跛子肩上。——叔本华
谢谢!
38

信息论基础复习
11、不为五斗米折腰。 12、芳菊开林耀,青松冠岩列。怀此 贞秀姿 ,卓为 霜下杰 。
13、归去来兮,田蜀将芜胡不归。 14、酒能祛百虑,菊为制颓龄。 15、春蚕收长丝,秋熟靡王税。

26、要使整个人生都过得舒适、愉快,这是不可能的,因为人类必须具备一种能应付逆境的态度。——卢梭
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

信息论基础A 复习资料作者 郝仁第一章 概论● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。

目前,信息论中主要研究语法信息● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。

信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。

第二章 离散信源及离散熵● 单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭L L自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。

● 单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。

离散熵的性质和定理:H(X)的非负性;H(X)的上凸性;最大离散熵定理:()H X lbn ≤● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===LL L则称该多符号离散信源为N 维离散平稳信源。

● N 维离散平稳信源的数学模型:12121212()()()()N N N n N n a a a X X X P a P a P a P X X X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭L L LL 1212,,,,,{1,2,,}N i i i i N a x x x i i i n =∈L L L 其中12121121()()()(/)(/)N N N i i i i i i i i i i i P a P x x x P x P x x P x x x x -==L L L● 二维离散平稳信源的离散熵:2121211()()()()(/)n i i i H X X P a lbP a H X H X X ==-=+∑H(X 2/X 1 )称为条件熵,是条件信息量在联合概率上的数学期望,H(X 1X 2)称为联合熵,离散熵H(X 1)、 H(X 2)称为无条件熵,H 2(X 1X 2)称为平均符号熵且:212(/)()H X X H X ≤,2121211()()()2H X X H X X H X =≤● 对于,121211()()()N N N H X X X H X X X H X N=≤L L ,当N→∞时,平均 符号熵取极限值,称之为极限熵,用H ∞表示:121lim ()N N H H X X X N∞→∞=L● 如果离散平稳信源发出的符号序列中各符号相互独立,则称该信源为离 散平稳无记忆信源。

N 维离散平稳无记忆信源(一维离散平稳信源的N 次扩展信源)的数学模型:1212()()()()N N N n N n a a a X p a p a p a P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭LL1212,,,,,{1,2,,}N i i i i N a x x x i i i n =∈L L L 其中,12()()()()N i i i i p a p x p x p x =L其离散熵:121()()()()()N N H X H X H X H X NH X =+++=L信源的平均符号熵:11()()()N N N H X H X H X N== ● 如果离散平稳信源发出的符号只与前面已经发出的m(<N)个符号相关, 则称该信源为m 阶马尔科夫信源。

可将m 阶马尔科夫信源发出的符号序列看成长度为m+1的一段段符号序列,m 阶马尔科夫信源的数学模型:111211212112/()()()(/)m m m m n m m n a a a X X X X p a p a p a P X X X X ++++⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭LL LL112112/()(/)m m m m i i i i i i i i i i a x x x x p a p x x x x ++==L L 其中,,为强调m 阶马尔科夫信源的长度特征,一般将其极限熵H ∞记为H m+1,即:111()(/)(/)m mn n m i j i j i i j H H p e p e e lbp e e ∞+====-∑∑马尔科夫链的各态历经定理:11()()(/)1,2,,()0,()1m mn n m j i j i j j i j p e p e p e e j n p e p e ====>=∑∑L ,,其中第三章 离散信源无失真编码● 码字的每一个比特携带信息的效率即编码效率:()H X Kη=,K 平均码长 一般采用不等长编码,使平均码长接近离散熵,从而在无失真前提下提高编码效率;编码的基本原则是大概率符号元编成短码,小概率符号元编成长码如果所采用的不等长编码使接收端能从码序列中唯一地分割出对应与每一个符号元的码字,则称该不等长编码为单义可译码。

单义可译码中,如果能在对应与每一个符号元的码字结束时立即译出的称为即时码,如果要等到对应与下一个符号元的码字才能译出的称为延时码。

异前置码:任何一个码字都不是其他码字的前缀m 元长度为k i , i=1,2, …,n 的异前置码存在的充分必要条件是:11ink i m-=≤∑,(克拉夫特(Kraft)不等式)● 无失真编码定理:(香农第一定理)如果L 维离散平稳信源的平均符号熵为H L (X 1X 2…X L ),对信源符号进行m 元不等长组编码,一定存在一种无失真编码方法,当L 足够大时,使得每个信源符号所对应码字的平均比特数:1212()()L L L L KH X X X lbm H X X X Lεε≤<+L L ,为任意给定的小数 1212()()L L L L lbm KH X X X lbm H X X X L Lεε≥≤<+L L 只要, 无失真编码定理从理论上阐明了编码效率:1η→ ● L→∞时,1lim L H K lbm Lη∞→∞== 则极限熵H ∞是一个界限,通常也称为香农界对于L 维离散平稳无记忆信源,由于其平均符号熵H L (X 1X 2…X L ) =H(X),故对信源符号进行m 元不等长组编码,一定存在一种无失真编码方法,当L 足够大时,使得每个信源符号所对应码字的平均比特数:()()KH X lbm H X Lε≤<+,此时香农界为H(X)。

对离散平稳信源进行无失真编码,每个信源符号所对应码字的平均比特数平稳无记忆信源最多, m 阶马尔科夫信源次之,一般平稳信源最少。

● 二进制香农码的编码步骤如下: 1) 将符号元x i 按概率进行降序排列2) 令p(x 0)=0,计算第j-1个码字的累加概率:10()()1,2,,j a j i i p x p x j n -===∑L ,3) 确定第i 个码字的码长k i ,满足下列不等式:()()1i i i lbp x k lbp x -≤<-+ 4) 将p a (x j )用二进制表示,取小数点后k i 位作为符号元x i 的码字。

● 哈夫曼(Huffman)编码1) 将符号元按概率进行降序排列2) 为概率最小的符号元分配一个码元1,概率次小的符号元分配一个码元0 3)将概率最小的两个符号元合并成一个新的符号元,用两者概率之和作为该新符号元的概率;4) 重复以上三个步骤,直到最后合并出一个以1为概率的符号元哈弗曼码有两种排列方式,分前置和后置。

采用不同排列方法编出的哈夫曼码,其码字和码长可能完全不相同,但平均码长一定是相等的,因此编码效率不会因排列方法而改变。

但放在前面可以使短码得到充分利用第四章离散信道及信道容量● 符号离散信道的数学模型可表示为:112111222212(/)(/)(/)(/)(/)(/)(/)(/)(/)(/)m m n n m n p y x p y x p y x p y x p y x p y x P Y X p y x p y x p y x ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦L L L L L LL● 互信息量在有噪信道的情况下,将信源发出x i 而信宿接收到y j 所包含的信息量用I(y j ;x i )来表示并将其称为x i 对y j 的互信息量,则互信息量的定义为:(/)(;)()(/)()(/)()j i j i j j i j j i j p y x I y x I y I y x lbp y lbp y x lbp y =-=-+=I(y j /x i )称为条件信息量,表示信道给出的“信息”。

互信息量的性质:I(y j ;x i )是随机量,I(y j ;x i )可为正值也可为负值,I(y j ;x i )具有对称性● 单符号离散信道的平均互信息量:1111(/)(;)()(;)()()n m n mj i i j j i i j i j i j j p y x I Y X p x y I y x p x y lbp y ======∑∑∑∑(;)()(/)I Y X H Y H Y X =-,条件熵H(Y/X)是信道所给出的平均信息量,通常称为噪声熵(;)()(/)I Y X H X H X Y =-,条件熵H(X/Y)也是信道所给出的平均“信息”量,通常称为损失熵,也称为信道疑义度(;)()()()I Y X H X H Y H XY =+-● 平均互信息量的性质和定理: 1) I(Y;X)的对称性 2) I(Y;X)的非负性3) I(Y;X)的极值性:(;)()I Y X H Y ≤ (;)()I Y X H X ≤4) I(Y;X)的凸函数性当信道固定时,I(Y;X)是信源概率分布P(X)的上凸函数;当信源固定时,I(Y;X)是信道转移概率分布P(Y/X)的下凸函数 5) 数据处理定理:(;)(;)I Z X I Y X ≤ (;)(;)I X Z I Y Z ≤一个信息传递并进行数据处理的问题可看成是一个由串联信道进行信息传递的问题● 单符号离散信道的信道容量由于平均互信息量反映的是每传输一个符号在信道中流通的平均信息量,从这个意义上,可以将其理解为信道的信息传输率(不是信息传输速率!),即(;)R I Y X =。

相关文档
最新文档