信息论 总复习课件new.ppt
合集下载
信息论基础ppt
X q(X
)
x 1 q(x
1
)
x2 q(x 2 )
xm q(x m )
x为各种长为N的符号序列,x = x1 x2 … xN ,xi { a1 , a2 , … , ak },1 i N,序列集X = {a1a1… a1 , a1a1… a2 , … , akak… ak },共有kN种序列,x X。
X q(
X
)
x1 q(
x1
)
x2 q(x2 )
xI q(xI )
q(xi ):信源输出符号消息xi的先验概率; I 满足:0 q(xi) 1,1 i I q(xi ) 1 i 1
1.3.2 离散无记忆的扩展信源
实际情况下,信源输出的消息往往不是单个符号,而是由
许多不同时刻发出的符号所组成的符号序列。设序列由N个 符号组成,若这N个符号取自同一符号集{ a1 , a2 , … , ak}, 并且先后发出的符号彼此间统计独立,我们将这样的信源称 作离散无记忆的N维扩展信源。其数学模型为N维概率空间:
P
p( p(
y1 y1
x1 ) x2 )
p( y1 xI )
p( y2 x1 ) p(y2 x2 )
p( y2 xI )
p( y J p( yJ
x1 x2
) )
p( yJ xI )
p (yjxi )对应为已知输入符号为xi,当输出符号为yj时的信道
转移概率,满足0 p (yjxi ) 1,且
波形信道 信道的输入和输出都是时间上连续, 并且取值也连续的随机信号。 根据统计特性,即转移概率p (yx )的不同,信道又可分类为:
无记忆信源 X的各时刻取值相互独立。
有记忆信源 X的各时刻取值互相有关联。
信息论-第三章PPT课件
条件概率被称为信道的传递概率或转移概率。
一般简单的单符号离散信道的数学模型可以用概率空
间[X,p(y|x),Y]来描述。
a1
b1
X
P (b j | ai )
Y
ar
2021/6/7
bs
6
第一节 信道的数学模型及分类
表示成矩阵形式:
…
y1
y2
… x1 p(y1/x1) p(y2/x1)
[P]=
…
x2 p(y1/x2) p(y2/x2)
2021/6/7
27
第四节 信道容量及其一般计算方法
(3)无噪有损信道
x1
x2
y1
x3
x4
y2
x5
此时信道疑义度为0,而信道噪声熵不为0,从而
C=max{I(X;Y)}=max{H(Y)-H(Y/X)}=max{H(Y)}=logs
2021/6/7
28
第四节 信道容量及其一般计算方法
2、对称离散信道的信道容量
y1
y2
…
x1
p(y1/x1)
p(y2/x1)
…
[P]= x2
p(y1/x2)
p(y2/x2)
…
…
…
…
…
xn
p(y1/xn)
p(y2/xn)
…
ym p(ym/x1) p(ym/x2)
… p(ym/xn)
2021/6/7
10
第一节 信道的数学模型及分类
为了表述简便,可以写成 P(bj /ai)pij
因为H(X),表示传输前信源的不确定性,而H(X/Y)表示
收到一个符号后,对信源尚存的不确定性,所以二者之
差信道传递的信息量。
一般简单的单符号离散信道的数学模型可以用概率空
间[X,p(y|x),Y]来描述。
a1
b1
X
P (b j | ai )
Y
ar
2021/6/7
bs
6
第一节 信道的数学模型及分类
表示成矩阵形式:
…
y1
y2
… x1 p(y1/x1) p(y2/x1)
[P]=
…
x2 p(y1/x2) p(y2/x2)
2021/6/7
27
第四节 信道容量及其一般计算方法
(3)无噪有损信道
x1
x2
y1
x3
x4
y2
x5
此时信道疑义度为0,而信道噪声熵不为0,从而
C=max{I(X;Y)}=max{H(Y)-H(Y/X)}=max{H(Y)}=logs
2021/6/7
28
第四节 信道容量及其一般计算方法
2、对称离散信道的信道容量
y1
y2
…
x1
p(y1/x1)
p(y2/x1)
…
[P]= x2
p(y1/x2)
p(y2/x2)
…
…
…
…
…
xn
p(y1/xn)
p(y2/xn)
…
ym p(ym/x1) p(ym/x2)
… p(ym/xn)
2021/6/7
10
第一节 信道的数学模型及分类
为了表述简便,可以写成 P(bj /ai)pij
因为H(X),表示传输前信源的不确定性,而H(X/Y)表示
收到一个符号后,对信源尚存的不确定性,所以二者之
差信道传递的信息量。
复习提纲信息论课件
P(XY) 中的统计平均值。
I ( X ; Y )
i 1 j 1
nm
p ( x y ) I ( x ; y ) i j i j
i 1 j 1
nm
p ( x / y ) i j p ( x y ) log ij 2 p ( x ) i
I ( Y ; X )
H ( p ) [ p log p ( 1 p ) log ( 1 p )] 2 2
H(p) 1
0
0.5 图2.1.5 n=2时熵与概率的关系
1 p
离散序列信源
离散无记忆信源的扩展
离散无记忆信源 X 的 N 次扩展信源的熵等于离散
信源X 的熵的 N 倍,即
H(X)=H(XN)=NH(X)
信息等。在讨论熵差时,两个无限大量互相抵消。所以熵差具有信息 的特征; 连续信源的熵 Hc(X) 具有相对性,因此 Hc(X) 也称为相对熵。
第二部分
信道
信道疑义度—H(X/Y):表示信宿在收到 Y 后,信源 X
仍然存在的不确定度。是通过有噪信道传输后引起的 信息量的损失,故也可称为损失熵。
X
离散平稳有记忆信源的极限熵:当 N→∞ 时,平均符号熵取
极限值称之为极限熵或极限信息量。用 H∞表示,即
极限熵的存在性:当离散有记忆信源是平稳信源时,极限熵
等于关联长度 N→∞时,条件熵H(XN/X1X2…XN-1)的极限值, 即
1 H lim H ( X X X ) 1 2 N N N
了解决在已知信源和允许失真度D 的条件下,使信源必 须传送给信宿的信息率最小。即用尽可能少的码符号尽 快地传送尽可能多的信源消息,以提高通信的有效性。 这是信源编码问题。
信息论总结与复习
i 1 k 1
i 1
k 1
结论:N阶马氏信源稳态信息熵(即极限熵)等于N+1阶条件熵。
H lN iN 1 m H (X 1 X 2 X N 1 X N ) H (X N 1 |X 1 X 2 X N )
第一部分、信息论基础
1.1 信源的信息理论
[例1] 已知二阶马尔可夫信源的条件概率:
第一部分、信息论基础
1.1 信源的信息理论
(4)序列信息熵的性质:
《1》条件熵不大于无条件熵,强条件熵不大于弱
条件熵:H(X1) ≥ H(X2|X1) ≥ H(X3|X1X2) ≥ …
…… ≥H (XN|X1X2……XN-1)
《2》条件熵不大于同阶的平均符号熵:
HN ≥H (XN|X1X2……XN-1)
[例3]求对称信道
P00..32
0.3 0.2
0.2 0.3
00..23的信道容量。
解:C =log4-H(0.2,0.3,0.2,0.3)
=2+(0.2log0.2+0.3log0.3)×2 = 0.03 bit/符号;
第二部分、无失真信源编码
2.1 信源编码理论
第二部分、无失真信源编码
1.1 信源编码理论:
稳态方程组是:
QQ((EE32
) )
0.2Q(E1 0.6Q(E2
) )
0.6Q(E3 ) 0.2Q(E4 )
Q(E4 ) 0.4Q(E2 ) 0.8Q(E4 )
Q(E1) Q(E2 ) Q(E3 ) Q(E4 ) 1
第一部分、信息论基础
1.1 信源的信息理论
可解得:
Q (E1 )
[例5] 以下哪些编码一定不是惟一可译码?写出每 种编码克拉夫特不等式的计算结果。
信息论 总复习_new学习版.ppt
最新.课件
14
Wuhan University
最大离散熵定理 (极值性) :离散无记忆信源输出 n 个不同的信息符号,当且仅当各个符号出现概 率相等时 (即p(xi)=1/n),熵最大。 H[p(x1),p(x2),…,p(xn)]≤logn
最新.课件
15
Wuhan University
二进制信源的熵函数 H(p) 为
23
离散无记忆信源的等长编码
无扰编码定理的含义 R>H(U)
Wuhan University
译码错误概率 pe
I(ak)的方差
信源序列中每个符号含 有信息量的算术平均值
I(ak)的数学期望
契比雪夫不等式的右边是理论上的误码率的上限, 必须小于给定的误码率才能保证到达编码性能要求
最新.课件
24
定长编码定理
游程编码和算术编码是非分组编码;游程编码是限 失真信源编码。本章介绍的都是离散信源变长编码。
优点:提高编码效率;
缺点:需要大量缓冲设备来存储这些变长码,然后 再以恒定的码率进行传送;如果出现了误码,容易引 起错误扩散,所以要求有优质的信道。
可靠: 要使信源发出的消息经过传输后,尽可能准确地、
不失真或限定失真地再现在接收端
有效: 用尽可能短的时间和尽可能少的设备来传输最大的
消息
最新.课件
4
第2章 信源熵
Wuhan University
单符号离散信源
自信息量
–用概率测度定义信息量,设离散信源 X,其
概率空间为
–如果知道事件 xi 已发生,则该事件所含有的
5 0.11011
8
a 729/65536
3367/4096=…
信息论汇总马尔科夫信源ppt培训课件
(i>3)
求:⑴信源状态转移情况和相应概率;
⑵画出完整的二阶马尔可夫信源状态转移图;
⑶求平稳分布概率;
(4)马尔科夫信源达到稳定后,0和1的分布 概率。
• 解:
• 设信源开始处于s0状态,并以 等概率发出符号0和1,分别
(0)0.3
s1
•
到达状态s1和s2 : 若处于s1 ,以0.3和0.7的概率
p(x1,x2,x3, xL) p(xL|xL1, x1)p(x1,x2, xL1) p(xL|xL1, x1)p(xL1|xL2, x1)p(x1,x2,
xL2)
3
2.1.3 马尔可夫信源
• 马尔可夫信源
–一类相对简单的离散平稳有记忆信源 –该信源在某一时刻发出字母的概率除与该
p(s2|s1)p(s3|s4)0.2
0:0.8
0.8 0.2 0 0
P
0
0
.5
0 0 .5
0 .5 0
0.5
0
0
0
0 .2
0
.8
1:0.2
01
1:0.5
00
0:0.5 1:0.5
0:0.5
10
0:0.2
11
1:0.2
14
齐次马尔可夫链中的状态可以根据其性质进行 分类:
(1)0.7
s0
(0)0.4 (0)0.2
(1)0.6
(1)0.5 11
01
(1)0.6
s6 (1)0.8
s4
26
• 由题意,此马尔可夫信源的状态必然会进入这个 不可约闭集,所以我们计算信源熵时可以不考虑 过渡状态及过渡过程。
信息论课件.ppt教学文案
– 先验概率:选择符号 ai 作为消息的概率----P(ai)
– 自信息:ai 本身携带的信息量
I(ai
)
log 1 P(ai
)
– 后验概率:接收端收到消息(符号) bj 后而发送端
发的是 ai 的概率 P(ai/bj)
– 互信息:收信者获得的信息量-----先验的不确定 性减去尚存在的不确定性
I(ai;bj)loP g(1 ai)loP g(ai1/bj)
第一章 绪论
信息论
通信技术 概率论 随机过程 数理统计
相结合逐步发展而形 成的一门新兴科学
奠基人:美国数学家香农(C.E.Shannon) 1948年“通信的数学理论”
本章内容:
信息的概念 数字通信系统模型 信息论与编码理论研究的主要内容及意义
1.1 信息的概念
信息是信息论中最基本、最重要的概念,既抽象又复杂
– 信息具有以下特征: (1)信息是可以识别的 (2)信息的载体是可以转换的 (3)信息是可以存贮的 (4)信息是可以传递的 (5)信息是可以加工的 (6)信息是可以共享的
1.2 信息论研究的对象,目的,内容
一、 研究对象 – 前面介绍的统一的通信系统模型。人们通过系统 中消息的传输和处理来研究信息传输和处理的共 同规律。
消息:用文字等能够被人们感觉器官所感知的形式, 把客观物质运动和主观思维活动的状态表达出来。 知识:一种具有普遍和概括性质的高层次的信息 , 以实践为基础,通过抽象思维,对客观事物规律性的 概括。 情报:是人们对于某个特定对象所见、所闻、所理解 而产生的知识 。
它们之间有着密切联系但不等同 ,信息的含义更深刻、广泛
– 它的主要目的是提高信息系统的可靠性、有效性、 保密性和认证性,以便达到系统最优化;
信息论-复习资料(傅祖芸版本)PPT课件
3
第1章
绪论
4
1.1 信息的概念
5
几个常见概念
情报:是人们对于某个特定对象所见、所闻、 所理解而产生的知识。 知识:一种具有普遍和概括性质的高层次的信 息 ,以实践为基础,通过抽象思维,对客观事 物规律性的概括。 消息:用文字、符号、语音、图像等能够被人 们感觉器官所感知的形式,把客观物质运动和 主观思维活动的状态表达出来。
通信的实质?
即:传递信息,消除不确定性。
31
2.2.2 信息熵
对一个信源发出不同消息所含有的信息量也不同。所以 自信息I(ai)是一个随机变量,不能用它来作为整个信源 的信息测度。
信息熵:自信息的数学期望,平均自信息量Hr(X):
Hr (X ) Elogr
1 p(ai
)
信宿:信息归宿之意,亦即收信者或用户, 是信息传送的终点或目的地。
信道:传输信息的物理媒介。
13
信源编码器与译码器
信源编码器
通过信源编码可以压缩信源的冗余度,以提高通信 系统传输消息的效率。
信源编码器分为两类
无失真信源编码:适用于离散信源或数字信号;
限失真信源编码:用于连续信源或模拟信号,如语 音、图像等信号的数字处理。
此扩展信源取值为符号集i =(ai1ai2…aiN), 其中 (i1 , i2 ,…,iN =1,2 , …,q), 其数学模型是X信源空间的N重空间:
XN
P(
i
)
1
P(1
)
2 P( 2 )
... ...
qN P( qN
)
N
其中,P( i ) P(aik ), ik (1,2,..., q)
第1章
绪论
4
1.1 信息的概念
5
几个常见概念
情报:是人们对于某个特定对象所见、所闻、 所理解而产生的知识。 知识:一种具有普遍和概括性质的高层次的信 息 ,以实践为基础,通过抽象思维,对客观事 物规律性的概括。 消息:用文字、符号、语音、图像等能够被人 们感觉器官所感知的形式,把客观物质运动和 主观思维活动的状态表达出来。
通信的实质?
即:传递信息,消除不确定性。
31
2.2.2 信息熵
对一个信源发出不同消息所含有的信息量也不同。所以 自信息I(ai)是一个随机变量,不能用它来作为整个信源 的信息测度。
信息熵:自信息的数学期望,平均自信息量Hr(X):
Hr (X ) Elogr
1 p(ai
)
信宿:信息归宿之意,亦即收信者或用户, 是信息传送的终点或目的地。
信道:传输信息的物理媒介。
13
信源编码器与译码器
信源编码器
通过信源编码可以压缩信源的冗余度,以提高通信 系统传输消息的效率。
信源编码器分为两类
无失真信源编码:适用于离散信源或数字信号;
限失真信源编码:用于连续信源或模拟信号,如语 音、图像等信号的数字处理。
此扩展信源取值为符号集i =(ai1ai2…aiN), 其中 (i1 , i2 ,…,iN =1,2 , …,q), 其数学模型是X信源空间的N重空间:
XN
P(
i
)
1
P(1
)
2 P( 2 )
... ...
qN P( qN
)
N
其中,P( i ) P(aik ), ik (1,2,..., q)
信息论期末复习.ppt
按信道输入输出的统计特性
波形信道 多维连续信道 基本连续信道
29
按噪声的统计特性
高斯信道 白噪声信道 高斯白噪声信道 有色噪声信道
按噪声对信号的作用
乘性信道 加性信道
30
连续信道与波形信道的信息传输率
基本连续信道的平均互信息
连续信道平均互信息的特性
31
32
连续信道与波形信道的信道容量
nm
联合熵 H ( XY )
p(aibj )I (aibj )
i1 j1
nm
p(aibj ) log p(aibj )
i1 j1
9
信息熵的基本性质
10
离散无记忆的扩展信源
11
离散平稳信源
离散平稳信源的极限熵
12
另外
H(X ) H(X1X2 X N )
H ( X1) H ( X 2 X1) H ( X3 X1X 2 ) H ( X N X1X 2 X N 1)
若合并后的新符号的概率与其他符号的概率相等,一般 将合并的概率放在上面。
46
霍夫曼码的特点
霍夫曼码具有最佳性
费诺编码
费诺码属于概率匹配编码,比较适合于对分组概率相等或接 近的信源编码。费诺码属于即时码,但是不一定是最佳码。
47
费诺码的编码步骤
1 按信源符号的概率从大到小的顺序排队
不妨设 p(x1) p(x2 ) ...... p特性 信道容量及其一般计算方法
19
无噪无损信道的信道容量(信道的输入输出一一对应) 无损信道(信道的输入输出一对多)
20
无噪有损信道(信道的输入输出多对一) 对称离散信道(信道矩阵的行与列都具有可排列性) 准对称信道
21
波形信道 多维连续信道 基本连续信道
29
按噪声的统计特性
高斯信道 白噪声信道 高斯白噪声信道 有色噪声信道
按噪声对信号的作用
乘性信道 加性信道
30
连续信道与波形信道的信息传输率
基本连续信道的平均互信息
连续信道平均互信息的特性
31
32
连续信道与波形信道的信道容量
nm
联合熵 H ( XY )
p(aibj )I (aibj )
i1 j1
nm
p(aibj ) log p(aibj )
i1 j1
9
信息熵的基本性质
10
离散无记忆的扩展信源
11
离散平稳信源
离散平稳信源的极限熵
12
另外
H(X ) H(X1X2 X N )
H ( X1) H ( X 2 X1) H ( X3 X1X 2 ) H ( X N X1X 2 X N 1)
若合并后的新符号的概率与其他符号的概率相等,一般 将合并的概率放在上面。
46
霍夫曼码的特点
霍夫曼码具有最佳性
费诺编码
费诺码属于概率匹配编码,比较适合于对分组概率相等或接 近的信源编码。费诺码属于即时码,但是不一定是最佳码。
47
费诺码的编码步骤
1 按信源符号的概率从大到小的顺序排队
不妨设 p(x1) p(x2 ) ...... p特性 信道容量及其一般计算方法
19
无噪无损信道的信道容量(信道的输入输出一一对应) 无损信道(信道的输入输出一对多)
20
无噪有损信道(信道的输入输出多对一) 对称离散信道(信道矩阵的行与列都具有可排列性) 准对称信道
21
信息论基础ppt课件
计算:
(a) H ( X , Y ) , H ( X ) , H ( Y ) , H ( X |Y ) , H ( Y |X ) , I ( X ; Y ) ;
(b)如果q(x,y)p(x)p(y)为两个边际分布的乘积分布,计 算 D( p Pq) 和 D(q P p)。
解:
(a )
H (X ,Y ) 1 lo g 1 1 lo g 1 1 lo g 1 5 lo g 5 44441 21 21 21 2
1 p(X)
可见熵是自信息的概率加权平均值
引理 1.2.1 H(X) 0,且等号成立的充要条件是 X 有退化分布。
例题 1.2.1 设
1
X
0
依概率 p 依概率 1 p
则 H ( X ) p l o g p ( 1 p ) l o g ( 1 p ) h ( p ) 。
I (x) log 1 。 p(x)
1.2 熵、联合熵、条件熵
X 定义 1.2.1 离散随机变量 的熵定义为
H(X)p(x)logp(x) x
e 我们也用 H ( p ) 表示这个熵,有时也称它为概率分布 p 的熵,其中对
数函数以2为底时,熵的单位为比特(bit),若对数以 为底时,则熵的
图1.1 通信系统模型
第一章 随机变量的信息度量
1.1 自信息 1.2 熵、联合熵、条件熵 1.3 相对熵和互信息
1.1 自信息
定理1.1.1
定义 1.1.1
若自信息I ( x ) 满足一下5个条件:
( i ) 非复性:I(x) 0;
( i i ) 如 p(x) 0, 则 I(x) ;
(a) H ( X , Y ) , H ( X ) , H ( Y ) , H ( X |Y ) , H ( Y |X ) , I ( X ; Y ) ;
(b)如果q(x,y)p(x)p(y)为两个边际分布的乘积分布,计 算 D( p Pq) 和 D(q P p)。
解:
(a )
H (X ,Y ) 1 lo g 1 1 lo g 1 1 lo g 1 5 lo g 5 44441 21 21 21 2
1 p(X)
可见熵是自信息的概率加权平均值
引理 1.2.1 H(X) 0,且等号成立的充要条件是 X 有退化分布。
例题 1.2.1 设
1
X
0
依概率 p 依概率 1 p
则 H ( X ) p l o g p ( 1 p ) l o g ( 1 p ) h ( p ) 。
I (x) log 1 。 p(x)
1.2 熵、联合熵、条件熵
X 定义 1.2.1 离散随机变量 的熵定义为
H(X)p(x)logp(x) x
e 我们也用 H ( p ) 表示这个熵,有时也称它为概率分布 p 的熵,其中对
数函数以2为底时,熵的单位为比特(bit),若对数以 为底时,则熵的
图1.1 通信系统模型
第一章 随机变量的信息度量
1.1 自信息 1.2 熵、联合熵、条件熵 1.3 相对熵和互信息
1.1 自信息
定理1.1.1
定义 1.1.1
若自信息I ( x ) 满足一下5个条件:
( i ) 非复性:I(x) 0;
( i i ) 如 p(x) 0, 则 I(x) ;
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
19
限峰值的最大熵定理:若信源的N维随机变W量uha的n Uni取versi值ty 在 一定的范围之内,则在有限的定义域内,均匀分布 的连续信源具有最大熵。
限平均功率的最大熵定理:若信源输出信号的平均功 率P或方差受限,则其输出信号幅度的概率密度函数 为高斯分布时,信源具有最大熵值。
限均值的最大连续熵定理:若连续信源X输出非负信号 的均值受限,则其输出信号幅度呈指数分布时,连 续信源X具有最大熵值。
9
Wuhan University
条件熵:是在联合符号集合 XY 上的条件自信息
的数学期望。
联合熵 H(XY):表示输入随机变量 X,经信道 传输到达信宿,输出随机变量 Y。即收、发双 方通信后,整个系统仍然存在的不确定度。
10
Wuhan University
信道疑义度—H(X|Y):表示信宿在收到 Y 后,信 源 X 仍然存在的不确定度。是通过有噪信道传输 后引起的信息量的损失,故也可称为损失熵。
不失真或限定失真地再现在接收端
有效: 用尽可能短的时间和尽可能少的设备来传输最大的
消息
4
第2章 信源熵
Wuhan University
单符号离散信源
自信息量
–用概率测度定义信息量,设离散信源 X,其
概率空间为
–如果知道事件 xi 已发生,则该事件所含有的
自信息定义为
5
联合自信息量
Wuhan University
H(p) 1
0
0.5
1p
图2.1.5 n=2时熵与概率的关系
16
Wuhan University
BSC信道的平均互信息量 设二进制对称信道的输入概率空间为
q
0
0
/q
/q
1
1
q
图2.1.8 二元对称信道信道范例
17
Wuhan University
I(X;Y) 1-H(q)
I(X;Y) H(p)
–信号:把消息变换成适合信道传输的物理量 ,这种物理量称为信号(如电信号、光信号 、声音信号等)。
–信息是事物运动状态和状态改变的方式。
2
Wuhan University
信息 –信息是事物运动状态和状态改变的方式。
研究信息论的目的:它的主要目的是提高信息系 统的可靠性、有效性和安全性以便达到系统最优 化。
12
平均互信息和熵的关系
Wuhan University
熵
H(X)
H(X)>=H(X|Y)
XY
H(X)=H(X|Y)+I(X;Y)
条件熵
H(X|Y)
H(X|Y)=H(XY)-H(Y) =H(X)-I(X;Y)
XY
联合熵 H(XY)=H(YX) H(XY)=H(X)+H(Y|X)
XY
=H(X|Y)+H(Y|X)+I(X;Y)
当 X 和 Y 相互独立时, p(xiyj)=p(xi)p(yj)
6
Wuhan University
条件自信息量:已知yj 的条件下xi 仍然存 在的不确定度。
自信息量、条件自信息量和联合自信息量之 间的关系
7
互信息量:yj 对 xi 的互信息量定义为的后 Wuhan University 验概率与先验概率比值的对数。
20
第3章 信源编码
Wuhan University
0
0.5
p
图2.1.9 固定信道后平均互信息随信源变化的曲线
q
0
0.5
1
图2.1.10 固定信源后平均互信息随信道变化的曲线
18
连续信源的熵为
Wuhan University
定义的熵在形式上和离散信源相似。连续信源熵并不是实 际信源输出的信息量(绝对熵); Hc(X) 也称为相对熵
连续信源的信息量为无限大; Hc(X) 已不能代表信源的平均不确定度,也不能代表连续信 源输出的信息量。
在通信系统中形式上传输的是消息,但实质上传 输的是信息。消息只是表达信息的工具,载荷信 息的客体。
3
Wuhan University
信息论的研究对象:通信系统模型.
信源
编码器
信道
解码器
信宿
消息
信号
信号+干扰
消息
信源 信道 加密
干扰
噪声源
通信系统模型
信源 信道 解密
通信系统的基本任务要求
可靠: 要使信源发出的消息经过传输后,尽可能准确地、
14
Wuhan University
最大离散熵定理 (极值性) :离散无记忆信源输 出 n 个不同的信息符号,当且仅当各个符号出 现概率相等时 (即p(xi)=1/n),熵最大。 H[p(x1),p(x2),…,p(xn)]≤logn
15
Wuhan University
二进制信源的熵函数 H(p) 为
平均互信 I(X;Y)=I(Y;X) I(X;Y)=H(X)-H(X|Y)
息
=H(X)+H(Y)-H(X,Y)
XY
13
Wuhan University
–数据处理定理(信息不增原理)
I(X;Z) ≥ I(X;f(Z))=I(X;Y) H(X|Z) ≤ H(X|f(Z))=H(X|Y) 当消息通过多级处理器时,随着处理器数目的增多, 输入消息和输出消息之间的平均互信息量趋于变小。 信息不增
噪声熵—H(Y|X):表示在已知 X 的条件下,对于 符号集 Y 尚存在的不确定性,这完全是由于信道 中噪声引起的。唯一确定信道噪声所需要的平均信 息量。
11
Wuhan University
平均互信息量定义:互信息量 I(xi;yj) 在联合概 率空间 P(XY) 中的统计平均值。
从一个事件获得另一个事件的平均互信息需要消除 不确定度,一旦消除了不确定度,就获得了信息。
总复习
1 概论 2 信源及信息熵 3 信源编码 4 信道及信道容量 5 信道编码 6 信息率失真函数 7 考试情况
Wuhan University 1
第1章 概论
Wuhan University
信息与消息和信号的区别
–消息:是指包含有信息的语言、文字和图像 等,可表达客观物质运动和主观思维活动的 状态。
两个不确定度之差是不确定度被消除的部分 ,即等于自信息量减去条件自信息量。
8
Wuhan University
平均信息量—信源熵:自信息的数学期望。也称为 信源的信息熵/信源熵/熵。
信息熵的意义:信源的信息熵 H 是从整个信源的
统计特性来考虑的。它是从平均意义上来表征信源 的总体特性的。对于某特定的信源,其信息熵是唯 一的。不同的信源因统计特性不同,其熵也不同。
限峰值的最大熵定理:若信源的N维随机变W量uha的n Uni取versi值ty 在 一定的范围之内,则在有限的定义域内,均匀分布 的连续信源具有最大熵。
限平均功率的最大熵定理:若信源输出信号的平均功 率P或方差受限,则其输出信号幅度的概率密度函数 为高斯分布时,信源具有最大熵值。
限均值的最大连续熵定理:若连续信源X输出非负信号 的均值受限,则其输出信号幅度呈指数分布时,连 续信源X具有最大熵值。
9
Wuhan University
条件熵:是在联合符号集合 XY 上的条件自信息
的数学期望。
联合熵 H(XY):表示输入随机变量 X,经信道 传输到达信宿,输出随机变量 Y。即收、发双 方通信后,整个系统仍然存在的不确定度。
10
Wuhan University
信道疑义度—H(X|Y):表示信宿在收到 Y 后,信 源 X 仍然存在的不确定度。是通过有噪信道传输 后引起的信息量的损失,故也可称为损失熵。
不失真或限定失真地再现在接收端
有效: 用尽可能短的时间和尽可能少的设备来传输最大的
消息
4
第2章 信源熵
Wuhan University
单符号离散信源
自信息量
–用概率测度定义信息量,设离散信源 X,其
概率空间为
–如果知道事件 xi 已发生,则该事件所含有的
自信息定义为
5
联合自信息量
Wuhan University
H(p) 1
0
0.5
1p
图2.1.5 n=2时熵与概率的关系
16
Wuhan University
BSC信道的平均互信息量 设二进制对称信道的输入概率空间为
q
0
0
/q
/q
1
1
q
图2.1.8 二元对称信道信道范例
17
Wuhan University
I(X;Y) 1-H(q)
I(X;Y) H(p)
–信号:把消息变换成适合信道传输的物理量 ,这种物理量称为信号(如电信号、光信号 、声音信号等)。
–信息是事物运动状态和状态改变的方式。
2
Wuhan University
信息 –信息是事物运动状态和状态改变的方式。
研究信息论的目的:它的主要目的是提高信息系 统的可靠性、有效性和安全性以便达到系统最优 化。
12
平均互信息和熵的关系
Wuhan University
熵
H(X)
H(X)>=H(X|Y)
XY
H(X)=H(X|Y)+I(X;Y)
条件熵
H(X|Y)
H(X|Y)=H(XY)-H(Y) =H(X)-I(X;Y)
XY
联合熵 H(XY)=H(YX) H(XY)=H(X)+H(Y|X)
XY
=H(X|Y)+H(Y|X)+I(X;Y)
当 X 和 Y 相互独立时, p(xiyj)=p(xi)p(yj)
6
Wuhan University
条件自信息量:已知yj 的条件下xi 仍然存 在的不确定度。
自信息量、条件自信息量和联合自信息量之 间的关系
7
互信息量:yj 对 xi 的互信息量定义为的后 Wuhan University 验概率与先验概率比值的对数。
20
第3章 信源编码
Wuhan University
0
0.5
p
图2.1.9 固定信道后平均互信息随信源变化的曲线
q
0
0.5
1
图2.1.10 固定信源后平均互信息随信道变化的曲线
18
连续信源的熵为
Wuhan University
定义的熵在形式上和离散信源相似。连续信源熵并不是实 际信源输出的信息量(绝对熵); Hc(X) 也称为相对熵
连续信源的信息量为无限大; Hc(X) 已不能代表信源的平均不确定度,也不能代表连续信 源输出的信息量。
在通信系统中形式上传输的是消息,但实质上传 输的是信息。消息只是表达信息的工具,载荷信 息的客体。
3
Wuhan University
信息论的研究对象:通信系统模型.
信源
编码器
信道
解码器
信宿
消息
信号
信号+干扰
消息
信源 信道 加密
干扰
噪声源
通信系统模型
信源 信道 解密
通信系统的基本任务要求
可靠: 要使信源发出的消息经过传输后,尽可能准确地、
14
Wuhan University
最大离散熵定理 (极值性) :离散无记忆信源输 出 n 个不同的信息符号,当且仅当各个符号出 现概率相等时 (即p(xi)=1/n),熵最大。 H[p(x1),p(x2),…,p(xn)]≤logn
15
Wuhan University
二进制信源的熵函数 H(p) 为
平均互信 I(X;Y)=I(Y;X) I(X;Y)=H(X)-H(X|Y)
息
=H(X)+H(Y)-H(X,Y)
XY
13
Wuhan University
–数据处理定理(信息不增原理)
I(X;Z) ≥ I(X;f(Z))=I(X;Y) H(X|Z) ≤ H(X|f(Z))=H(X|Y) 当消息通过多级处理器时,随着处理器数目的增多, 输入消息和输出消息之间的平均互信息量趋于变小。 信息不增
噪声熵—H(Y|X):表示在已知 X 的条件下,对于 符号集 Y 尚存在的不确定性,这完全是由于信道 中噪声引起的。唯一确定信道噪声所需要的平均信 息量。
11
Wuhan University
平均互信息量定义:互信息量 I(xi;yj) 在联合概 率空间 P(XY) 中的统计平均值。
从一个事件获得另一个事件的平均互信息需要消除 不确定度,一旦消除了不确定度,就获得了信息。
总复习
1 概论 2 信源及信息熵 3 信源编码 4 信道及信道容量 5 信道编码 6 信息率失真函数 7 考试情况
Wuhan University 1
第1章 概论
Wuhan University
信息与消息和信号的区别
–消息:是指包含有信息的语言、文字和图像 等,可表达客观物质运动和主观思维活动的 状态。
两个不确定度之差是不确定度被消除的部分 ,即等于自信息量减去条件自信息量。
8
Wuhan University
平均信息量—信源熵:自信息的数学期望。也称为 信源的信息熵/信源熵/熵。
信息熵的意义:信源的信息熵 H 是从整个信源的
统计特性来考虑的。它是从平均意义上来表征信源 的总体特性的。对于某特定的信源,其信息熵是唯 一的。不同的信源因统计特性不同,其熵也不同。