信息论第二章课件ITC2_ver1.1

合集下载

信息论第2章PPT(2012z最新版)

信息论第2章PPT(2012z最新版)
们引入平均自信息量来表述信源输出消息的不肯定性。 们引入平均自信息量来表述信源输出消息的不肯定性。
平均自信息量又称为信源熵、 或无条件熵。 平均自信息量又称为信源熵、信息熵 或无条件熵。
表示信源输出消息中的每个符号所含信息量的统计 平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值, 平均值,其表达式为 q
[
]
(a1a1 L a2 ) L (aq aq L aq ) X N (a1a1 L a1 ) = P (a a L a ) P (a a L a ) L P (a a L a ) 1 1 1 1 1 2 q q q P (X )
这个概率空间共有 q N 个元素。 个元素。 多符号的离散信源可以分为 多符号的离散信源 可以分为 1) 离散无记忆信源 ) 2) 离散有记忆信源 )
一般情况下, 如果取以 r 为底的对数 r>1) 一般情况下, ( ) , 则
I (ai ) = − log r P (ai )
(r 进制单位)
通常采用“比特”作为信息量的实用单位。 通常采用“比特”作为信息量的实用单位。
已知二元信源输出“ 、 两种符号, 例: 已知二元信源输出“0”、“1”两种符号, 两种符号 出现概率相等, (1)如果“0”、“1”出现概率相等,计算出现 如果“ 、 出现概率相等 的信息量; “0”的信息量; 的信息量 出现概率为1/3 (2)如果“0”出现概率为1/3,计算出现“1”的 如果“ 出现概率为1/3,计算出现“ 的 信息量。 信息量。 根据信息量的定义式, 解:根据信息量的定义式,可以得到
2、平均自信息量H(X) 、平均自信息量
如果一个离散信源输出的消息符号集合为 X = {x i } = {x1 , x 2 , L , x q } , 信源输出的消息符号不同,所含有的信息量就不相同,因此, 信源输出的消息符号不同,所含有的信息量就不相同,因此,自信息量

《信息论与编码》课件1第2章

《信息论与编码》课件1第2章
I(ai)是一个随机变量并不难理解。因为ai发生可以使收 信者获得大小为I(ai)的自信息,然而在信源未发出消息之 前,收信者不仅对ai是否发生具有不确定性,而且对于能 够获得多少自信息也是不确定的。因此,伴随着X=ai的随 机发生而发生的自信息I(ai)是一个随机变量,并且与随机 变量X具有相同的概率分布, 即自信息I(ai)是一个发生概率 为P(X=ai)
如果消息ai已发生,则该消息发生所含有的自信息定 义为
1
1
I (ai ) log P(ai ) log pi
(2.4)
第2章 离散无记忆信源与信息熵
可以很容易地证明, 自信息的定义满足上面提出的四个
(1) 此自信息的定义是根据消息发生的概率建立的一个 工程定义,而不是根据这个消息对人的实际意义而建立的 定义。这一纯粹技术性的定义仅仅抓住了“信息”一词在
(2) 自信息I(ai) 在消息ai发生之前,自信息I(ai)表示ai发生的不确定性; 在消息ai发生以后,自信息I(ai)表示ai所含有的(或提
第2章 离散无记忆信源与信息熵
(3) 在式(2.4)中关于对数的底未作明确规定。这是 因为对数的底仅仅影响到度量的单位,实际中可根据
如果取对数的底为2,则所得信息量的单位为比特 (bit, binary unit),此时logx用lbx
第2章 离散无记忆信源与信息熵
第2章 离散无记忆信源与信息熵
2.1 离散无记忆信源 2.2 自信息和熵 2.3 熵函数的性质 2.4 联合事件的熵及其关系 2.5 连续信源的信息测度 习题2
第2章 离散无记忆信源与信息熵
信息理论的研究对象是以各类信息的获取、表示、 传输和处理为目的的信息系统。图2-1给出了一个典型 的通信系统物理模型。在这样的通信系统中,一个贯 穿始终的、最基本的问题便是信息,即信源输出的是 信息,在系统中传输的是信息,接收者获得的也是信 息。可见,在信息理论的学习和研究中,首先需要对

信息论基础第二章PPT

信息论基础第二章PPT

8
则用转移概率矩阵表示为 0.25 0.75 p 0.6 0.4
也可用状态转移图表示为
0.75
0.25
0
1
0.4
0.6
9
其n长序列的联合分布为:
Pr { X n x n } Pr {( X 1 X 2 X n ( x1 x2 xn )} ( x1 )i 1 Pr ( X i 1 xi 1 | X i xi )
Pr {( X1 , X 2 , X n ) ( x1 , x2 xn )}
( x1, x2 xn ) n , n 1, 2
p( x1 , x2 xn )
唯一决定
4
无记忆信源
当 X1, X 2 X n 为相互独立的随机变量, 且服从相同的分布:
Pr ( X i x) p( x)
P(0 | 00) 0.8, P (1|11) 0.8, P (1| 00) P (0 |11) 0.2 P(0 | 01) P(0 |10) P (1| 01) P (1|10) 0.5
用转移概率矩阵表示为
11
0 0.8 0.2 0 0 0 0.5 0.5 P 0.5 0.5 0 0 0 0.2 0.8 0
1 k
1 k
Pr {( X t1 , X t2 , , X tm ) ( x1 , x2 ,, xm )} Pr {( X t1 k , X t2 k , , X tm k ) ( x1 , x2 xm )}
14
如果一个马氏过程是平稳的,则
Pr {X m xm | X m1 xm1 , X m2 xm2 ,, X1 x1} Pr {X m xm | X m1 xm1} Pr {X 2 xm | X1 xm1}

精品课件-信息论、编码及应用-第2章

精品课件-信息论、编码及应用-第2章
第2章 离散信源及其信息测度
第2章 离散信源及其信息测度
2.1 单符号离散信源的数学模型 2.2 自信息和信息函数 2.3 信息熵 2.4 信息熵的基本性质 2.5 联合熵和条件熵的分解与计算 2.6 信息熵的解析性质 2.7 离散信源的最大熵值 2.8 多符号离散平稳信源 2.9 多符号离散平稳无记忆信源及其信息熵 2.10 多符号离散平稳有记忆信源及其信息熵 2.11 信源的相关性与冗余度
第2章 离散信源及其信息测度
第2章 离散信源及其信息测度
上述对应的数学表达式为
(2-3)
I(ai;bj)=I(ai)-I(ai|bj)
为了便于引出一个重要的结果,我们不妨假定信道中没有
噪声的随机干扰,这时,显然有bj=ai本身,收信者确切无误地 收到信源发出的消息。那么,收到bj后,对ai仍然存在的不确 定性等于0,即I(ai|bj)=0。这样,根据式(2-3),收到bj后,从 bj中获取关于ai的信息量为I(ai;bj)=I(ai)-I(ai|bj)=I(ai), 这个I(ai)也就是ai本身所含有的信息量,即信源能提供的全部 信息量,我们称I(ai)为ai的自信息量。
(1) 若P(a1)>P(a2),则I(a1)<I(a2),即f[P(ai)]是P(ai) 的单调递减函数;
(2) 若P(ai)=0,则f [P(ai)]→∞; (3) 若P(ai)=1,则f [P(ai)]=0;
第2章 离散信源及其信息测度
(4) 若两个事件ai和bj统计独立,则ai和bj的联合信息量应 等于它们各自的信息量之和,即I(aibj)=I(ai)+I(bj)。如有两 个统计独立的信源X和Y,它们的信源空间分别是
{1,2,3,4,5,6}中的任何一个,不可能是这个集合以外的符号,

信息论基础第2章

信息论基础第2章

仅有是 ( ) (t2) 未知的。这类积分方程又称为齐次第二类线性积
分方程,其核是对称型的,求解比较容易。它要求特征值i为某些离
散值,而与之对应的正交函数则是积分方程的特征函数 i (t) 。
可见,当 R(t1,t2 ) 已知时,可求解上述积分方程,得特征值i 和相
应特征函数 i (t) ,然后即可将U(t, ω)展成为:

L
n
L
种可能取值。
对消息序列信源有:
UL
pu
U u1 p(u1)
U unL p(unL )
24-Mar-20
P.5
2)实际信源 (续)
例:最简单L=3的三位PCM信源:这时L=3, n=2, 即i={0,1},则有:
U3 p(u)
U
000,U p03 ,
001, p02 p1
,U ,
这里,H ( f , ) 为一频域中周期性随机过程,同理,类似于对周期性
确知信号,在频域可做下列付氏级数展开:当 f F 时,
a.e
a.e
j 2n f
H ( f ,) H ( f ,) gn ()e 2F
n

gn
(
)
a.e
1 2F
F
j 2n f
H ( f ,)e 2F df
1
F
2F
24-Mar-20
P.18
(三)实际信源举例
下面仅以最常见的图像与语音信源为例
1)图像信源 图像信源一般可以引用一个五元的随机场来表示:
扫描时
U (x, y, z,,t) U (x,t) (简化)
主要统计特性:初步可以认为是一个近似的平稳遍历过程
①幅度概率分布:它主要采用专用仪器测试并用直方图分析,但未 得出一致性结论,主要原因是其分布与图像类型密切相关,比如对 准动态型,其分布接近于正态分布,而对于动态型,其分布则接近 于对数正态分布。

信息论第2章(信息量、熵及互信息量)PPT课件

信息论第2章(信息量、熵及互信息量)PPT课件
假设一条电线上串联了8个灯泡x这8个灯泡损坏的可能性是等概率的假设有也只有一个灯泡损坏用万用表去测量获得足够的信息量才能获知和确定哪个灯泡x损坏
信息论基础
The Basis of Information Theory
主题No2:信息量、熵和互信息量
在上一次课中我们提到香农对信息定性的 定义——事物运动状态或存在方式的不确定性 的描述。事实上,香农对信息不仅作了定性描 述,而且还进行了定量分析。
信源发出的消息常常是随机的,具有不确 定性。如果信源中某一消息的不确定性越大, 一旦发生,并为收信者收到,消除的不确定性 就越大,获得的信息也就越大。同时事件发生 的不确定性与事件发生的概率有关,概率越小, 不确定性就越大。
研究通信系统的目的就是要找到信息传输 过程的共同规律,以提高信息传输的可靠性、 有效性、保密性和认证性,以达到信息传输系 统最优化。
写在最后
经常不断地学习,你就什么都知道。你知道得越多,你就越有力量 Study Constantly, And You Will Know Everything. The More
You Know, The More Powerful You Will Be
谢谢大家
荣幸这一路,与你同行
It'S An Honor To Walk With You All The Way
I(X;Y)是一个用来衡量信道好坏的 非常好的工具。
计算条件熵的例子
例6 设一个二进制对称信道BSC:
其先验概率为p(0)=p(1)=1/2,试计算条 件熵. [解答]由已知条件得:
由条件熵的定义有:
结果表明,虽然每个字符的错误率只有 0.1,可导致整个信宿对信源的平均不确定 性达到了0.469,将近一半。可见通信系统 对信道的要求非常高。

近代信息论第二章PPT资料(正式版)

近代信息论第二章PPT资料(正式版)

通信:
v分析信源待传送的信息; v分析信道的传输能力,选取信道。 本章重点
e.g. Voice band(S/N)db
10
20 30 40 50 60
Channel Capacity (kbps) 13.84 26.6 39.8 53.1 66 79
信道容量的定义
I(X;Y): (平均意义上)信道每传一个符号流经信道的 平均信息量。
对应的输入分布是均匀分布。
束条件下求解极大值问
题。
定义:信道容量——最大的信息传输率
设信源 X ,P , P ,..., P 信道:载荷着消息的信号所通过的通道。
分析信道的传输能力,选取信道。
I(X,Y)=H(Y)-H(Y|X)
12
n
Pi1
P P P P 做函数 F ( , ,..., 分析信源待传送的信息;
5
P
(a
)
6
P
(b
)
3
P
(a
)
7
P
(a
)
8
只要求 P (b1) P (b2) P (b3)
则,使得 H (Y )最大。
无噪离散信道
具有一一对应关系 具有扩展性(每列仅有一个非零元素)
以输上出为 为强均对匀称分信布道,输—入—分对布称?信道——均匀1 分布 2
) I(X ,Y ) (
n
1)
i
对应的输入分布是均匀分布。
F 以上为强对称信道——对称信道
0 i 1,2 ,..., n 信道输出集Y可以分成几个子集,而每个子集对应的信道转移概率矩阵P中的列所组成的子阵具有以下性质:
第二节 信道容量的定义及一般计算方法
对 P 来求导: P H(Y|X)=0, I(X,Y)=H(Yi)

信息论讲义-第二章

信息论讲义-第二章
12Байду номын сангаас

英文字母中“ 的出现概率为0.105, 的出现概率为0.105 的出现概率为0.023 英文字母中“e”的出现概率为0.105,“c”的出现概率为0.023, 的出现概率为0.023, “o”出现的概率为 0.001。分别计算它们的自信息量。 出现的概率为 0.001。分别计算它们的自信息量。 解:根据自信息量的定义 “e”的出现的信息量为 e 的出现的信息量为
n j
/ xi )
=
p( xi ) p( y j / xi ) p( y j )
m
, = p( y j ) p( xi / y j )
m j =1 j i j
p( y j / xi ) =
p( xi y j )
j =1 i j
∑ p( x y ) ∑ p( y ) p( x / y )
n
=
p( y j ) p( xi / y j )
释:
1 I ( x i ) = log = − log p( x i ) p( x i )
p(xi) ≤1, 表示事件 i出现的概率 , 表示事件x 出现的概率, 号的主要目的是: 取“-”号的主要目的是:使I(xi) ≥0 号的主要目的是
11
自信息量的单位 为底: 比特(bit) 以2为底: 比特(bit) (binary unit) 为底: 奈特(nat) 以e为底: 奈特(nat) (nature unit) 10为底 为底: 哈脱来(Hart) 以10为底: 哈脱来(Hart) (Hartley) 换算关系: 换算关系: 1 nat ≈ 1.443 bit 1 Hart ≈ 3.322 bit 一般取以2为底, bit的信息量就是二元概率 一般取以2为底,1 bit的信息量就是二元概率 空间在等概时的每个事件蕴含的自信息量。 空间在等概时的每个事件蕴含的自信息量。 计算机技术中的术语“比特” 注:计算机技术中的术语“比特”表示一个二 元数字, 元数字,每个二元数字所能提供的最大平均信息量 比特。 为1比特。

信息论PPT第二章

信息论PPT第二章
2011-11-12
7
2.1 信源的数学模型及分类
B. N次扩展信源的信源空间 次扩展信源的信源空间
因为信源XN 的每一个消息[Xi],(i=1,2,…,N)均 因为信源 的每一个消息 , 均 由信源X的符号集 的符号集A:{a1,a2,…aq}中的 个符号组成, 中的N个符号组成 由信源 的符号集 中的 个符号组成, 所 以 , XN 的 某 一 个 具 体 符 号 α i 可 以 表 示 为 [αi]=(ai1,ai2,…aij…aiN) aij∈A:{a1,a2,…aq},这个关系 , 表明扩展信源的每个符号取值于同一个单符号信源 空间, 空间,A:{ a1,a2,…aq}。 。 因此扩展信源X 就有q 种不同的符号, 因此扩展信源 N就有 N 种不同的符号 , 可以表 示为 [XN ]: {[α1],[α2],…[αi],…[αqN]}; (i=1,2, qN)
X1 1 2 = P(x1) 1/4 1/4
H(x) - H(x1) = 1--获得1bit信息量 X2 1 2 3 4 5 6 7 = P(x2) 1/2 1/2 0 0 0 0 0 H(x1) - H(x2) =1 --获得1bit信息量 X3 = P(x3) 1 1 2 0 3 0 4 0 5 0 6 0 7 0
根据消息的不同的随机性质对信源进行分类: 根据消息的不同的随机性质对信源进行分类: 离散信源:信源输出的都是单个符号( 离散信源:信源输出的都是单个符号(或代 的消息, 码)的消息,它们符号集的取值是有限的或 可数的。 可数的。可用一维离散型随机变量X来描述这 些信源的输出。这样的信源称为~。 些信源的输出。这样的信源称为~。
H(x2) = log2 = 1(bit/符号)
8 H(x3) 0 = log1 = 0(bit/符号)

信息论第2章

信息论第2章

第二章信息的定量描述第一节信息的传输通信——信息的传输。

信息传输的方式是多种多样的。

例如:带口信,写书信,打电话等等。

在这些场合,通信的双方都是人。

不过,传输媒介各不相同:带口信时,传输媒介是人;在写书信时,传输媒介是邮政系统;在打电话时,则是电报和电话系统。

再如,打旗语,吹军号,发口令,打拍子等等,也都是某种形式的通信,它们的作用都是把某一方的信息传送给另一方。

甚至谈话、讲演、看戏等等,也都包含着信息传输的过程,当然也可以看作是某种形式的通信。

此外,还有人与自然界、人与机器以及机器与机器之间的通信。

比如:用感官感受外部世界——人与自然界通信;用仪器检测人体状况——人与机器的通信;自动控制设备的状态——机器与机器通信;计算机及网络对各种信息进行处理、存取和交换—机林器或系统内部的通信等等。

其中:信源——信息的发出者;信宿——信息的接收者;信道——信息传输的媒介;噪声——阻碍信息传输的因素。

图2-1 信息系统简化模型8注:①这是一个抽象的模型;②信源和信宿可以是人、机器或其事物;③噪声是分布在系统的各部分的。

人们总是希望能迅速、准确地传输信息。

信息传输的速度——有效性。

信息传输的质量——可靠性。

有效性和可靠性,是通信的基本问题。

要想有效和可靠地传输信息,往往需要通过编码把信源发出的消息转换成便于在信道中传输信号。

一个完整的信息系统模型如图2-2来表示。

图2-2 信息系统模型⒈信源编码是为了解决通信的有效性所进行的编码,又叫有效性编码。

⒉信道编码是为了解决通信的可靠性所进行的编码,又叫可靠性编码。

⒊信源编码和信道编码的共同任务是把信源输出的消息变换为便于在信道中传输的信号。

⒋与它们相对应的信源译码和信道译码的共同任务是把信道输出的信号变换为信宿所需要的消息。

图中新增加的这四个部分,正是我们在后面的章节中所要讨论的主要内容。

单向信道——在这种通信系统中,信息只能单向传输。

例如,无线电广播等。

双向信道——在这种通信系统中,信息可以双向传输。

信息论第二章ppt

信息论第二章ppt
1
特别,对于离散情形,记 xi 表示时刻t i 所取的值, { X (t )} 若 为平稳过程,则其各维联合概率分布均与 t i, t j,( i j) 时间起点无关,即当时 ,有 , P( x ) P( x ) ,
i j
P( xi xi1 ) P(x j x j 1 )
为描述随机过程在不同时刻的状态之间的统 计联系,一般可对任意个 n(n 2,3, ) 不同时 刻 t1, t2 , , tn T,引入 n 维随机变 量 ( X (t1 ), X (t2 ), , X (tn )) ,它的分布函数记为:
FX ( x1, x2 , , xn ; t1, t2 , , tn ) P{X (t1) x1, X (t2 ) x2 , , X (tn ) xn}, xi R, i 1,2, , n
当t1 t2 t
2
2 2 ( t ) C ( t , t ) R ( t , t ) X X X (t ) 时, X

如果对每一个 t T ,随机过程 {X (t ), t T }的二 阶矩 E[ X (t )] 都存在,则称它为二阶过程。二阶过 程的相关函数总存在。 例3. 求随机相位正弦波的均值函数、方差函 数和自过程
(1) 如果X (t ) E[ X (t )] X (t ) 以概率1成立,称随机过程{ X (t )} 的均值具有各态历经性; (2) 若对任意实数 ,RX ( ) E[ X (t) X (t )] X (t) X (t ) 以概率1成立,则称随机过程 {X (t )} 的自相关函数具有各 态历经性,特别当 0 时,称均方值具有各态历经 性; (3) 如果随机过程 { X (t )} 的均值和自相关函数都具有各 态历经性,则称 { X (t )}是各态历经过程,或称{ X (t )} 是各 态历经的。各态历经性有时也称作遍历性或埃尔谷德性。

信息论与编码 第二版 第2章 .ppt

信息论与编码 第二版 第2章 .ppt
2 p xi 1 ,I xi 0;
3 非负性;
4 单调递减性;
5 可加性:
5. 联合自信息量与条件自信息量
若有两个符号 xi 、y j 同时出现,用联合概率
p(xi , y j ) 来表示,联合自信息量为
I (xi , y j ) log p(xi , y j )
当 xi 和y j 相互独立时,有p(xi , y j ) p(xi ) p( y j )
ij
ij
H ( X ,Y ) H ( X ) H (Y | X ) H (Y ) H ( X | Y )
当X和Y相互独立时,存在 H (X ,Y ) H (X ) H (Y )
既有 H (Y ) H (Y | X ) 或 H (X ) H (X | Y ) H(X|Y)当Y取特定值yj时, X集合的条件熵H(X| yj)为
H(X ,Y ) p(xi , y j )log p(xi , y j )
ij
=- p(xi , y j ) log[ p( y j ) p(xi | y j )]
ij
= p(xi , y j )log p( y j ) p(xi , y j )log p(xi | y j )
H
(V
|
u0
)

H
(1 4
,
3) 4

0.82bit
/
符号
(2)已知发出的符号,求收到符号后得到的信息量;
11
H (V | U ) p(ui , v j ) log p(v j | ui ) i0 j0
p(u0 , v0 ) p(v0 | u0 ) p(u0 ) 3 / 8 p(u0 , v1) 1/ 8 p(u1, v0 ) 1/ 4 p(u1, v1) 1/ 4

信息论与编码课件第二章

信息论与编码课件第二章
信源分类和描述
无记忆信源
X N N ( )N (X 1,X 2, ,X N ) N (X l) l 1
有记忆信源
p ( X l|X l 1 ,X l 2 , ,X l m )
信息的特性
事件(消息)的信息量大小与其不确定 度(概率)有关
事件概率越小,信息量越大 确定性事件的信息量为零,不可能事件
I (x ) y I (x ) I (y |x )p (x) yp (x )p (y|x )
I (x ;y ) I (x ) I (x |y ) I(x;y)loagp(px(x|)y) I (x ;y |z ) I (x |z ) I (x |y )z I (x ;y ) I (x ) I (y ) I (x )y
pX (x)0p
1 1p
离散信源信息熵的含义
H(X)表示信源的平均不确定度——平均 信息量
H(X)表示信源的随机性 H(X)表示信源输出每个符号所提供的平
均信息量 H(X)表示信宿所能获得的最大信息量
条件自信息量与条件熵
条件自信息量定义
I ( x|y ) = log 1 = - log p(x|y) p(x | y)
1
3
pXYZ (0,0,0) 8 , pXYZ (0,1,0) 8
3
1
pXYZ (1,0,0) 8 , pXYZ (1,1,1) 8
pXYZ (1,1,0) pXYZ (0,0,1) pXYZ (1,0,1) pXYZ (0,1,1) 0
根据上述概率分布函数,分别求得:
H ( X ) H (Y ) 1(bit )
I(x;y)loagp(px(x|)y)

设某班学生在一次考试中获优(A)、良(B)、中(C) 、及格(D)和不及格(E)的人数相等。当教师通知某甲 :“你没有不及格”,甲获得了多少比特信息?为确定自己 的成绩,甲还需要多少信息?

信息论第二章课件及习题答案.ppt

信息论第二章课件及习题答案.ppt
熵最大。特别如果底数a=2,则H(X)=1比特)
2020/1/29
17
图2.2.1
H(X) 1.0
0.5
0
0.5
2020/1/29
1P
18
§2.2 离散型随机变量的平均 自信息量(熵)
定义2.2.2(条件熵) 给定一个二维离散型
随机变量 {(X, Y), (xk, yj), rkj,
k=1~K; j=1~J}。
量定义为I(xk; yj)
2020/1/29
2
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
定义2.1.1(非平均互信息量) 给定 一个二维离散型随机变量
{(X, Y), (xk, yj), rkj, k=1~K; j=1~J} (因此就给定了两个离散型随机
(条件的非平均自信息量实际上是非平均自信息量的简单推 广,只不过将概率换成了条件概率)。
条件的非平均自信息量的特殊性质: h(xk|yj)=h(xk)-I(xk; yj) 。
2020/1/29
12
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
定义2.1.5(联合的非平均自信息量) 给定一个二维离散型随机 变量{(X, Y), (xk, yj), rkj, k=1~K; j=1~J}。事件(xk, yj)∈(X, Y) 的自信息量定义为
I (xk ; y j )

log a
rkj qk wj

log a
P((X ,Y ) (xk , y j )) P( X xk )P(Y y j )
2020/1/29
4
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
A=(a1,a2,…,an), B=(b1,b2,…,bn), 0<λ<1
34
H(λA+(1-λ)B) > λ H(A)+(1-λ)H(B)
作业:证明熵函数的上凸性。

一维离散信源的信息熵 信息熵的性质 极值性(1)
Jensen不等式
H甲 > H乙

26
信息熵的基本性质

一维离散信源的信息熵 信息熵的性质
对称性 确定性 递增性 非负性 极值性 上凸性 扩展性 独立可加性 条件可加性
条件熵及其性质
一维信源的数学模型及分类 一维信源的数学模型 一维信源的数学抽象 研究内容:信源可能的消息和消息的不确定性
3
数学抽象:
样本空间+概率测度 概率空间[X, P]

一维信源的数学模型及分类 一维信源的数学模型 概率空间的要求(对一维多维都适用) 样本空间 样本空间包含所有消息 消息两两不相容
9
思考:找到或构造一个消息数无限但可数的离散信源

一维信源的数学模型及分类 一维信源的分类 一维连续信源(1)
10
样本空间X是连续
样本空间的消息数不仅无限多而且不可数

扔一颗均匀的骰子
8
消息定义为i点朝上xi 对应概率为pi=1/6
x x x x x ⎡X⎤ ⎡ 1 2 3 4 5 ⎤ ⎢P⎥ = ⎢ 1 1 1 1 1 ⎥ ⎣ ⎦ ⎢6 6 6 6 6⎥ ⎦ ⎣

一维信源的数学模型及分类 一维信源的分类 一维离散信源举例(2)

4
概率 样本空间的消息概率之和为1

一维信源的数学模型及分类 一维信源的分类 一维离散信源 样本空间X 是离散集合
5
X的元素个数有限或者可数
[偶数、自然数谁多?——康托尔集合论]

一维离散信源的信息熵 信息熵的概念 信息熵的定义(2)
24
⎡ 1 ⎤ H ( X ) = −∑ pi log pi = E ⎢log ⎥ p( xi ) ⎦ i =1 ⎣
n
表示输出消息前,信源的平均不确定性
物理含义
表示输出消息后,每个符号所携带的平均信息量

i =1
n

一维离散信源的信息熵 信息熵的概念 自信息
22
I ( xi ) = log
1 = − log p ( xi ) p ( xi )
这是一个正数
自变量为p(xi)

一维离散信源的信息熵 信息熵的概念 信息熵的例子-打靶续集
25

⎡A A ⎤ ⎥ ⎢ 0.5 0.5 ⎦ ⎣

⎡ A A ⎤ ⎢ ⎥ 0.99 0.01 ⎦ ⎣
H 甲 = −0.5 log 0.5 − 0.5 log 0.5 = 1
H 乙 = −0.99 log 0.99 − 0.01 log 0.01 = 0.081

一维离散信源的信息熵 熵的推导 打靶试验
17

⎡A A ⎤ ⎥ ⎢ ⎣0.5 0.5 ⎦
⎡ A A ⎤ ⎢ ⎥ 0.99 0.01 ⎦ ⎣
与概率分布有关

不确定性(信息量) H Entropy
等概率时应该最大

1
第二章 离散信源及其信息测度
一维信源的数学模型及分类 一维离散信源的信息熵 信息熵的基本性质 离散无记忆的扩展信源 离散平稳信源 马尔可夫信源 信源剩余度与自然语言的熵

2
一维信源的数学模型及分类

一维离散信源的信息熵 信息熵的性质 递增性
越琐碎越烦人 熵是衡量烦人程度的一个量
30
∑p
i =1
n
i
=1
∑q
j =1
m
j
= pn
qm q1 q2 H ( p1 , p2 ,..., pn−1 , q1 , q2 ,...,qm ) = H ( p1 , p2 ,.., pn−1 , pn ) + pn H ( , ,..., ) pn pn pn
一维离散信源的信息熵 信息熵的概念 信息熵的定义(1)
23
⎡ 1 ⎤ H ( X ) = −∑ pi log pi = E ⎢log ⎥ p( xi ) ⎦ i =1 ⎣
n
这是一个正数 自信息量的数学期望 Shannon的信息熵是直接从三个性质推导出来的

i =1
n
只与概率空间结构有关,与各概率的顺序无关。

一维离散信源的信息熵 信息熵的性质 确定性
29
H (1,0) = H (0,1) = H (1,0,0,...,0) = 0
消息一定的信源没有不确定性,没有信息量。

32

一维离散信源的信息熵
信息熵的性质 上凸性(1)
f(x) B
33
A x
曲线f(x)任意取两点A、B,AB之间的函数值在线段AB之上。

一维离散信源的信息熵 信息熵的性质 上凸性(2)
⎡ A2 ⎢ p2 ⎢ ⎣ p 2 + p3
p1 p2 p3
X1
A3 p3 p 2 + p3 ⎤ ⎥ ⎥ ⎦
+
Step2
X2
p1 p2 p2+p3 p3
p3 p2 , ) H( p1, p2 , p3 ) = H( p1, p2 + p3 ) + ( p2 + p3 )H( p2 + p3 p2 + p3

甲乙谁中靶不确定性更大?

一维离散信源的信息熵 熵的推导 打靶试验
16

⎡A A ⎤ ⎥ ⎢ ⎣0.5 0.5 ⎦
⎡ A A ⎤ ⎢ ⎥ 0.99 0.01 ⎦ ⎣

在甲乙射击之前,到甲乙打完之后, 一次打靶从谁哪里获得的信息更多?
一维离散信源的信息熵 熵的推导 公理1
(考虑极端情形)
18
对有n个等概率结果的试验,H是n的单调上升函数

一维离散信源的信息熵 熵的推导 分步试验
Step1
19
X
⎡A1 A2 A3 ⎤ ⎢p p p ⎥ ⎣ 1 2 3⎦
⎡A B ⎤ ⎢p p + p ⎥ ⎣ 1 2 3⎦
分拆
公理2:一个试验分成相继的两个试验时,未分之前的H是分步之后H的加权和。
p3 p2 , ) H( p1, p2 , p3 ) = H( p1, p2 + p3 ) + ( p2 + p3 )H( p2 + p3 p2 + p3
作业:用熵定义式证明熵的递增性。

一维信源的数学模型及分类 一维信源的分类 一维离散信源(1) X的元素个数有限
6
⎡X ⎤ ⎡x1 x2 ... xk ⎤ ⎢ P⎥ = ⎢ p p ... p ⎥ k⎦ ⎣ ⎦ ⎣ 1 2
∑p
i =1
n
i
= 1 概率:规一化

一维信源的数学模型及分类 一维信源的分类 一维离散信源(2) X的元素个数无限但可数

一维离散信源的信息熵 熵的推导
20
公理2 一个试验分成相继的两个试验时,未分之前的H是分步之后H的 加权和。
ቤተ መጻሕፍቲ ባይዱ
H( p1, p2 , p3 ) = H( p1, p2 + p3 ) + ( p2 + p3 )H(
p p2 , 3 ) p2 + p3 p2 + p3
一维信源的数学模型及分类 一维信源的分类 一维连续信源(2)
11
⎡ X ⎤ ⎡(a, b)⎤ ⎢ p ( x ) ⎥ = ⎢ p ( x) ⎥ ⎣ ⎦ ⎣ ⎦

b
a
p ( x ) dx = 1
每次只输出一个消息,但消息数不可数。 p(x)为概率密度函数 例:任何一个时刻的电压分布等。


一维离散信源的信息熵 熵的推导
21
公理1:对有n个等概率结果的试验,H是n的单调上升函数; 公理2:一个试验分成相继的两个试验时,未分之前的H是分步之后H的加权和; 公理3:H是概率p(Ai)的连续函数。
H = − C ∑ p i log p i
一维离散信源的信息熵
信息熵的性质
31
1 ⎤ ⎡X ⎤ ⎡0 =⎢ ⎢ P ⎥ ω 1-ω ⎥ ⎣ ⎦ ⎣ ⎦
H ( X ) = −ω log ω − (1 − ω ) log(1 − ω )
非负性 极值性 上凸性

一维离散信源的信息熵 信息熵的性质 非负性 0≤pi≤1 log pi≤0 H(X)≥0 0≤pi
27
从定义直接得到
记住一维熵函数的图象
小概率事件对熵影响小

一维离散信源的信息熵 信息熵的性质 对称性
28
H ( p1 , p 2 ,..., p n ) = −∑ pi log pi = H ( pl1 , pl 2 ,.., p ln )
一维离散信源的信息熵 信息熵的性质 极值性(2)
0≤ x ≤1 和为1 和为1的正数
36
ϕ(x) = −x logx
上凸函数
xi = pi
Jensen不等式
λi =
1 n
1 n 1 1 − ∑ p i log p i ≤ − log n i =1 n n
1 1 H ( p1 , p 2 ,..., p n ) ≤ log n = H ( ,..., ) n n
12
一维离散信源的信息熵

13
一维离散信源的信息熵
注意 本节讨论的是消息数有限的一维离散熵 消息数无限(包括可数离散、连续)以后讨论

一维离散信源的信息熵 熵的推导 打靶试验
14
相关文档
最新文档