信息论第2章信息的度量.ppt

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2.2.1 平均自信息(信息熵)的概念
定义2.3 随机变量X的每一个可能取值的自信息I(xi)的统计平 均值定义为随机变量X的平均自信息量:
q
H ( X ) E I (xi ) p(xi ) log p(xi ) i 1
这里q为的所有X可能取值的个数。 熵的单位也是与所取的对数底有关,根据所取的对数底
另外,从直观概念上讲,由两个相对独立的不同 的消息所提供的信息量应等于它们分别提供的信 息量之和。
可以证明,满足以上公理化条件的函数形式是对数 形式。
2.1.1 自信息
定义2.1 随机事件的自信息量定义为该事件发生概率的对数
的负值。设事件xi的概率为p(xi),则它的自信息定义为
def
I (xi )
经过二次测量后,剩2个灯泡,等概率损坏,P (x3)=1/2
I[P(x3)]
log 2
P
1 ( x3 )
1(bit)
第二次测量获得的信息量 = I [P (x2)] - I [P (x3)]=1(bit)
第三次测量获得的信息量 = I [P (x3)] =1(bit)
❖ 至少要获得3个比特的信息量就可确切知道哪个灯泡已坏了。
2.1.1 自信息
随函数机,事并件且的应自该信满息足量以I(下xi)公是理该化事条件件发:生概率p(xi)的
I(xi),是 p(xi)的严格递减函数。当p(x1)<p(x2)时, I(x1)>I(x2) ,概率越小,事件发生的不确定性越 大,事件发生以后所包含的自信息量越大。
极限情况下当p(xi) =0时, I(xi) →∞ ;当p(xi) =1 时, I(xi) =0。
log
p(xi )
log
1 p(xi )
从图2.1种可以看到上述信 息量的定义正是满足上述 公理性条件的函数形式。 I(xi)代表两种含义:当事 件发生以前, 等于事件发 生的不确定性的大小;当 事件发生以后,表示事件 所含有或所能提供的信息 量。
图2.1 自信息量
2.1.1 自信息
自信息量的单位
2.2 平均自信息
2.2.1 平均自信息(信息熵)的概念
自信息量是信源发出某一具体消息所含有的信息量, 发出的消息不同,所含有的信息量也不同。因此自信 息量不能用来表征整个信源的不确定度。定义平均 自信息量来表征整个信源的不确定度。平均自信息 量又称为信息熵、信源熵,简称熵。
因为信源具有不确定性,所以我们把信源用随机变 量来表示,用随机变量的概率分布来描述信源的不 确定性。通常把一个随机变量的所有可能的取值和 这些取值对应的概率 [X,P(X)] 称为它的概率空间。
2.1.2 互信息
定义2.2 一个事件yj所给出关于另一个事件xi的信息定义为互 信息,用I(xi;yj)表示。
I (xi
def
;y j )
I (xi ) I (xi
|y j ) log
ቤተ መጻሕፍቲ ባይዱ
p(xi |y j ) p(xi )
互信息I(xi;yj)是已知事件yj后所消除的关于事件xi的不确定性, 它等于事件xi本身的不确定性I(xi)减去已知事件yj后对 仍然 存在的不确定性I(xi|yj) 。 互信息的引出,使信息得到了定量的表示,是信息论发展的 一个重要的里程碑。
X P(
X
)
a1 0.8
a2 0.2
如果被告知摸出的是红球,那么获得的信息量是:
I (a1) =-log p(a1) =-log0.8= 0.32 (比特)
如被告知摸出来的是白球,所获得的信息量应为:
常取对数的底为2,信息量的单位为比特(bit, binary unit)。当p(xi)=1/2时,I(xi)=1比特,即 概率等于1/2的事件具有1比特的自信息量。
若取自然对数(对数以e为底),自信息量的单 位为奈特(nat,natural unit)。 1奈特=log2e比 特=1.443比特
工程上用以10为底较方便。若以10为对数底,则 自信息量的单位为哈特莱(Hartley)。1哈特莱 =log210比特=3.322比特
不同,可以是比特/符号、奈特/符号、哈特莱/符号或者是 r进制单位/符号。通常用比特/符号为单位。 一般情况下,信息熵并不等于收信者平均获得的信息量, 收信者不能全部消除信源的平均不确定性,获得的信息量将 小于信息熵。
熵的计算[例]: 有一布袋内放l00个球,其中80个球是红色的,20个球是白
色的。随便摸出一个球,猜测是什么颜色,那么其概率空间为:
互信息:一个事件所给出关于另一个事件的信息量,比 如今天下雨所给出关于明天下雨的信息量。
平均自信息(信息熵):事件集(用随机变量表示)所 包含的平均信息量,它表示信源的平均不确定性。比如 抛掷一枚硬币的试验所包含的信息量。
平均互信息:一个事件集所给出关于另一个事件集的平 均信息量,比如今天的天气所给出关于明天的天气的信 息量。
第2章 信息的度量
重庆交通大学信息与工程学院 通信工程系 李益才
2012月
第2章 信息的度量
2.1 自信息和互信息 2.2 平均自信息 2.3 平均互信息
2.1 自信息和互信息
几个重要概念
自信息:一个事件(消息)本身所包含的信息量,它是 由事件的不确定性决定的。比如抛掷一枚硬币的结果是 正面这个消息所包含的信息量。
如果取以r为底的对数(r>1),则I(xi)=-logrp(xi)进 制单位 1r进制单位= log2r比特
[例] 8个串联的灯泡x1,x2,…,x8,其损坏的可能性是等概 率的,现假设其中有一个灯泡已损坏,问每进行一次测量可 获得多少信息量?最少需要多少次测量才能获知和确定哪个 灯泡已损坏。
解:收到某消息获得的信息量(即收到某消息后获得关于某事 件发生的信息量) =不确定性减少的量 =(收到此消息前关于某事件发生的不确定性) - (收到此消息后关于某事件发生的不确定性)
已知8个灯泡等概率损坏,所以先验概率P (x1)=1/8 ,即
I[P( x1 )] log 2
P
1 ( x1 )
3(bit)
一次测量后,剩4个灯泡,等概率损坏,P (x2)=1/4
I[P(x2 )]
log 2
P
1 (x2 )
2(bit)
第一次测量获得的信息量 = I [P (x1)] - I [P (x2)]=1(bit)
相关文档
最新文档