离散信源的信息熵
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
用什么作为整个信源的信息测度?
信息熵
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信息熵
各离散消息自信息量的数学期望,即信源的平均自信息量—— 信息熵。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
电子信息工程学院
式中, 0 p( xi ) 1
q i
(i 1, 2,q)
p( x ) 1
i 1
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.1 自信息
问题的提出:
?????
每个消息携带多少信息量? 整个信源能输出多少信息量?
信源发出的消息是随机的,具有不确定性,收信者收到消息后, 才能消除不确定性获得信息。 如果某一消息发生的不确定性越大,一旦发生,获得的信息量 就越大。 不确定性的消除是一个从“不知-知”的过程,在此过程中,收 信者获得足够的信息量。 消息发生的不确定性和发生的概率有关,消息发生的概率越小, 则消息中包含的信息量就越大。消息ai 发生所含有的信息量称 为消息ai 的自信息量。 电子信息工程学院
信息论
2.2 离散信源的信息熵
信源:信息的来源,是产生消息或消息序列的源泉 离散信源:信源可能输出的消息数是有限的或可数的,每 次只输出一个消息。 离散信源的数学模型:
X x1 P( x) p ( x ) 1 x2 x3 p( x2 ) p( x3 ) xq p( xq )
第三次获得的信息量
I[P 3 ( x)] log2
1 1 log2 1 P ( x ) 1 2 3
电子信息工程学院
信息论
2.2 离散信源的信息熵
结论:
收到某消息获得的信息量 =不确定性减少的量 =(收到消息前某事件发生的不确定性) -(收到消息后关于该事件的不确定性) 自信息是指某一消息所含有的信息量,消息不同,所含有的 信息量也不同,不能用它作为整个信源的信息测度。
I ( x) loga 1 loga P( x) P( x)
-自信息量的定义
电子信息工程学院
信息论
2.2 离散信源的信息熵
I ( x) loga
1 loga P( x) P( x)
上式中对数的底:
若a = 2,信息量的单位称为比特(bit) 若a = e,信息量的单位称为奈特(nat), 若 a = 10,信息量的单位称为哈特(Hart) 事件x发生前, I(x)表示事件x发生的不确定性 事件x发生后, I(x)表示事件x所含有(或所提供)的信息量
单位:比特/符号。(底数不同,单位不同) 信源的信息熵H考虑的是整个信源的统计特性。它是从平均意义 上来表征信源的总体信息测度。 对于某特定的信源(概率空间给定),其信息熵是个确定的数 值。 不同的信源因统计特性不同,其熵也不同。
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信源熵的物理意义
信源熵H(X)表示信源输出后,每个消息(或符号)所提供的平 均信息量。 信源熵H(X)表示信源输出前,信源的平均不确定性。 信源熵H(X)反映了变量X的随机性。
电子信息工程学院
信息论
2.2 离散信源的信息熵
例如有两个信源,其概率空间分别为:
X a1 P( x) 0.99 a2 0.01 Y b1 P( y ) 0.5 b2 0.5
I(x)的含义:
电子信息工程学院
信息论
2.2 离散信源的信息熵
例2.1 假设一条电线上串联8个灯泡,这8个灯泡 损坏的可能性是等概率的,现假设这8个灯泡有一 个且只有1个已经损坏,让我们检查判断哪一个灯 泡损坏并分析信息获取的过程。
解:用万用表进行检查判断
电子信息工程学院
信息论
2.2 离散信源的信息熵
信息论
2.2 离散信源的信息熵
2.2.1 自信息信息量的度量方法
自信息量I(x) 是 P(x) 的单调递减函数 P(x) ,I(x) ; P(x) ,I(x) ; P(x) = 1时,I(x) = 0; P(x) = 0时,I(x) = ; 两个独立事件的联合信息量应等于它们分别信息量之和,即统 计独立信源的信息量等于分别信息量之和。 满足上述3条件的关系式如下:
第三次 第二次 第二次 第一次 第一次
Baidu Nhomakorabea
第一次获得的信息量
I[P 1 ( x)] I [ P 2 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 8 1 4 1 2
第二次获得的信息量
I[P 2 ( x)] I [ P 3 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 4 1 2 2 3
H ( X ) 0.99 log 0.99 0.01log 0.01 0.08(比特 / 符号) H (Y ) 0.5 log 0.5 0.5 log 0.5 1(比特 / 符号)
H (Y ) H ( X ) 可见 信源Y比信源X的平均不确定性要大。信息熵正好反映了信源输 出消息前,接收者对信源存在的平均不确定程度的大小,也反 映了信源随机性的大小。