离散信源的信息熵
离散信源的信息熵
信息熵
(1) 信息熵 ③信息熵与平均获得的信息量 • 信息熵是信源的平均不确定性的描述。在一般
情况下它并不等于平均获得的信息量。 • 只有在无噪情况下,接收者才能正确无误地接
收到信源所发出的消息,消除 H(X) 大小的平均 不确定性,所以获得的平均信息量就等于 H(X)。 • 在一般情况下获得的信息量是两熵之差,并不 是信源熵本身。
1
1
1
I ( xi y j ) log2 p( xi ) p( y j ) log2 p( xi ) log2 p( y j )
I( xi ) I( y j )
• 两个随机事件相互独立时,同时发生得到的信息量,等于 各自自信息量之和。
17/20
自信息
3)条件自信息
• 设 yj 条件下,发生 xi 的条件概率为 p(xi /yj),那么它的条件自信 息量 I(xi/yj) 定义为:
I ( xi
/
y j ) log2
1 p( xi /
yj)
• 表示在特定条件下(yj已定)随机事件 xi 所带来的信息量 • 同理,xi 已知时发生 yj 的条件自信息量为:
1 I ( y j / xi ) log2 p( y j / xi )
18/20
自信息
3) 条件自信息
• 自信息量、条件自信息量和联合自信息量之间的 关系
❖ 信源 Y 比信源 X 的平均不确定性大;
信息熵
❖ 本例结论(续)
❖ 信息熵反映的就是信源输出前平均不确定程度的大小。 ❖ 变量 Y 取 y1 和 y2 是等概率的,所以其随机性大。而变
量 X 取 x1 的概率比取 x2 的概率大很多,这时变量 X 的 随机性就小。 ❖ 因此 H(X) 反映了变量的随机性。
离散序列信源的熵
2020/5/15
13
(2) H(XL/XL-1) 是L的单调递减函数 证明:
H(XL/X1X2…XL-1)≤H(XL/X2X3…XL-1) (条件较多的熵小于或等于减少一些条件的熵) =H(XL-1/X1X2…XL-2)(平稳性) ≤H(XL-1/X2X3…XL-2) (条件较多的熵小于或等于减少一些条件的熵) =H(XL-2/X1X2…XL-3) (平稳性) …
Wi pij W j j S
i
• 其中, Wi和Wj均为稳态分布概率 .
• (2)把Pij(m,n)理解为已知在时刻m系统处于状 态i的条件下,在时刻n系统处于状态j的条件概 率,故状态转移概率实际上是一个条件概率。
2020/5/15
25
两个基本转移概率性质:
(1) pij (m, n) 0
(2) pij (m, n) 1
j
i, j S
i, j S
2020/5/15
2020/5/15
21
5. 状态转移描述
• 对于m阶马尔可夫信源
X P
x1 p(xim1
x2 / xi1
... xq xi2 ...xim
)
2020/5/15
22
• 在某一时刻(m+1),信源符号出现的 概率,仅与前面已出现的m个符号有关, 而与更前面出现的符号无关。可通过引 人状态转移概率,从而转化为马尔可夫 链,即令
平均每个符号熵为
HL(X)=H(X)/L=H(x )(单个符号信源的符号熵 )
2020/5/15
3
第四讲
2003年5月6日
2020/5/15
2.2 离散信源的熵
第 二 章 基 本 信 息 论
§2.2 离散信源的熵
二、基本性质
4. 扩展性 limH( p1 , p2 ,⋯, pi − ε , ⋯, pN ,ε ) = H( p1 , p2 ,⋯, pN ) .
ε →0
说明虽然小概率事件的信息量很大, 说明虽然小概率事件的信息量很大,但由于该事件几乎 不会出现,故熵几乎不变。反映了熵的总体平均性。 不会出现,故熵几乎不变。反映了熵的总体平均性。 证
H( X) = H( p1 , p2 ,⋯, pN ) = 0.
表明确定性的信源不含有任何信息量, 表明确定性的信源不含有任何信息量,其信源熵必为 0。 。 证 (1) 若 pl = 1 , pk = 0 ( k ≠ l ) , ⇒
N i =1
N
H ( X ) = − ∑ pi log pi = 0 .
轻松一下吧 ……
11
i =1
(2) 若 H ( X ) = − ∑ pi log pi = 0 , 由于 pi log pi ≤ 0 (∀i ) , ⇒ 又由于 pi log pi = 0 (∀i ) , ⇒ pi = 0 或 pi = 1 (∀i ) ,
∑ pi = 1 ,
i =1
N
故 { pk }中只有一个为 1,其余的为 0。 , 。 6
§2.2 离散信源的熵
二、基本性质
1. 非负性
H( X) = H( p1 , p2 ,⋯, pN ) ≥ 0.
证 由 0 ≤ pi ≤ 1 ⇒ log pi ≤ 0 ,
N
⇒
i =1
pi log pi ≤ 0 ,
⇒
H ( X ) = − ∑ pi log pi ≥ 0 .
2. 对称性
(完整版)计算离散信源的熵matlab实现
(完整版)计算离散信源的熵matlab实现实验一:计算离散信源的熵一、实验设备:1、计算机2、软件:Matlab二、实验目的:1、熟悉离散信源的特点;2、学习仿真离散信源的方法3、学习离散信源平均信息量的计算方法4、熟悉 Matlab 编程;三、实验内容:1、写出计算自信息量的Matlab 程序2、写出计算离散信源平均信息量的Matlab 程序。
3、掌握二元离散信源的最大信息量与概率的关系。
4、将程序在计算机上仿真实现,验证程序的正确性并完成习题。
四、实验报告要求简要总结离散信源的特点及离散信源平均信息量的计算,写出习题的MATLAB 实现语句。
信息论基础:自信息的计算公式 21()log aI a p = Matlab 实现:I=log2(1/p) 或I=-log2(p) 熵(平均自信息)的计算公式22111()log log qq i i i i i i H x p p p p ====-∑∑ Matlab 实现:HX=sum(-x.*log2(x));或者h=h-x(i)*log2(x(i)); 习题:1. 甲地天气预报构成的信源空间为:1111(),,,8482X p x =?? 小雨云大雨晴乙地信源空间为:17(),88Y p y =?? 小雨晴求此两个信源的熵。
求各种天气的自信息量。
案:() 1.75;()0.5436H X H Y ==运行程序:p1=[1/2,1/4,1/8,1/8];%p1代表甲信源对应的概率p2=[7/8,1/8];%p2代表乙信源对应的概率H1=0.0;H2=0.0;I=[];J=[];for i=1:4H1=H1+p1(i)*log2(1/p1(i));I(i)=log2(1/p1(i));enddisp('自信息量分别为:');Idisp('H1信源熵为:');H1for j=1:2H2=H2+p2(j)*log2(1/p2(j));J(j)=log2(1/p2(j));enddisp('自信息量分别为:');Jdisp('H2信源熵为:');H2。
离散信源熵信道容量实验报告
离散信源熵信道容量实验报告实验目的:通过模拟离散信源熵和信道容量的实验,掌握熵和信道容量的概念及计算方法。
实验原理:离散信源:离散信源是指其输出符号集合为有限的离散符号集合,通常用概率分布来描述其输出符号的概率分布,称为离散概率分布。
离散信源的熵是度量这一离散概率分布的不确定度的量度,其单位是比特。
离散信源的熵公式为:H(S)=-Σpi×log2pi其中,H(S)为离散信源的熵,pi为消息符号i出现的概率,log2为以2为底的对数。
信道容量:信道容量是指在某一固定的信噪比下,能够传送的最大信息速率。
信道容量的大小决定了数字通信系统的最高可靠传输速率。
离散无记忆信道的信道容量公式为:C=max{I(X;Y)}其中,X为输入符号,Y为输出符号,I为信息熵。
实验步骤:1. 生成随机概率分布对于3种不同的符号数量,生成随机的符号及其概率分布。
在生成时,要求概率之和为1。
2. 计算离散信源的熵根据所生成的随机概率分布计算离散信源的熵。
3. 构建离散无记忆信道构建一个离散的2进制对称信道,并存储在一个概率矩阵中,利用生成的概率分布对该矩阵进行初始化。
4. 计算信道容量根据所构建的离散无记忆信道计算其信道容量。
实验结果分析:以下是实验结果分析,其中H(S)表示离散信源的熵,C表示离散无记忆信道的信道容量。
符号数量为3时:符号概率a 0.2b 0.3c 0.5H(S) = 1.485构建的离散无记忆信道的概率矩阵为:| 0 | 1 |--------------------------a | 0.20 | 0.80 |--------------------------b | 0.60 | 0.40 |--------------------------c | 0.80 | 0.20 |--------------------------C = 0.823从实验结果可以看出,当符号数量增加时,熵的值也会随之增加,这是由于符号集合增加,随机性增强所导致的。
2015秋.信息论.第2章离散信源与信息熵
第2章离散信源与信息熵信号 信号+干扰 消息干扰消息 信源 编码器 信道 译码器 信宿 噪声源通信系统模型信息2.1 信源的分类和描述信源是信息的发源地,可以是人、生物、机器或其他事物。
信源的输出是包含信息的消息。
消息的形式可以是离散的或连续的。
信源输出为连续信号形式(如语音),可用连续随机变量描述。
连续信源←→模拟通信系统信源输出是离散的消息符号(如书信),可用离散随机变量描述。
离散信源←→数字通信系统离散信源…X i…X j…离散无记忆信源:输出符号Xi Xj之间相互无影响;离散有记忆信源:输出符号Xi Xj之间彼此依存。
3离散信源无记忆有记忆发出单个符号发出符号序列马尔可夫信源非马尔可夫信源y j将一粒棋子随意地放在棋盘中的某列;棋子放置的位置是一个随机事件;可看做一个发出单个符号的离散信源。
x i1212,,...,(),(),...,()m m x x x X P p x p x p x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦就数学意义来讲,信源就是一个概率场,可用概率空间来描述信源。
由离散随机变量X 表示棋子位置:10()1,()1m i ii p x p x =≤≤=∑i x 其中,代表随机事件的某一结果。
2.2离散信源的信息熵信息的可度量性是信息论建立的基础;香农的信息论用事件发生概率的对数来描述事件的不确定性,得到消息的信息量,建立熵的概念。
2.2.1自信息量–定义2.1 任意随机事件x i 的自信息量定义为:i i i 1(x )log log (x )(x )I P P ==-小概率事件所包含的不确定性大,自信息量大。
大概率事件所包含的不确定性小,自信息量小。
概率为1的确定性事件,自信息量为零。
i i i 1(x )log log (x )(x )I P P ==-信息量的单位与公式中的对数取底有关。
以2为底,单位比特(bit );以e 为底,单位奈特(nat );()22log log ,log log ln log c a c b b x e x a==⋅–例:棋盘共8列,甲随手一放,将一枚棋子放在了第3列。
第二章_离散信源与信息熵的关系
给出,为了书写方便以后写成: 和
y1 , y2 , Y q1 , q2 , ym qm
xn Y y1, y2 , Q q( y ), q( y ), p( xn ) ; 1 2
ym q ( ym )
一. Definition of the self-mutual information:
«信 息 论 基 础 »
第二章:信息的度量与信息熵
( The measure of Information &Entropy) §2. 1 自信息与条件自信息
( self—information & conditional self— information) §2. 2 自互信息与条件自互信息 (self—mutual
p ( x ) 则表达当收端已收到某种消息后, 再统计发端的发送 率: y 概率,所以此条件概率称为后验概率(Posterior Probability) 。
§2. 1 自信息与条件自信息 因此我们说事件 xi 以及它所对应的先验概率P( x )而定
i
义出的自信息 I [ p( xi )] ,所表达的不论事件是否有人接收这 个事件它所固有的不确定度,或者说它所能带来的信息 xi p ( ) 量。而消息事件 y j xi nk 它所对应的条件概率 yj 是在收端接收到已干扰的消息后的后验概率,如果当它为1 xi p ( ) 则属于透明传输;若 y j <1,则属于有扰传输。而当 xi p ( ) 后验概率大于先验概率是 y j > P( xi ),说明事件 y j 发生之后多少也解除了事件 xi 的部分不定度,即得到 了事件 X xi 的部分信息。由于概率越大,不定度越小。 从客观上讲,条件自信息一定不会大于无条件的自信息。 同时也反映出要得知一些条件,原事件的不定度一定会 减少,最坏的情况也不过保持不变,即条件与事件无关。
离散信源熵ppt课件
I(xi;yj)lo2gp(px(ix|iy)j)
I(x i;y j) lo p (p x g ( ix |iy )j) lo p ( p x ( g ix )ip y (jy )j) lo p ( p y ( g jy |jx )i)
I ( x i ;y j) I ( x i) I ( x i|y j) I ( y j) I ( y j|x i)
• 若得知“今天不是晴天”,把这句话作为收到的消息 y1
• 当收到y1后,各种天气发生的概率变成后验概率了
• p(x1|y1) = 0I, (px(1x;2y|y11))=l1o/22g精,p选p(pp(xpx(1tx3||1yy)11))=10/4 , p(x4|y1) = 1/4 13
I(x2;y1)lo 2p g (p x (2 x |2y )1)lo 21 1 g //4 21 bit I(x3;y1)I(x4;y1)lo21 1 g //8 41 bit • 表明从y1分别得到了x2 x3 x4各 1比特的信息量。 • 消息y1使x2 x3 x4的不确定度各减少1bit 。
• 条件熵
H(Y|X) p(xi,yj)lopg(yj|xi)
I(xi)lopg (xi)
• I (xi) 含义:
– 当事件xi发生以前,表示事件xi 发生的不确定性 – 当事件xi发生以后,表示事件xi所含有的信息量
精选ppt 6
自信息量
• 自信息量
I(xi)lopg (xi)
• 条件自信息量
I(x i|yj) lop (g x i|yj)
• 联合自信息量
第二章
信源与信息熵
内容
2.1 信源的描述和分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信 2.5 冗余度
第2章 离散信源熵
H (Y X ) E[ I (b j ai )] p(aib j )log p(b j ai )
i 1 j 1
n
m
(2.2.8) (2.2.9)
21
3 联合熵
H ( XY ) p(aib j ) I (aib j ) p(aib j )log p(aib j )
6
对于离散随机变量,取值于集合
a1
, a 2 , , ai , , a n
对任一 a i 记 p ( ai ) P ( X ai ) 单符号离散信源的数学模型为
, ai , , an X a1 , a2 , P( X ) p(a ), p(a ), , p(a ), , p(a ) 1 2 i n
23
证明:自然对数具有性质 当 x 0时, ln x x 1 ,并且当且仅当 x 1 时,该式取等号。
图2.2.3 自然对数的性质
24
n n 1 1 H ( X ) log n p(ai )log p(ai )log n p(ai )log p(ai ) i 1 np(ai ) i 1 i 1 n
j 1 i 1
m
n
p(a b ) p(b ), p(a b ) p(a )
i 1 i j j j 1 i j i
n
m
p(ai bj ) p(bj ) p(ai bj ) p(ai ) p(bj ai )
当 X 与 Y 相互独立时
p(aib j ) p(ai ) p(b j ), p(b j ai ) p(b j ), p(ai b j ) p(ai )
条 件 熵
信 源 熵
离散信源熵和互信息(上)
I ( xi y j ) log p( xi y j )
• 注意:
• 当xi,yj相互独立时,有p(xiyj)=p(xi)p(yj),那么就 有 I(xiyj)=I(xi)+I(yj)。 • xiyj所包含的不确定度在数值上也等于它们的自 信息量。
18
自信息量
• 条件自信息量
• 在事件yj出现的条件下,随机事件xi发生的条 件概率为p(xi | yj) ,则它的条件自信息量定义 为条件概率对数的负值:
• 稳态后的符号概率分布
1 3 1 6 1 6 1 4 9 p(a1 ) p(a1 | si ) p( si ) 2 35 3 35 4 35 5 7 35 i 1 3 2 6 3 6 4 4 26 p(a2 ) p(a2 | si ) p( si ) 2 35 3 35 4 35 5 7 35 i
1/0.2
1/0.7
s2
0/0.8
W0 0.3571, W1 0.1429, W2 0.5
0.6 0.4 0 p( si | s j ) 0 . 3 0 0 . 7 0.2 0 0.8
5
• 例2-2:有一个二元二阶马尔可夫信源,其信源
符号集为{0,1},已知符号条件概率: p(0|00) = 1/2 p(0|01) = 1/3 p(0|10) = 1/4 p(0|11) = 1/5 p(1|00)=1/2 p(1|01)=2/3 p(1|10)=3/4 p(1|11)=4/5
I ( xi | y j ) log p( xi | y j )
注意: 在给定yj条件下,随机事件xi所包含的不确定度 在数值上与条件自信息量相同,但两者含义不同。
离散信源的信息熵
H ( X ) 0.99 log 0.99 0.01log 0.01 0.08(比特 / 符号) H (Y ) 0.5 log 0.5 0.5 log 0.5 1(比特 / 符号)
H (Y ) H ( X ) 可见 信源Y比信源X的平均不确定性要大。信息熵正好反映了信源输 出消息前,接收者对信源存在的平均不确定程度的大小,也反 映了信源随机性的大小。
信息论
2.2 离散信源的信息熵
2.2.1 自信息信息量的度量方法
自信息量I(x) 是 P(x) 的单调递减函数 P(x) ,I(x) ; P(x) ,I(x) ; P(x) = 1时,I(x) = 0; P(x) = 0时,I(x) = ; 两个独立事件的联合信息量应等于它们分别信息量之和,即统 计独立信源的信息量等于分别信息量之和。 满足上述3条件的关系式如下:
用什么作为整个信源的信息测度?
信息熵
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信息熵
各离散消息自信息量的数学期望,即信源的平均自信息量—— 信息熵。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
第三次 第二次 第二次 第一次 第一次
第一次获得的信息量
I[P 1 ( x)] I [ P 2 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 8 1 4 1 2
第二次获得的信息量
I[P 2 ( x)] I [ P 3 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 4 1 2 2 3
第2章离散信源及其信息测度
X
P
(a, b) p(x)
p(x) 0,
b
p(x)dx 1
a
2.1 信源的数学模型及分类
2.1.2 信源输出的消息用随机矢量描述
实际信源每次输出的消息是按一定概率选取的 符号序列,可以看做是时间上或者空间的随机矢 量。用N维随机矢量X=(X1,X2,…,XN)表示,又称 为随机序列。
主要内容
2.1 信源的数学模型及分类 2.2 离散信源的信息熵 2.3 信息熵的基本性质 2.4 离散无记忆信源的扩展信源 2.5 离散平稳信源 2.6 信源剩余度
2.1 信源的数学模型及分类
通信过程是从信源开始的,信源发送的是消息 或消息序列,通信系统中传递的是消息,消息中 包含信息。因此,通过研究消息来研究信源。
若随机矢量的各维概率分布都与时间起点无关, 这样的信源称为平稳信源。
每个随机变量Xi都是离散取值且其可能取值是 有限的,这样的信源称为离散平稳信源。
每个随机变量Xi都是连续取值的连续型随机变 量,则为连续平稳信源。
2.1 信源的数学模型及分类
若信源先后发出的各个符号彼此统计独立,则:
P(X ) P(X1X 2 X N ) P(X1)P(X 2)P(X N )
小与信源的符号数及其概率分布有关。
用概率矢量P来表示概率分布,H(P)为熵函数。
P (P(a1), P(a2), , P(aq )) ( p1, p2, , pq )
2.1 信源的数学模型及分类
则信源X所输出的随机矢量X所描述的信源称 为离散无记忆信源X的N次扩展信源
若信源在不同时刻发出的符号之间是相互依赖 的,这种信源为有记忆信源。
通常符号之间的依赖关系(记忆长度)是有限 的,若记忆长度为m+1,则称这种有记忆信源为 m阶马尔可夫信源。
第二章 离散信源及其信息测度_01
I [ P2 ( x)] I [ P 3 ( x)]
第三次测量只需在2个灯泡中进行。图2.2中假设第二次测量的结果是不 通,也就知损坏的灯泡在最左边二个之一。这样,第三次测量如图2.2所示, 通过第三次测量完全消除了不确定性,能获知哪个灯泡是坏了的。第三次 测量后已不存在不确定性了,因此,尚存在的不确定性等于零。 第三次测量获得的信息量: I [ P ( x)] 0 I [ P ( x)]
a2 ... aq X a1 P( x) P(a ) P(a ) ... P(a ) 2 q 1
我们称由信源空间 X , P( x) 描述的信源 X 为离散无记忆信源。这信源在 不同时刻发出的符号之间是无依赖的,彼此统计独立的。
2.1 信源的数学模型及分类
a2 p2
... ...
xq pn
p
i 1
q
i
1
集合X中,包含该信源包含的所有可能输出 的消息,集合P中包含对应消息的概率密度,各 个消息的输出概率总和应该为1。 例:投硬币、书信文字、计算机的代码、 电报符号、阿拉伯数字码等。
2.1 信源的数学模型及分类
—— 信源输出的消息用随机变量描述
连续信源(连续平稳信源、连续非平稳信源)
按照信源符号之间的关系: 无记忆信源
发出单个符号的无记忆信源
发出符号序列的无记忆信源 有记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源
2.1 信源的数学模型及分类
—— 信源输出的消息用随机变量描述
有些信源可能输出的消息数是有限的或可数的,而且 每次只输出其中一个消息。例如,扔一颗质地均匀的,研 究其下落后,朝上一面的点数。每次试验结果必然是1点、 2点、3点、4点、5点、6点中的某一个面朝上。这种信源 输出消息是“朝上的面是1点”、“朝上的面是2 点”、......、“朝上的面是6点”等六个不同的消息。 每次试验只出现一种消息,出现哪一种消息是随机的,但 必定是出现这六个消息集中的某一个信息,不可能出现这 个集合以外的什么消息。这六个不同的消息构成两两互不 相容的基本事件集合,用符号ai , i 1,...,6 来表示这些消息, , a6 } 。由大 得这信源的样本空间为符号集 A : {a1 , a2 , a3 , a4 , a5 。 量试验结果证明,各消息都是等概率出现的,都等于1 6 。
离散信源的熵
第2章 离散信源的熵
➢I(xi)与xi的概率P(xi)相关 ➢I(xi)是P(xi)的连续减函数,当P(xi) =0时I(xi) →∞,P(xi) =1时I(xi) =0
第2章 离散信源的熵
例2
X x1 x2 x3 x4 P(X) 1/ 2 1/ 4 1/ 8 1/ 8
N
P(xi1 xi2 xin )I(xin / xi1 xi2 x ) in1
i1 1 i2 1 in 1
NN
N
P(xi1 xi2 xin ) log P(xin / xi1 xi2 x ) in1
i1 1 i2 1 in 1
第2章 离散信源的熵
3、熵的链式法则
NN
N
H(X1X2 Xn )
H(p) 1 0.811
0 0.25 0.5 0.75 1 p
第2章 离散信源的熵
习题:(P68)2.4、2.5
第2章 离散信源的熵
2.2 多符号离散信源的熵与熵率
1、多符号离散信源及其模型
定义
多符号离散信源——信源发出的消息为n维符号序 列,符号序列中任何一个符号都随机取值于同一 个N元集合 信源的模型——离散型随机变量序列X1X2…Xn
0 P(xi ) 1, I(xi ) log P(xi ) 0
N
H(X) P(xi )I(xi ) 0 i1
i 1,2, , N
第2章 离散信源的熵
②严格上凸
熵H(X)对于信源概率P(X)严格上凸
严格上凸的描述——设函数f(x)对任一小于1的正数 α及定义域中任意两个值x1、x2,如果
NN
N
其中
P(xi1 xi2 xin ) 1
第2章 信源与信息熵(3)
互信息量实质是通信中实际传送的有用信息量。 互信息量实质是通信中实际传送的有用信息量。 显然,互信息越大越好, 显然,互信息越大越好,极限是 H ( X ) 能否将发送端X的信息量全部传送? 能否将发送端 的信息量全部传送? 的信息量全部传送 要求通信过程中没有信息量损失,而实际传输过程中, 要求通信过程中没有信息量损失,而实际传输过程中,信 道中的噪声会淹没一定的信息,即信息有损失。 道中的噪声会淹没一定的信息,即信息有损失。 通信过程中,信息量损失了多少? 通信过程中,信息量损失了多少? X的信息量减去实际传输的信息量,即 的信息量减去实际传输的信息量, 的信息量减去实际传输的信息量
I ( X ; Y ) = I (Y ; X )
理论证明略(与单符号互信息相同)。 理论证明略(与单符号互信息相同)。
②非负性
I ( X ;Y ) ≥ 0 I ( X ;Y ) ≤ H ( X )
理论证明参考周荫清编的信息理论基础, 理论证明参考周荫清编的信息理论基础,直观理解
③极值性
直观理解!! 直观理解!!
p ( xi | y j ) p ( xi )
= log 2
p ( xi ) p ( y j )
p ( xi , y j )
2 .2 离散信源熵和互信息
三、互信息
1、单符号之间的互信息量 性质: ③ 性质: 证明: 证明:
I ( xi ; y j ) = ( xi , y j )
p ( xi ) p ( y j )
p ( xi , y j )
= log 2
p ( xi ) p ( y j )
2 .2 离散信源熵和互信息
三、互信息
2、平均互信息 定义: 指单符号互信息量在X集合和 集合上的统计平均值。 定义: 指单符号互信息量在 集合和Y集合上的统计平均值。 集合和 集合上的统计平均值
信息论离散信源的熵
(i 1,2,...n)
2020/3/20
26
⑵转移矩阵描述
矩阵[P]称为转移矩阵或信道矩阵;表示为:
y1
y2
x1 p(y1/x1) p(y2/x1)…
… [P]= x2 p(y1/x2) p(y2/x2)
……
…
…
xn p(y1/xn) p(y2/xn) …
…
ym p(ym/x1) p(ym/x2) … p(ym/xn)
⑵离散信源空间:
信源的符号(状态)随机地取值于一个离散
集 合 [X]= ( x1,x2,…xn ) 中 , 一 个 离 散 信 源
可以用一个离散随机变量的概率空间表示。
[P]=(p1,p2,…pn) 这种表示称为离散无记忆信源的信源空间。
信源空间必为一个完备空间, n
即其概率和为1。
pi 1
i1
i 1
n
n
pi log pi [ pi 1]
i 1
i 1
2020/3/20
13
Hmax(X)=H(1/n, 1/n,……,1/n)=logn
这个结果称为离散信源得最大熵定理。它 表明,在所有符号数相同,而概率分布不 同的离散信源中,当先验概率相等时得到 的熵最大。最大熵的值取决于符号状态数 ,状态数越多,熵越大。
当X,Y独立时,有p(x,y)=p(x)p(y)。
m
m
p( xi ) p( xi , y j ) p( y j ) p( xi / y j )
j 1
j 1
n
n
p( y j ) p( xi , y j ) p( xi ) p( y j / xi )
i1
i1
nm
2.1离散信源熵
I (xi y j ) = −log2 p(xi ) p(y j / xi ) = I (xi ) + I (y j / xi ) = − log2 p( y j ) p(xi / y j ) = I ( y j ) + I (xi / y j )
信源熵例题
有一篇千字文章,假定每字可从万字表中任选,则共 有不同的千字文
N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文可提供的 信息量为
H(X) = log2N ≈ 1.3 × 104 bit
2.1 离散信源熵
上节回顾
信息论的研究对象
研究的主要问题 在通信系统设计中如何实现有效性、可靠性
Shannon通信系统模型
• 学习信息论的意义 一、为工程实践提供理论指导 二、为从事相关理论工作奠定基础 1 信息论 2 编码理论 3 密码学与网络安全
上节回顾
• 通信过程是一种消除不确定性的过程。
如果被告知摸出的是红球,那么获得的信息量是:
I (a1) =-log p(a1) =-log0.8= 0.32 (比特)
如被告知摸出来的是白球,所获得的信息量应为:
I (a2) = -log p(a2) = -log0.2 = 2.32 (比特)
平均摸取一次所能获得的信息量为 :
H(X)= p(a1) I (a1) + p(a2) I (a2) =0.72(比特/符号)
• 二进制码元0,1,当符号概率为p(0)=1/4, p(1)=3/4,则这 两个符号的自信息量为: I(0) =-log2 (1/4)=log24= 2bit I(1) =-log2 (3/4) =0.4151 bit
离散和连续信源熵正负
离散和连续信源熵的正负1. 介绍在信息论中,信源熵是衡量一个随机信源的不确定性的度量。
离散和连续信源是两种常见的信源类型,它们在计算熵时存在一些差异。
本文将详细介绍离散和连续信源熵的正负以及相关概念。
2. 离散信源熵的正负2.1 离散信源熵的定义离散信源是指输出符号有限且可数的信源。
假设我们有一个离散信源X,其输出符号集合为{a1, a2, …, an},每个符号ai发生的概率为pi。
离散信源熵H(X)定义为:H(X) = -Σ(pi * log2(pi))其中log2表示以2为底的对数运算。
2.2 离散信源熵的正负根据熵的定义可以发现,离散信源熵始终为非负值。
这是因为概率pi大于等于0且小于等于1,log2(pi)小于等于0,所以对每个pi求积后取负数得到的结果都是非负值。
当所有输出符号发生概率相等时,即pi = 1/n,其中n为输出符号的个数,离散信源达到最大不确定性,熵达到最大值log2(n)。
当某些输出符号的概率接近0时,离散信源趋向于确定性,熵趋向于0。
3. 连续信源熵的正负3.1 连续信源熵的定义连续信源是指输出符号是连续变量的信源。
在处理连续信源时,我们需要使用概率密度函数(probability density function, PDF)来描述随机变量X的概率分布。
假设X的概率密度函数为f(x),则连续信源熵H(X)定义为:H(X) = -∫(f(x) * log2(f(x)))dx其中∫表示积分运算。
3.2 连续信源熵的正负与离散信源不同,连续信源熵可以是正值、零或负值。
这是因为在连续情况下,概率密度函数f(x)可以超过1。
当概率密度函数f(x)集中在某个区域时,连续信源趋向于确定性,熵趋向于0甚至成为负值。
当概率密度函数均匀分布在整个定义域上时,连续信源达到最大不确定性,熵达到正无穷大。
需要注意的是,连续信源熵的计算需要对概率密度函数进行积分运算,这对于复杂的连续信源可能会很困难。
离散和连续信源熵正负
离散和连续信源熵正负离散和连续信源熵正负一、信源熵的定义及概念信源熵是信息论中的基本概念,它是用来度量一个随机变量的不确定性或者信息量大小的。
在信息论中,随机变量表示一种不确定性的度量,信源则是产生这种不确定性的物理系统。
二、离散信源熵离散信源熵是指在一个有限符号集合中,每个符号出现的概率已知,且各符号出现概率之和为1时,该离散信源所产生的平均信息量。
1. 离散信源熵的计算公式设离散信源S={s1,s2,…,sn},其每个符号si出现的概率为pi,则该离散信源所产生的平均信息量H(S)为:H(S)=-Σ(pi*log2(pi))其中log2表示以2为底数的对数。
2. 离散信源熵值特点(1) H(S)>=0:由于log2(pi)<=0,因此pi*log2(pi)<=0,从而Σ(pi*log2(pi))<=0。
因此H(S)<=0。
又因为pi>=0且Σpi=1,则必有至少一个pi=1且其他pi=0时取到等号。
即当所有符号都相等时取到最小值0。
(2) H(S)越大,该离散信源的不确定性越大,产生的信息量也就越多。
(3) H(S)的单位是比特(bit),它表示每个符号所需的平均信息量。
三、连续信源熵连续信源熵是指在一个连续随机变量中,各取值概率密度函数已知时,该连续信源所产生的平均信息量。
1. 连续信源熵的计算公式设连续信源X的概率密度函数为f(x),则该连续信源所产生的平均信息量H(X)为:H(X)=-∫f(x)*log2(f(x))dx其中∫表示积分符号。
2. 连续信源熵值特点(1) 连续信源熵与离散信源熵不同,它可以是负数。
(2) 连续信源熵越大,该连续信源的不确定性越大,产生的信息量也就越多。
(3) 由于f(x)*log2(f(x))<=0,因此H(X)>=0。
当概率密度函数f(x)=常数时取到最小值0。
但由于积分范围无限大,在实际应用中很难出现这种情况。
第二章 离散信源与信息熵(下)
Q
H(XY) = H(X) + H(Y X)
H(XY) = H(Y) + H(X Y) ∴ H(X) + H(Y X) = H(Y) + H(X Y)
则: H ( X ) − H ( X Y ) = H (Y ) − H (Y X ) ? ( X ; Y ) =I
i =1 j =1
1
证明的难点二: Q ln x ≤ x − 1
then :
log x = ln x log e
log x ≤ ( x − 1) log e
∴
log
p( xi ) p( y j )
p( xi ) p( y j ) ≤ − 1 log e p( xi y j ) p( xi y j )
∵ H(X)表示集合X原有的平均不定度;H(X Y)则表示当收到 符 号 集 合 Y之 后 ( 即 集 合 Y中 的 平 均 不 确 定 度 已 解 除 后 ) 关 于 集 合 X中 还 剩 下 多 少 平 均 不 定 度 , 两 者 之 差 就 是 每 收 到 一 个 y 之 后 , 平 均 得 到 有 关 x的 信 息 量 。 I(X; Y)的物理概念是:当Y被确知后,所能解除多少关于X 的 平 均 不 确 定 度 ; 或 者 说 所 能 得 到 有 关 X的 信 息 量 。 所 谓 平 均 是 指 从 集 合 Y中 平 均 每 一 符 号 可 获 得 有 关 X的 信 息 。
I ( X ; Y ) = E[ I ( xi ; y j )]
def
Q
I ( x = ai ; y = b j ) = log
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
I(x)的含义:
电子信息工程学院
信息论
2.2 离散信源的信息熵
例2.1 假设一条电线上串联8个灯泡,这8个灯泡 损坏的可能性是等概率的,现假设这8个灯泡有一 个且只有1个已经损坏,让我们检查判断哪一个灯 泡损坏并分析信息获取的过程。
解:用万用表进行检查判断
电子信息工程学院
信息论
2.2 离散信源的信息熵
第三次 第二次 第二次 第一次 第一次
第一次获得的信息量
I[P 1 ( x)] I [ P 2 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 8 1 4 1 2
第二次获得的信息量
I[P 2 ( x)] I [ P 3 ( x)] log2 1 1 1 1 log2 log2 log2 1 P ( x ) P ( x ) 1 4 1 2 2 3
信息论
2.2 离散信源的信息熵
2.2.1 自信息信息量的度量方法
自信息量I(x) 是 P(x) 的单调递减函数 P(x) ,I(x) ; P(x) ,I(x) ; P(x) = 1时,I(x) = 0; P(x) = 0时,I(x) = ; 两个独立事件的联合信息量应等于它们分别信息量之和,即统 计独立信源的信息量等于分别信息量之和。 满足上述3条件的关系式如下:
信息论
2.2 离散信源的信息熵
信源:信息的来源,是产生消息或消息序列的源泉 离散信源:信源可能输出的消息数是有限的或可数的,每 次只输出一个消息。 离散信源的数学模型:
X x1 P( x) p ( x ) 1 x2 x3 p( x2 ) p( x3 ) xq p( xq )
H ( X ) 0.99 log 0.99 0.01log 0.01 0.08(比特 / 符号) H (Y ) 0.5 log 0.5 0.5 log 0.5 1(比特 / 符号)
H (Y ) H ( X ) 可见 信源Y比信源X的平均不确定性要大。信息熵正好反映了信源输 出消息前,接收者对信源存在的平均不确定程度的大小,也反 映了信源随机性的大小。
信源熵H(X)表示信源输出后,每个消息(或符号)所提供的平 均信息量。 信源熵H(X)表示信源输出前,信源的平均不确定性。 信源熵H(X)反映了变量X的随机性。Βιβλιοθήκη 电子信息工程学院信息论
2.2 离散信源的信息熵
例如有两个信源,其概率空间分别为:
X a1 P( x) 0.99 a2 0.01 Y b1 P( y ) 0.5 b2 0.5
I ( x) loga 1 loga P( x) P( x)
-自信息量的定义
电子信息工程学院
信息论
2.2 离散信源的信息熵
I ( x) loga
1 loga P( x) P( x)
上式中对数的底:
若a = 2,信息量的单位称为比特(bit) 若a = e,信息量的单位称为奈特(nat), 若 a = 10,信息量的单位称为哈特(Hart) 事件x发生前, I(x)表示事件x发生的不确定性 事件x发生后, I(x)表示事件x所含有(或所提供)的信息量
单位:比特/符号。(底数不同,单位不同) 信源的信息熵H考虑的是整个信源的统计特性。它是从平均意义 上来表征信源的总体信息测度。 对于某特定的信源(概率空间给定),其信息熵是个确定的数 值。 不同的信源因统计特性不同,其熵也不同。
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信源熵的物理意义
式中, 0 p( xi ) 1
q i
(i 1, 2,q)
p( x ) 1
i 1
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.1 自信息
问题的提出:
?????
每个消息携带多少信息量? 整个信源能输出多少信息量?
信源发出的消息是随机的,具有不确定性,收信者收到消息后, 才能消除不确定性获得信息。 如果某一消息发生的不确定性越大,一旦发生,获得的信息量 就越大。 不确定性的消除是一个从“不知-知”的过程,在此过程中,收 信者获得足够的信息量。 消息发生的不确定性和发生的概率有关,消息发生的概率越小, 则消息中包含的信息量就越大。消息ai 发生所含有的信息量称 为消息ai 的自信息量。 电子信息工程学院
用什么作为整个信源的信息测度?
信息熵
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信息熵
各离散消息自信息量的数学期望,即信源的平均自信息量—— 信息熵。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
第三次获得的信息量
I[P 3 ( x)] log2
1 1 log2 1 P ( x ) 1 2 3
电子信息工程学院
信息论
2.2 离散信源的信息熵
结论:
收到某消息获得的信息量 =不确定性减少的量 =(收到消息前某事件发生的不确定性) -(收到消息后关于该事件的不确定性) 自信息是指某一消息所含有的信息量,消息不同,所含有的 信息量也不同,不能用它作为整个信源的信息测度。
电子信息工程学院