信息的度量

合集下载

信息的度量

信息的度量

3.1 具有概率特性的信息
以具有概率特性的反导弹知识为例, 为有效指挥控制反导作战, 对来袭导弹 的到达率搜集信息并处理, 获得所需信息(知识, 如来袭导弹到达率),以得到最有 效作战决策。广义的信息包括知识, 知识是信息的高级发展。假设导弹防御决策 所需的相对知识为在j 时间段单位时间内来袭导弹的到达比例, 需求其熵和知识 量。 设x 为在j 时间段单位时间内来袭导弹的比例,即x= h/q。 其中, h为j时间段单 位时间内来袭导弹到达的数量; q为在j - 1时间段来袭导弹的剩余量,x 为随机变 量。x 的熵H ( x )表明x 的信息量。在信息论中x 的熵(单位: 奈特)表示为:
3.2 非各态历经过程特性的信息语用学度量
非各态历经过程特性的信息语用学计量与按采样定理的采样函数值xi ( t ) 的价值和效用内容有关。设非各态历经过程特性的信息价值和效用可能性为Q (x), 则非各态历经过程特性的信息采样的语用学度量信息量为:
I lbQ x lb1
N
Qx
换算法, 计算带宽Δ f。按采样间隔h= 1 / ( 2Δf )进行采样(采样定理)。可得采样 数N = 2ΔfT。可以证明, N = 2ΔfT 是过程时间函数x ( t)最多的独立符号数。可 推算上述3种过程特性的信息采样序列中每个采样的语法信息量为:
F k
2
I - lb1
2fT lb2fT lbN
N
( 9)
其中, Rxi 1 , R (x )与Δf , T, 采样次序以及语义内容有关。非各态历经过程
i 1
特性的信息采样序列的总信息量为: I= N lb1 /R (x ) ( 10)
3.信息的语用学度量(P ragmatics measure ofinformation)

信息论研究的主要内容

信息论研究的主要内容

信息论研究的主要内容
信息论是一门研究信息传输、存储、处理等问题的学科,其主要内容包括以下几个方面:
1. 信息的度量和表示:信息的度量可以通过熵、互信息等指标来实现,而信息的表示则可以通过编码的方式来实现。

2. 信道编码和解码:信道编码和解码是信息传输的核心环节,其中编码方法包括香农编码、哈夫曼编码等,而解码方法则包括维特比算法、前向后向算法等。

3. 误差控制编码:误差控制编码是一种能够在数据传输过程中自动纠错的编码方式,其中最常用的是海明码、卷积码等。

4. 压缩编码:压缩编码是一种能够将数据在保持质量不变的情况下减少数据存储空间的编码方式,其中最常用的是无损压缩算法和有损压缩算法。

5. 信息论在通信系统中的应用:信息论在通信系统中的应用包括调制、多路复用、功率控制、网络协议等方面,它为通信系统的设计和性能优化提供了基础理论支持。

总之,信息论研究的主要内容涵盖了信息的度量、信道编码和解码、误差控制编码、压缩编码以及信息论在通信系统中的应用等方面,为信息传输和处理提供了基础理论支持。

- 1 -。

1.4 信息及其度量

1.4 信息及其度量
1 p(x) a
I = log
P(x) = - loga
1.4 信息及其度量
二、度量信息量的方法
I = log
1 p(x) a P(x) = - loga
a=2—比特(bit);
a=e—奈特(nat);
a=10—哈特莱(Det);
1.4 信息及其度量
二、度量信息量的方法
1、离散消息
P(x ) 1)信源每个符号的自信息量;I(xi ) = - log2 i(bit)
越不可能发生的 事件,带来的信 息量越大!

例:
1.4 信息及其度量
二、度量信息量的方法

信息量是概率P(x)的函数; I=f[P(x)] P(x)越小,I越大; P(x)→1时, I→0 P(x)→0时, I→∞


若干个互相独立事件构成的消息,信息具有相加性;
I[P(x1)P(x2)…]=I[P(x1)]+I[P(x2)]+…
1.4 信息及其度量

信息是消息的内涵(有效内容,不确定性); 通信的目的:传输消息中所包含的信息; 信息量—对消息中内容的不确定性的定量描述;

1.4 信息及其度量
一、度量信息量的原则

能度量任何消息,与消息的种类无关;
度量方法与消息的重要程度无关; 消息中所含的信息量与消息中内容的不确定性有关;
I总 23I0 14I1 13I 2 7I3 108(bit)
利用熵的概念来计算: H 1.906 (b/符号)
I总 57 H 57 1 906 108.64(bit)
评注
1.4 信息及其度量
2、连续消息
1 f (x) a

信息度量的基本公式

信息度量的基本公式

信息度量的基本公式
信息度量的基本公式是用来衡量信息熵的一种数学模型,它可以有效地计算出信息的不确定性、复杂度等统计特征。

它的核心思想是,当一个系统的状态发生变化时,它所表示的信息量会随之增加或减少。

该公式的基本形式是H(X)=-∑pi log2pi,其中X表示系统的状态,pi表示该状态出现的概率,H(X)表示X的信息度量。

以二进制位为例,假设X的状态有两种,即0和1,那么X的信息度量H(X)= -p0log2p0-p1log2p1。

假如X的状态有n种,则X的信息度量H(X)= -∑pi log2pi,其中pi为状态i出现的概率,i=1,2,…,n。

比如,信息度量H(X)可以应用于英语文本中,其中X 表示文本中出现的所有字符,pi表示每个字符出现的概率。

这样,就可以通过计算H(X)来衡量文本中字符组合出现的不确定性和复杂度。

此外,信息度量的基本公式也可以用来分析图像、声音等多媒体信息,其中X表示图像或声音的各种状态,pi 表示该状态出现的概率。

信息度量的基本公式对于衡量信息的复杂度和不确定性非常有效,它可以有效地用于计算机视觉、语音识别、机器学习等领域。

除此之外,信息度量的基本公式还可以用来分析网络流量的可信性和安全性,其中X表示网络流量中出现的数据包,pi表示数据包出现的概率。

总之,信息度量的基本公式是一个统计方法,可以有效地应用于衡量信息的复杂度和不确定性等方面,广泛应用于计算机视觉、语音识别、机器学习、网络流量安全性等领域。

信息论与编码第二章信息的度量

信息论与编码第二章信息的度量

14
2.1.1 自信息量

(1)直观定义自信息量为:
收到某消息获得的信息量 = 不确定性减少的量
= 收到此消息前关于某事件发生的不确定性 收到此消息后关于某事件发生的不确定性
15
2.1.1 自信息量

举例:一个布袋中装有对人手感觉完全 一样的球,但颜色和数量不同,问下面 三种情况下随意拿出一个球的不确定程 度的大小。

18
2.1.1 自信息量
应用概率空间的概念分析上例,设取红球的状 态为x1,白球为x2,黑球为x3,黄球为x4,则 概率空间为: x2 (1) X x1

P( x) 0.99 0.01

( 2)
( 3)
X x1 P( x) 0.5
一、自信息和互信息
二、平均自信息
2.1.2 互信息
三、平均互信息
2.1.1 自信息量

信源发出的消息常常是随机的,其状态存在某种 程度的不确定性,经过通信将信息传给了收信者, 收信者得到消息后,才消除了不确定性并获得了 信息。
获得信息量的多少与信源的不确定性
的消除有关。
不确定度——惊讶度——信息量
第二章:信息的度量
自信息和互信息 平均自信息 平均互信息
2.1.1 自信息(量) (续9)
例4:设在一正方形棋盘上共有64个方格,如果甲将一 粒棋子随意的放在棋盘中的某方格且让乙猜测棋子所 在位置。 (1) 将方格按顺序编号,令乙猜测棋子所在的顺序 号。问猜测的难易程度。
(2)将方格按行和列编号,甲将棋子所在方格的列编 号告诉乙之后,再令乙猜测棋子所在行的位置。问猜 测的难易程度。

自信息是事件发生前,事件发生的不确定性。

信息论编码 第二章信息度量1

信息论编码   第二章信息度量1

50个红球,50个黑球
Y
20个红球,其它4种 颜色各20个
Z
问题:能否度量、如何度量??
2.3.2信源熵数学描述
信源熵
• 定义:信源各个离散消息的自信息量的数学期望 (即概率加权的统计平均值)为信源的平均信息 量,一般称为信源的信息熵,也叫信源熵或香农 熵,有时也称为无条件熵或熵函数,简称熵。 • 公式: n 1 H ( X ) = E[ I ( xi )] = E[log2 ] = −∑ p( xi ) log2 p( xi ) p( xi ) i =1 • 熵函数的自变量是X,表示信源整体,实质上是无 记忆信源平均不确定度的度量。也是试验后平均 不确定性=携载的信息 信息量为熵 • 单位:以2为底,比特/符号 • 为什么要用熵这个词,与热熵的区别?
3
( 2)
∑ p ( x ) = 1, ∑ p ( y
i =1 m i j =1
n
m
j
) = 1,∑ p ( xi / y j ) = 1,
i =1 n
n
概 率 复 习
∑ p( y
j =1 n
j
/ xi ) = 1, ∑ ∑ p ( xi y j ) = 1
j =1 i =1 m
m
( 3) ( 4) (5)
1
对天气x1 ,Q p( x1 / y1 ) = 0,∴不必再考虑x1与y1之间 信息量
对天气 x 2 : I ( x 2 : y 1 ) = log
2
p ( x 2 / y1 ) = log p ( x2 )
2
1/ 2 = 1( bit ) 1/ 4
同理 I ( x 3 : y 1 ) = I ( x 4 : y 1 ) = 1( bit ), 这表明从 y 1 分别得到了

信息论——信息的度量

信息论——信息的度量

信息论——信息的度量信息的度量 信息具可度量性,其⼤⼩取决于信息所消除的不确定性 举例如下: 消息A:中国⼥⼦乒乓球队夺取亚运会冠军。

消息B:中国男⼦⾜球队夺取世界杯赛冠军。

从事件的描述上来看,其主题内容⼤致相同,那么我们是否可以认为事件A和事件B具有相同的信息量呢?显然是不⾏的。

根据以往经验,我们可以认为事件A是⼀个⼤概率事件,所以事件A的不确定性⽐较⼩,故当事件A发⽣时,我们从这个消息中得到的信息(消除的不确定度)很⼩。

同理对事件B⽽⾔,由于是个极⼩概率事件,我们得到的信息很⼤。

由此我们可以推断:消息B的信息量⼤于消息A。

对于⼀个事件X,我们假设其不确定性为 I(p1) ,其中 p1 是事件X的先验概率。

对应于事件X的消息X所消除的不确定性为 I(p2)。

那么在我们获取了消息X之后,事件X的不确定性就变为了 I(p1)-I(p2) ,由此我们可以知道当我们对⼀个事物的信息获取的越多,其不确定性就越⼩,当其不确定性变为0时,该事件就被确定下来了,我们对其⽆法再获取更多的信息量了。

直观定义: 收到某消息获取的信息量=不确定性减少量=收到该消息前后某事件的不确定性差信息量的数学表⽰ 理论依据(信息量具有的性质): 1.⾮负性对于⼀个事件⽽⾔,当事件被完全确定时,即我们⽆法获取更多信息时,其信息量为0,因此⽆法⽐0更⼩。

2.单调性是先验概率的单调递减函数,即某事件的发⽣概率越⼤,其信息量就越⼩。

3.对于事件A 若 P(a)=0 则 I(Pa)=+∞ 若 P(a)=1 则 I(Pa)=0。

4.两个独⽴事件的联合信息量应等于它们分别的信息量之和。

I(xi)具有两个含义: 1.事件发⽣前,表⽰该事件发⽣的不确定性。

2.事件发⽣后,表⽰该事件所提供的信息量。

术语解释 先验概率(prior probability)是指根据以往经验和分析得到的概率。

第1章 信源模型及信息的度量

第1章 信源模型及信息的度量

6
二元联合信源
有两个信源X,Y
, an a2 , X a1 , P ( x) P (a ), P (a ), , P (a ) n 1 2
, bm b2 , Y b1 , P ( y ) P (b ), P (b ), , P(b ) 1 m 2
, aq a2 , X a1, P ( x) P (a ), P (a ), , P (a ) q 1 2
例:
a2 a1 P ( ) 0.01 0.99
b1 b2 P ( ) 0 .4 0 .6


可பைடு நூலகம்性公理:
两个消息独立,则 I (ai , b j ) I (ai ) I (b j ) 对同一条消息,观察两次所得到的信息量等 于两次分别收到的信息量之和
I (ai ; b j ck ) I (ai ; b j ) I (ai ; ck / b j )
例题
说明信息论在我们日常生活中的指导意义
P(X): p
1. p=0.5时; H(X)=-0.5log0.5+(-0.5log0.5)=1 bit/符号 2. p=0.99,1-p=0.01时;
H(X)=-0.99log0.99+(-0.01 log0.01)=0 .08bit/符号
3. p=0,1-p=1(或p=1,1-p=0)时; H(X)=-0log0+(-1 log1)=0 bit/符号
XY——样本值共有 m n 个
p ( x i y j ) p ( y j ) p ( xi / y j ) p ( x i ) p ( y j / x i )

信息论与编码第二章答案

信息论与编码第二章答案

第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。

2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。

2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。

答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。

从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。

2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。

答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。

信息论复习提纲

信息论复习提纲

信道传递概率可以用信道矩阵来表示:
x1 x2 P xr
y1 p( y1 | x1 ) p( y | x ) 1 2 p( y1 | xr )
y2 p( y2 | x1 )
p( y2 | x2 ) p( y2 | xr )
ys p( ys | x1 ) 1 p( ys | x2 ) p( ys | xr )
i
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续14)
例3:求二元删除信道的 H ( X )、H (Y )、H ( X | Y )和I ( X ;Y ) 。
已知
1 3 PX 4 4
1 1 2 2 0 P 1 2 0 3 3
3. 后验概率(后向概率): 贝叶斯公式
p ( xi | y j ) p ( xi y j ) p( y j ) p ( xi ) p ( y j | xi )
p( x ) p( y
i 1 i
r
j
| xi )
(i =1,2,…,r;j =1,2,…,s)

p ( xi | y j ) 1
Y y2
ys
i 1, 2,..., r ; j 1, 2,..., s
满足: (1)0≤ p(yj|xi) ≤ 1 (i=1,2,…,r;j=1,2,…,s) (2)
p( y j | xi ) 1
j 1
s
(i=1,2,…,r)
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续2)
r s
第四章:信道及信道容量

信息的统计度量

信息的统计度量

2.3.2熵函数旳数学特征
1、对称性: 熵函数对每个Pk 对称旳。该性质 阐明熵只与随机变量旳总体构造有关,与事件 集合旳总体统计特征有关;
2、非负性: H(P)=H(p1,p2,…,pq)>=0;
3、扩展性: 当某事件Ek旳概率Pk稍微变化时, H函数也只作连续旳不突变旳变化;
lim
0
H q1(
熵函数旳自变量是X,表达信源整体
信息熵旳单位与公式中旳对数取底有关。通信与信息 中最常用旳是以2为底,这时单位为比特(bit);理 论推导中用以e为底较以便,这时单位为奈特 (Nat);工程上用以10为底较以便,这时单位为笛 特(Det)。它们之间能够引用对数换底公式进行互 换。例如:
1 bit = 0.693 Nat = 0.301 Det
I ( xi / y j ) log p( xi / y j )
在特定条件下( 已定)随机事件发生所带来旳 信息量 条件自信息量满足非负和单调递减性。
例:甲在一种8*8旳 方格盘上随意放入 一种 棋子,在乙看来是不拟定旳。
(1)在乙看来,棋子落入某方格旳不拟 定性为多少?
(2)若甲告知乙棋子落入方格旳行号, 这时,在乙看来棋子落入某方格旳不 拟定性为多少?
j 1
(4)
p( xi y j ) p( xi ) p( y j / xi ) p( y j ) p( xi / y j )
(5) 当X与Y相互独立时, p( y j / xi ) p( y j ),
p( xi / y j ) p( xi ), p( xi y j ) p( xi ) p( y j )
熵旳计算
• 例:设某信源输出四个符号,其符号集合旳 概率分布为:
s1 S p1

2 信息的度量

2 信息的度量

2 信息的度量在信息论尚未作为一门学科建立起来之前,信息的度量一直是一个长期未能得到很好解决的问题,自l948年C.E .Shannon 发表了《通信的数学理论》后,才将信息量的定量描述确定下来。

信息量是恒量信息多少的物理量。

由于各种随机事件发生的概率不同,它们所包含的不确定性也就不同。

因此,一个事件所给予人们信息量的多少是与该事件发生的概率大小有关的。

出现概率小的事件包含的信息量大。

因此,信息量应该是概率的单调减函数。

2.1 自信息量设X 代表一组随机事件x 1,x 2,…,x n ,其中户p (x i )=p i (0<p i <1)是x i 出现的概率,且 P 1+ p 2+…+ p n =1则定义事件x i 的自信息为I (x i ).或者简写成I ,且I (x i )=-log p i (2-1) 在此定义中,没有指明对数的底。

自信息量的单位与所用对数的底有关。

(1)当取底为2时,自信息量的单位为比特(bit ),如p (x i )=1/2,则I (x i )=-log 1/2,=1bit ;(2)当取底为自然对数e 时,自信息量单位为奈特(Nat),且(3)当取底为l0时,自信息量的单位为哈特莱(Hartley),这是为了纪念哈待莱(Hartley ,L.V.R)在1928年最早给出信息的度量方法而取名的。

1奈持=log 2e 比特=1.443比特1哈持莱=log 210比特=3.322比特在实际电系统中,电位的高低、脉冲的有无、信号灯的明灭都是两种状态,目前的数字电子计算机也是以二电平逻辑来工作的,因此,以2为底的信息量单位比特是信息度量的基本单位。

对于信息量的理解,应注意以下问题。

(1)信息量是概率的函数,I =I [p (x i )];(2)p (x i )越小,I 越大;p (x i )越大,I 越小;(3)信息量的可加性,即若干个独立事件所含的信息量=每个独立事件所含信息量的和。

信息量的度量如何计算公式

信息量的度量如何计算公式

信息量的度量如何计算公式信息量的度量是指在一定的信息传输过程中,信息的多少和质量的度量。

在信息论中,我们通常使用熵来度量信息的多少,熵越大表示信息量越大。

下面我们将介绍信息量的度量以及相关的计算公式。

在信息论中,熵是度量信息量的一个重要概念。

熵的计算公式为:\[H(X) = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(H(X)\)表示随机变量\(X\)的熵,\(p(x_i)\)表示随机变量\(X\)取值为\(x_i\)的概率。

通过计算熵,我们可以得到随机变量\(X\)的信息量。

在实际应用中,我们经常使用二进制编码来表示信息。

在这种情况下,我们可以使用香农编码来计算信息量。

香农编码是一种使用变长编码来表示信息的编码方式,通过根据信息的概率分布来确定每个信息的编码长度,从而实现信息的高效表示。

香农编码的计算公式为:\[L = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(L\)表示信息的平均编码长度。

通过计算香农编码,我们可以得到信息的平均编码长度,从而可以评估信息的压缩效果和传输效率。

除了熵和香农编码,我们还可以使用信息熵来度量信息的多少。

信息熵是一种用于度量信息量的概念,它是对信息量的期望值。

信息熵的计算公式为:\[H(X) = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(H(X)\)表示随机变量\(X\)的信息熵,\(p(x_i)\)表示随机变量\(X\)取值为\(x_i\)的概率。

通过计算信息熵,我们可以得到随机变量\(X\)的平均信息量。

在实际应用中,我们可以使用信息熵来评估信息系统的复杂度和传输效率。

通过计算信息熵,我们可以得到系统中信息的平均复杂度,从而可以评估系统的性能和稳定性。

综上所述,信息量的度量是信息论中的重要概念,我们可以使用熵、香农编码和信息熵来度量信息的多少。

信息论与编码理论-第2章信息的度量-习题解答-20071017

信息论与编码理论-第2章信息的度量-习题解答-20071017

1第2章 信息的度量习 题2.1 同时扔一对质地均匀的骰子,当得知“两骰子面朝上点数之和为5”或“面朝上点数之和为8”或“两骰子面朝上点数是3和6”时,试问这三种情况分别获得多少信息量?解:某一骰子扔得某一点数面朝上的概率是相等的,均为1/6,两骰子面朝上点数的状态共有36种,其中任一状态出现都是等概率的,出现概率为1/36。

设两骰子面朝上点数之和为事件a ,有:⑴ a=5时,有1+4,4+1,2+3,3+2,共4种,则该事件发生概率为4/36=1/9,则信息量为I(a)=-logp(a=5)=-log1/9≈3.17(bit)⑵ a=8时,有2+6,6+2,4+4,3+5,5+3,共5种,则p(a)=5/36,则I(a)= -log5/36≈2.85(bit) ⑶ p(a)=2/36=1/18,则I(a)=-log1/18≈4.17(bit)2.2 如果你在不知道今天是星期几的情况下问你的朋友“明天是星期几”,则答案中含有多少信息量?如果你在已知今天是星期三的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的排序)?解:设“明天是星期几”为事件a :⑴ 不知道今天是星期几:I(a)=-log1/7≈2.81(bit) ⑵ 知道今天是星期几:I(a)=-log1=0 (bit)2.3 居住某地区的女孩中有20%是大学生,在女大学生中有80%是身高1米6以上的,而女孩中身高1米6以上的占总数的一半。

假如我们得知“身高1米6以上的某女孩是大学生”的消息,求获得多少信息量?解:设“居住某地区的女孩是大学生”为事件a ,“身高1米6以上的女孩”为事件b ,则有: p(a)= 0.2,p(b|a)=0.8,p(b)=0.5,则“身高1米6以上的某女孩是大学生”的概率为:32.05.08.02.0)()|()()|(=⨯==b p a b p a p b a p信息量为:I=-logp(a|b)=-log0.32≈1.64(bit)2.4 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男同志:“你是否是红绿色盲?”,他回答“是”或“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果你问一位女同志,则答案中含有的平均自信息量是多少?解:⑴ 男同志回答“是”的概率为7%=0.07,则信息量I=-log0.07≈3.84(bit) 男同志回答“否”的概率为1-7%=0.93,则信息量I=-log0.93≈0.10(bit)2平均信息量为:H 1=-(0.07×log0.07+0.93×log0.93) ≈0.37(bit/符号) ⑵ 问女同志的平均自信息量:H 2=-[0.05×log0.05+(1-0.05) ×log(1-0.05)] ≈0.045(bit/符号)2.5 如有7行9列的棋型方格,若有两个质点A 和B ,分别以等概率落入任一方格内,且它们的坐标分别为(X A ,Y A )、(X B ,Y B ),但A 、B 不能落入同一方格内。

信息及其度量

信息及其度量
若a = 2,信息量的单位称为比特(bit) ,可简记为b; 上式中对数的底
若a = e,信息量的单位称为奈特(nat) 若 a = 10,信息量的单位称为哈特莱(Hartley)
通常广泛使用的单位为比特,这时有:
1 I log 2 log 2 P( x) P( x)
3.度量信息的方法
(3)P(x) = 1时,I = 0; P(x) = 0时,I = ;
I [ P( x1 ) P( x2 )] I [ P( x1 )] I [ P( x2 )]
满足上述3条件的关系式如下:
1 I loga loga P( x) P ( x)
-信息量的定义
3.度量信息的方法
3.度量信息的方法
信息量是消息出现概率的函数; 消息出现的概率越小,所包含的信息量就越大;
设: P(x) - 消息发生的概率
I - 消息中所含的信息量,
则 P(x) 和 I 之间应该有如下关系:
(1) I 是 P(x) 的函数: I =I [P(x)]
(2)P术》课程
信息及其度量
目 录
01 02
基本概念 度量信息的原则
03
度量信息的方法
1.最佳接收准则
信 息
消息中包含的有意义的内容。
不同形式的消息,可以包含相同的信息。
信息量
信源的不肯定度就是信源提供的信息量。 传输信息的多少用信息量表示。
2.度量信息的原则
度量信息量的原则:
能度量任何消息,并与消息的种类无关; 度量方法应该与消息的重要程度无关; 消息中所含信息量和消息内容的不确定性有关; 如:一条概率几乎为零的消息(太阳将从西方升起)将会使人 感到惊奇和意外,而一个必然事件(如太阳从东方升起),人们不 足为奇,前一条比后一条包含了更多的信息。 这表明:消息所表达的事件越不可能发生,信息量就越大。

信息论度量方法

信息论度量方法

信息论度量方法
信息论中,信息的度量方法有多种,以下是几种主要的度量方式:
1. 信息量:信息量可以用比特(bit)来度量,比特是信息论中最基本的单位,表示二进制系统中的一个选择。

比特的数量表示传递或存储的信息量
的大小。

2. 信息熵:信息熵是信息理论中度量信息不确定性的概念。

熵的值越大,
表示信息的不确定性越高。

熵可以用来度量某个事件或数据集中的信息量。

3. 信噪比:信噪比是度量信号中有用信息与噪声比例的指标。

它可以用来
衡量信号中噪声对有用信息的影响程度。

4. 信息速率:信息速率是单位时间内传输或处理的信息量。

常用的单位是
比特每秒(bps)或字节每秒(Bps)。

5. 信息传输效率:信息传输效率是指在给定的带宽或资源条件下,能够传输的有效信息量。

它是通过传输速率和信道容量的比值来度量的。

以上信息仅供参考,如有需要,建议查阅相关书籍或咨询专业人士。

浅谈信息的度量

浅谈信息的度量

浅谈信息的度量就我个⼈⽽⾔觉得信息的度量是⼗分难量化的。

也的确是这样,平⽇⼀个⼈说的⼀句话有多少信息是很难度量得到的。

可是在⾃然语⾔处理中,信息度量的量化⼜⼗分重要。

《数学之美》⼀书中吴军先⽣举了⼀个⾮常好的例⼦。

他假设了⼀种情形,他向⼀个⼈猜测1-32号⾜球队伍中哪⽀队伍是世界杯的冠军,他如果采⽤五五分的⽅法逐步缩⼩范围那么需要五次就能知道哪⽀队伍是冠军,假设每向对⽅询问⼀次需要花费⼀元,那么谁是世界杯冠军这条信息则需要花费五元。

⽽⾹农在他的论⽂“通信的数学原理”中使⽤⽐特来度量信息量。

其实在上述例⼦中,是可以优化的。

每次的猜测不⼀定⼀定要五五分,可以将少数的夺冠热门分为⼀组,这样就可以⼤⼤降低猜测需要耗费的次数。

当每⽀队伍夺冠希望不等时,⾹农使⽤了⼀个公式来对这种情况的信息进⾏度量。

其中H为信息熵,单位是⽐特。

p1, p2....分别是这32⽀队伍夺冠的概率。

当概率相同时,信息的熵就是5⽐特。

⽽对于随机变量X,它的熵定义如下:变量的不确定性越⼤熵也越⼤事物往往是有许多不确定性的,这时需要引⼊信息I,当I>U时我们可以说不确定性被消除了,但是当I<U时,只能说这些信息消除了事物的⼀部分不确定性。

吴军先⽣举了⽹页搜索的例⼦,当⽤户只输⼊某些常⽤关键词,会出来许多的结果,这时需要挖掘隐藏的信息以确定⽤户真正想要查找的信息从⽽给⽤户提供正确的⽹页。

基于上述公式,如果我们知道⼀些情况Y,那么在Y条件下X的熵就是这时可以证明,H(X)>H(X|Y),也就是⼆元模型的不确定性要⼩于⼀元模型。

现在来谈谈互信息的概念,互信息⽤于对两个信息之间的相关性进⾏度量,⽐如“天⽓很闷热”和“要下⾬了”这两条信息的互信息就很⾼。

假定有两个随机事件X和Y,他们的互信息定义如下:其实这个互信息也可以看作是X的不确定性H(X)以及在知道Y的情况下X的不确定性H(X|Y)之间的差异。

也就是⽽在机器翻译中往往需要解决的⼆义性问题则可以通过这样的问题解决,⽐如美国总统Bush是翻译为⼈名还是灌⽊丛,就可以通过该词的上下⽂提取相关信息减⼩不确定性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息的度量
How to measure Information?
信息论基础
本章内容
• 信息及其度量
• 平均信息量-熵
• 通过信道的平均信息量-互信息量 • 信息不增原理 • 各种信息量之间的关系 • 连续随机变量的信息度量
参考书:沈振元等,“通信系统原理”,第11章(PP412-437)
戴善荣, “信息论与编码基础”, 第2章
p ( xi , yj ) p ( xi / yj ) = p ( yj ) p ( xi , yj ) p ( yj / xi ) = p ( xi )
3 联合自信息量和条件自信息量 设输入和输出都可以用离散概率空间来表示:
X = {A, P},其中A={ai}; Y = {B, Q}, 其中B={bj}
Y y1 , y 2 , , y j , P(Y ) = p( y ), p( y ), , p( y ), 2 j 1
这里p(yj)(j=1,2,3等)是集合Y中各个消息 y1,y2 ,y3 …出现的概率。
收信者获得的信息量
当信宿接到集合Y中的一个消息符号后,接收 者重新估计关于信源的各个消息 发生的概率 就变成条件概率,这种条件概率又称为后验概 率。 收信者收到一个消息后,所获得的信息量等 于收到消息前后不确定程度的减少量。
i n n 1 1 pi) ln 2 = 0, ( n = 1, pi = 1) i =1 i =1
n 1 1 p( 1) = ( i i =1 p n ln 2 i=1 n
1
i
故有H ( x ) H 0 0,即等概时有最大熵

一个二进制信元X,两个符号出现的概率分别为p和1-p,
1 1 1 0 H ( p , p ,..., p ) H ( , ,..., ) 1 2 n n n n
2 3 最大熵:
(1)离散信源在所有符号等概出现时具有最大的平均信息量, 即最大熵。 证明:(1)预备知识:信息论不等式
ln x x 1 令f ( x ) = ln x ( x 1) 1 f ' ( x) = 1 x 1 f ' ' ( x ) = 2 0, ( x 0) f ( x )有极大值 f ' ( x = 1) = 0,即x = 1时f ( x )有极大值f ( x = 1) = 0 即 ln x ( x 1) = f ( x ) 0 故 ln x x 1
H1 = H(P1, P2,…, Pn) H2 = H(P1, P2,…, Pn-1; q1, q2, …, qm) H3 = H(q1/Pn, q2/ Pn, …, qm/ Pn)
之间具有相加关系:
H2 = H1 + Pn H3
含义:集合的进一步细分会使不确定性增加,即平均信息量增 加。 (6)极值性:
此性质的意义是: 事件 提供的有关于事件 的关于事件 信息量 证明: 的信息量等于由事件 提供
由互信息的定义: p( xi | y j ) p( xi | y j ) p( y j ) I ( xi ; y j ) = log = log p( xi ) p( xi ) p( y j ) = log p( xi y j ) / p( xi ) p( y ) = log p( y j | xi ) p( y ) = I ( y j ; xi )
X信道的输入消息;Y信道的输出消息
X Y
信源
信道
信宿
信源X的概率空间为:
X x1 , x2 , , xi , P( X ) = p( x ), p( x ), , p( x ), 1 2 i
这里p(xi)(i=1,2,3等)是集合X中各个消息 x1,x2 ,x3 …的概率分布,它又称为先验概率。 信宿Y的概率空间为:
其熵曲线如下图所示,
(2)在平均功率受限条件下连续信源的最大熵(最大微分熵):
若信源输出的平均功率限定为S,则当信号的幅度的概率密 度分布为高斯分布时有最大熵(参看课本p24). 高斯分布:
最大熵:
Hmax(x)= 1/2 log 2eS
4 冗余度:
冗余度=(最大熵-实际熵)/最大熵 即
R
y
=
(2)对称性:Pi交换位置后,H值位置不变;
(3)非负性:H的值一定大于或等于零; (4)确定性:当事件集中某个事件出现的概率为1,其余事件的 概率为0时,H的值一定为0; (5)可加性:
设有一个事件的集合{E1,E2,…, En}, 各事件出现的概 率分别为{P1,P2,…, Pn}, 其中某一事件En又划分为由m个 小事件,概率分别为 q1, q2, …, qm, 且 qi/Pn = 1, 则三个熵 函数
因此棋子在棋盘中所处 的行(或列)位置为一 维等概率分布。
同样, I ( y j | xi ) = log 2 p( y j | xi ) = 3 比特
互信息量
设有两个离散的符号消息集合X Y,
X表示信源发出的符号消息集合 Y表示信宿接收的符号消息集合
每个符号消息相当于一个随机事件
信源发出符号消息通过信道传递给信宿
各符号出现的概率分别为
with probabilities
p(S = sk ) = pk ,
p(s ) = 1.
k =1 k
K
则其平均信息量为
H = pk log pk (bits)
称之为信源熵。
H0 = log32 = 5 比特/字母
2 熵的性质:
(1)连续性:某事件的概率稍微变化时,H也只做连续的、非 突变性的变化;
x
(2)以下再证明
1 1 H ( x ) = p log p H 0 = log = log n i i n i =1 i =1 n 即H ( x ) log n 0 p = 1, 且 ln x x 1
i =1 i n n n
H ( x ) H 0 = p log p log n
H
max
H
max
H
思考 (1)在一个二进制系统中,两个符号A、B分别 用0、1来表示,此时无冗余,若将其编码成000和111, 问此时的冗余度是多少?
(2)冗余度是否有用?信源编码、信道编码的作用是什 么?
作业:戴书:p.25 #1 2
§3 信道特性、条件平均信息量与互信息量
1 问题:信源发出的信息量有多少能通过信道?有多少信息量 受干扰而损失掉?
由于甲是将一粒棋子随 意地放在棋盘中某一方 格内,
• 条件自信息量
设在一正方形棋盘上共有64个方格,如果甲将一粒棋子随意 地放在棋盘中的某方格且让乙猜测棋子所在位置: 将方格按行和列编号,甲将棋子所在方格的行(或列)编 号告诉乙之后,再令乙猜测棋子所在列(或行)的位置。
解:
如图所示棋子所在“位 置”可用联合集 XY上的 元素( xi y j )描述, 其中xi , i = 1,2,..., 8; y j , j = 1,2,..., 8 。 由于甲是将一粒棋子随 意地放在棋盘中某一方 格内, 一维概率分布函数 p( xi ) = 1 / 8,p( y j ) = 1 / 8, 同时,有二维概率分布 函数p( xi y j ) = 1 / 64,故 在二维联合集 XY上,元素 xi 相对y j的条件自信息量为 I ( xi | y j ) = log 2 p( xi | y j ) = log 2 p( xi y j ) 1 / 64 = log 2 = 3 比特 p( y j ) 1/ 8
互信息量的性质:2、可为零 当事件x i,y j统计独立时,互信息量为零。 I ( xi ; y j ) = 0
这表示不能从观测 信息。反之亦然。 证明
y获得关于另一个事件 Xi x 的任何 j i
由于xi , y j 统计独立,故有 p( xi y j ) = p( xi ) p( y j ) p( xi ) p( xi ) p( y j ) 此性质的意义是:当两个事件统计独立时,其相互信 息量为零,这也就是说不能从观测一个事件中获得有关 另一个事件的任何信息。 于是:I ( xi ; y j ) = log p( xi | y j ) = log p( xi y j ) = log1 = 0
例 将一个棋子随机地落入一个8x8的棋盘,分别用两种方法猜, 看落到哪一个格子里:一是直接猜,二是先猜行,后猜列。
Columns
1
8
27
Rows
57
64
[定义](自)信息量定义为
I = log 1/p = - log p
p是事件发生的概率。
单位: • 以2为底- 比特(bit)
• 以e为底- 奈特(Nat) • 以10为底- 哈特莱(Hartley) 关系:
§1 信息及其度量
1 消息、信息与信号
信息蕴含于消息之中,信号是消息的外在表现形式。 2 信息的定义
[信息] 事件本身所含有的不肯定性,或者说获得某事件发生 时所排除的不肯定性。 信息量与什么因素有关? • 不确定性的大小(发生的概率)
• 主观因素(不考虑)
3 信息的度量 概率p越小,信息量越大 • 信息量是概率的单调递减函数 • 具有可加性
log2 P = 1.443 ln P log2 P = 3.322 log10 P
思考题:信息论中的bit 与计算机中的bit是否相同,两者 之间有什么关系?
§2 平均信息量-熵,最大熵,冗余度 1 平均信息量-熵(Entropy):(信源熵)
一个离散信源S由K个符号组成
S = {s 1, s 2 , . . . , s K}
2 信道的描述:
(1)信道模型: 发端符号集: X={x1, x2, … , xn } 收端符号集:
相关文档
最新文档