信息论信息的统计度量
第二章信息的统计度量
1.2.1互信息量 • 1.定义:对两个离散随机事件集X和Y,事件Yi的出现给出关于
I 事件Xi的信息量定义为互信息量( xi ; yi )
。其定义式为
I ( xi ; yi )def log
p( xi | yi ) p( xi )
(1 4)
互信息量的单位与自信息量的单位一样取决于对数的底。 由式(1-4)又可得到
可见,当事件xi,yi统计独立时,其互信息量为零。这意味着不能 从观测yi获得关于另一个事件xi的任何信息。
3).互信息量可正可负
由于 1 1 I ( xi ; yi )def log log p( xi ) p( xi | yi )
在给定观测数据yi的条件下,事件xi出现的概率P(xi| yi)大于先验 概率P(xi)时,互信息量I(xi; yi)大于零,为正值;当后验概率小 于先验概率时,互信息量为负值。 互信息量为正,意味着事件yi的出现有助于肯定事件xi的出现;反之, 则是不利的。造成不利的原因是由于信道干扰引起的。
式中,xi Yi积事件,p (xi Yi)为元素xi Yi的二维联合概率。
当xi Yi独立时I(xi
Yi)= I(xi)+ I(Yi)
1.1.2 条件自信息量
联合集XY中,对事件Xi和Yi,事件Xi在事件Yi给定的条件下的条件自信息量 定义为
I ( xi | yi )def log p ( xi | yi )
1奈特=log2 e比特≈1.443比特
1哈脱来=log2 10比特≈3.322比特
3)信息量的性质:
a)非负性
b)P=1 I=0
c)P=0 I=
d)I是p的单调递减函数
3)联合自信息量
信息论研究的主要内容
信息论研究的主要内容
信息论是一门研究信息传输、存储、处理等问题的学科,其主要内容包括以下几个方面:
1. 信息的度量和表示:信息的度量可以通过熵、互信息等指标来实现,而信息的表示则可以通过编码的方式来实现。
2. 信道编码和解码:信道编码和解码是信息传输的核心环节,其中编码方法包括香农编码、哈夫曼编码等,而解码方法则包括维特比算法、前向后向算法等。
3. 误差控制编码:误差控制编码是一种能够在数据传输过程中自动纠错的编码方式,其中最常用的是海明码、卷积码等。
4. 压缩编码:压缩编码是一种能够将数据在保持质量不变的情况下减少数据存储空间的编码方式,其中最常用的是无损压缩算法和有损压缩算法。
5. 信息论在通信系统中的应用:信息论在通信系统中的应用包括调制、多路复用、功率控制、网络协议等方面,它为通信系统的设计和性能优化提供了基础理论支持。
总之,信息论研究的主要内容涵盖了信息的度量、信道编码和解码、误差控制编码、压缩编码以及信息论在通信系统中的应用等方面,为信息传输和处理提供了基础理论支持。
- 1 -。
信息论与编码2-1
除条件外,条件互信息的含义与互信 息的含义与性质都相同。
§2.3 离散集的平均自信息量(熵)
本节包括以下内容
信息熵 熵函数的数学特性 条件熵 联合熵
2. 3. 1 信息熵
离散信源X的熵定义为自信息的平均值,记 为H(X)
H(X) E [I(x)] p(x)log p(x)
p(x) x
§2.2 互信息量和条件互信息 量
本节包括以下内容
互信息量 互信息量的性质 条件互信息量
2.2.1 互信息
离散随机事件xi和yj 之间的互信息(x∈X ,y ∈Y) 定义为: p(x i | y j ) I(x i ; y j ) log p(x i ) 简记为
p( x | y) I ( x; y) log p( x)
关于对数底的选取:
以2为底:单位为比特(bit,为binary digit的缩写), 工程上常用; 以3为底:单位为Tit; 以e为底:单位为奈特(Nat,为Natural Unit的缩写), 理论推导时常用; 以10为底:单位为Dit或哈特。
–单位之间的换算关系为:
1奈特 = logee = log2e比特 = 1.443比特 1 Dit =log1010 =log210比特 = 1/log102比特 = 3.32比特
通过计算可得
I ( x; y) I ( x) I ( x | y)
注: 1)互信息的单位与自信息单位相同; 2)x与y的互信息等于x的自信息减去在y 条件 下x的自信息。 I(x;y)表示当 y发生后x不确定性的变 化。这种变化,反映了由y发生所得到的关 于x 的信息量。互信息是一种消除不确定 性的度量。 3)应注意I(x;y)与 I(x|y)的区别。
信息论讲义_第一讲
• 香农定义的信息也有其局限性,存在一些缺陷
– 定义的出发点是假定事物状态可以用一个以经典集 合论为基础的概率模型来描述。 – 没有考虑收信者的主观特性和主观意义,也撇开了 信息的具体含意、具体用途、重要程度和引起后果 等因素。
20
1.1.4 信息、消息与信号
信息: 比较抽象的概念;是系统中传输的对 象;包含在消息之中。 消息:比较具体,但不是物理量;具有不同 形式,例如语言、文字、符号、图像等能够 被人感知;可以传输并被通信双方理解;同 一消息含有不同信息;同一信息可用不同消 息载荷。 信号:最具体,是消息的载荷者;是表示消 息的物理量,可测量、可显示、可描述,是 信息的物理表达层。
12
1.1.2 广义的信息概念
信息本身看不见、摸不着,它必须依附于一定的物 质形式(如文字、声波、电磁波等)。这种运载信 息的物质称为信息的载体,一切物质都有可能成为 信息的载体。
13
1.1.3 概率信息概念
由美国数学家香农1948年提出,亦称香农信息 基于对通信活动基本功 基于对通信活动对象和 基于对通信活动的机制 或狭义信息。概率信息是从 不确定性 能的观察分析,“通信 过程的分析研究,“信 和本质的分析研究, (Uncertainty) 和概率测度出发定义信息的。 的基本问题是在信宿端 源发出的消息总是从可 “人类只有在两种情况 香农针对人类通信活动的特点,提出了 精确或近似地复制发送 能发生的消息符号集合 下有通信的需求, 1)自 端所挑选的消息。通常 中随机选择,通信系统 己有某种形式的消息要 ① 形式化假说 消息是有语义的,即它 无法预先知道信源在什 告诉对方,且估计对方 ② 非决定论 按某种关系与某些物质 么时候会选择什么消息 不知道; 2)自己有某种 ③ 不确定性 概念的实体联系着。通 发送”,即具有通信意 疑问需要对方给出解答” 信中语义方面的问题与 义的消息都是随机发生 经过通信活动后,消除 工程问题没有关系” 的 了 随机事件,获取了信 不确定性
信息论编码 第二章信息度量1
50个红球,50个黑球
Y
20个红球,其它4种 颜色各20个
Z
问题:能否度量、如何度量??
2.3.2信源熵数学描述
信源熵
• 定义:信源各个离散消息的自信息量的数学期望 (即概率加权的统计平均值)为信源的平均信息 量,一般称为信源的信息熵,也叫信源熵或香农 熵,有时也称为无条件熵或熵函数,简称熵。 • 公式: n 1 H ( X ) = E[ I ( xi )] = E[log2 ] = −∑ p( xi ) log2 p( xi ) p( xi ) i =1 • 熵函数的自变量是X,表示信源整体,实质上是无 记忆信源平均不确定度的度量。也是试验后平均 不确定性=携载的信息 信息量为熵 • 单位:以2为底,比特/符号 • 为什么要用熵这个词,与热熵的区别?
3
( 2)
∑ p ( x ) = 1, ∑ p ( y
i =1 m i j =1
n
m
j
) = 1,∑ p ( xi / y j ) = 1,
i =1 n
n
概 率 复 习
∑ p( y
j =1 n
j
/ xi ) = 1, ∑ ∑ p ( xi y j ) = 1
j =1 i =1 m
m
( 3) ( 4) (5)
1
对天气x1 ,Q p( x1 / y1 ) = 0,∴不必再考虑x1与y1之间 信息量
对天气 x 2 : I ( x 2 : y 1 ) = log
2
p ( x 2 / y1 ) = log p ( x2 )
2
1/ 2 = 1( bit ) 1/ 4
同理 I ( x 3 : y 1 ) = I ( x 4 : y 1 ) = 1( bit ), 这表明从 y 1 分别得到了
信息论——信息的度量
信息论——信息的度量信息的度量 信息具可度量性,其⼤⼩取决于信息所消除的不确定性 举例如下: 消息A:中国⼥⼦乒乓球队夺取亚运会冠军。
消息B:中国男⼦⾜球队夺取世界杯赛冠军。
从事件的描述上来看,其主题内容⼤致相同,那么我们是否可以认为事件A和事件B具有相同的信息量呢?显然是不⾏的。
根据以往经验,我们可以认为事件A是⼀个⼤概率事件,所以事件A的不确定性⽐较⼩,故当事件A发⽣时,我们从这个消息中得到的信息(消除的不确定度)很⼩。
同理对事件B⽽⾔,由于是个极⼩概率事件,我们得到的信息很⼤。
由此我们可以推断:消息B的信息量⼤于消息A。
对于⼀个事件X,我们假设其不确定性为 I(p1) ,其中 p1 是事件X的先验概率。
对应于事件X的消息X所消除的不确定性为 I(p2)。
那么在我们获取了消息X之后,事件X的不确定性就变为了 I(p1)-I(p2) ,由此我们可以知道当我们对⼀个事物的信息获取的越多,其不确定性就越⼩,当其不确定性变为0时,该事件就被确定下来了,我们对其⽆法再获取更多的信息量了。
直观定义: 收到某消息获取的信息量=不确定性减少量=收到该消息前后某事件的不确定性差信息量的数学表⽰ 理论依据(信息量具有的性质): 1.⾮负性对于⼀个事件⽽⾔,当事件被完全确定时,即我们⽆法获取更多信息时,其信息量为0,因此⽆法⽐0更⼩。
2.单调性是先验概率的单调递减函数,即某事件的发⽣概率越⼤,其信息量就越⼩。
3.对于事件A 若 P(a)=0 则 I(Pa)=+∞ 若 P(a)=1 则 I(Pa)=0。
4.两个独⽴事件的联合信息量应等于它们分别的信息量之和。
I(xi)具有两个含义: 1.事件发⽣前,表⽰该事件发⽣的不确定性。
2.事件发⽣后,表⽰该事件所提供的信息量。
术语解释 先验概率(prior probability)是指根据以往经验和分析得到的概率。
第二章:信息的度量
8. 上凸性: H (p ) 是严格的上凸函数,设 . 上凸性:
p = ( p1 , p2 ,L , pq ), p ' = ( p1 ', p2 ',L , pq '), ∑ pi = 1, ∑ pi ' = 1
则对于任意小于1的正数 α , ( 0 < α < 1 ) 有以下不等式成立:
性说明熵函数仅与信源的总体统计特性有关。
BUPT Press
2. 确定性: . 确定性: 在概率矢量中,只要有一个分量为1,其它分量必为0,它们对熵 的贡献均为0,因此熵等于0。也就是说确定信源的不确定度为0。 3. 非负性:H (p) = H ( p1 , p2 ,L , pq ) ≥ 0 . 非负性: 对确定信源,等号成立。信源熵是自信息的数学期望,自信息是 非负值,所以信源熵必定是非负的。 4. 扩展性: lim H q +1 ( p1 , p2 ,L , pq − ε,ε ) = H q ( p1 , p2 ,L , pq ) . 扩展性: ε →0 这个性质的含义是增加一个基本不会出现的小概率事件,信源的 熵保持不变。 5. 连续性: lim H ( p1 , p2 ,L , pq −1 − ε, pq + ε ) = H ( p1 , p2 ,L , pq ) 连续性: ε →0 即信源概率空间中概率分量的微小波动,不会引起熵的变化。
BUPT Press
例2.1.3 某地二月份天气出现的概率分别为晴1/2,阴1/4, 雨1/8,雪1/8。某天有人告诉你:“今天不是晴天”,把 这句话作为收到的消息y1,求收到y1后, y1与各种天气的 互信息量。 解:把各种天气记作x1(晴),x2(阴),x3(雨),x4(雪),收到消 息y1后,阴天发生的概率为
信息论复习提纲
信道传递概率可以用信道矩阵来表示:
x1 x2 P xr
y1 p( y1 | x1 ) p( y | x ) 1 2 p( y1 | xr )
y2 p( y2 | x1 )
p( y2 | x2 ) p( y2 | xr )
ys p( ys | x1 ) 1 p( ys | x2 ) p( ys | xr )
i
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续14)
例3:求二元删除信道的 H ( X )、H (Y )、H ( X | Y )和I ( X ;Y ) 。
已知
1 3 PX 4 4
1 1 2 2 0 P 1 2 0 3 3
3. 后验概率(后向概率): 贝叶斯公式
p ( xi | y j ) p ( xi y j ) p( y j ) p ( xi ) p ( y j | xi )
p( x ) p( y
i 1 i
r
j
| xi )
(i =1,2,…,r;j =1,2,…,s)
且
p ( xi | y j ) 1
Y y2
ys
i 1, 2,..., r ; j 1, 2,..., s
满足: (1)0≤ p(yj|xi) ≤ 1 (i=1,2,…,r;j=1,2,…,s) (2)
p( y j | xi ) 1
j 1
s
(i=1,2,…,r)
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续2)
r s
第四章:信道及信道容量
文献计量学专业复习资料
信息计量学复习预测参考一.名词解释信息论:采用数理统计方法来研究信息的度量,传输和变换规律的一门学科。
信息计量学:采用定量方法来描述和研究情报(信息)的现象,过程和规律的一门学科。
期刊载文量:在给定时间内,期刊发表的全部论文数量。
期刊引证率:在给定时间内,期刊引证的全部参考文献数量。
期刊被引率:在给定时间内,期刊被引证的全部次数。
平均引文率:反映期刊平均引文水平的统计量,以修正由于载文量大小不同带来的偏差。
知识发现:对数据中隐含的,以前不知道的,潜在的有用的信息的有价值的提取。
聚类:利用论文间的同被引关系把本来无外部联系的论文“聚”在一起而形成“类”的过程。
引文聚类:引文之间都具有一定程度的学科专业相关性,根据专业属性,引文可聚集成为一个个聚类群体。
引文耦合:引证文献通过其参考文献(被引证文献)建立的耦合关系。
文献同被引:指两篇(或多篇)文献同时被后来的一篇或多篇论文所引证,则称这两篇论文具有“同被引“关系。
期刊同被引:以期刊为基本单元而建立的同被引关系。
普赖斯定律:撰写全部论文一半的高产作者的数量,等于全部科学作者总数的平方根,这就是普赖斯定律.普赖斯指数:普赖斯指数等于(出版年限不超过5年的被引文献数量/被引文献总量)X100%文献信息流:在信息计量学中,通常把文献所含信息的汇流称为文献信息流。
由于文献是信息的最基本的载体形式,文献信息流是具有一系列主题特征的科学文献的集合,所以有时将文献信息流简称为文献流。
文献信息老化:科学文献随其“年龄”的增长,其内容日益变得陈旧过时,作为情报源的价值不断减小,甚至完全s丧失其利用价值。
过程观认为文献老化是一种过程,状态观认为文献老化是一种状态,过程状态辩证观认为文献老化既是一种过程又是一种状态。
半衰期:某学科(专业)现时尚在利用的全部文献中较新的一半是在多长一段时间内发表的(共时半衰期);该学科一半文献失效所经历的时间(历时半衰期)。
引文分析法:就是利用各种数学及统计学的方法和比较,归纳,抽象,概括等逻辑方法,对科学期刊,论文,著者等各种分析对象的引证与被引证现象进行分析,以便揭示其数量特征和内在规律的一种文献计量分析方法。
李梅 李亦农 《信息论基础教程》 课件教案 第二章 信息的度量
一、自信息和互信息 二、平均自信息 三、平均互信息
第二章:信息的度量
1. 自信息
一、自信息和互信息
二、平均自信息
2. 互信息
三、平均互信息
第二章:信息的度量
自信息和互信息 平均自信息 平均互信息
1. 自信息(量)
公理性条件: (1) 如果p(x1) < p(x2),则I(x1) > I(x2), I(xi )是 p(xi) 调递减函数; 的单
第二章:信息的度量
自信息和互信息 平均自信息 平均互信息
2. 互信息(量) (续9)
互信息量的性质
1) 互信息的对称性 2) 互信息可为正值、负值,或为0 3) 任何两个事件之间的互信息不可能大于其中任一 事件的自信息
第二章:信息的度量
自信息和互信息 平均自信息 平均互信息
2. 互信息(量) (续10)
解:
第二章:信息的度量
自信息和互信息 平均自信息 平均互信息
1. 自信息(量) (续6)
p( x1 ) 1 1 n(n 1) 2 p( xn ) n 1 n(n 1) 2
1 I ( x1 ) log n(n 1) 2
1 I ( xn ) log (n 1) 2
自信息和互信息 平均自信息 平均互信息
2. 互信息(量) (续11)
2) 互信息可正可负,可为零
当后验概率大于先验概率时,互信息为正。
说明事件yj的出现有助于消除事件xi的不确定度。
当后验概率小于先验概率时,互信息为负。
说明收信者未收到 yj 以前,对消息xi是否出现的猜测难度较 小,但接收到消息 yj 后对 xi 是否出现的猜测的难度增加了,也 就是收信者接收到消息 yj 后对 xi出现的不确定性反而增加,所 以获得的信息量为负值。
信息论基础及应用第2章 信源及其信息的统计度量(2)_2.4~2.7
P(x y) P( xy ) log
X ,Y
P(x)
P(y x)
H (Y ) H (Y X ) P(xy)log
X ,Y
P( y)
P(xy)
H ( X ) H (Y ) H ( XY ) P(xy)log
X ,Y
P( x)P( y)
2.4.1 平均互信息
平均互信息的物理含意及其负熵的概念 (1) 式 I(X;Y ) H(X ) H(X Y ) 的物理含意 ◆ I(X;Y) 是信源的原有平均不确定度 H(X) 与仍然保留的平均
数学期望,称为在给定 Z 条件下由 Y 提供的关于 X 的
平均条件互信息(或平均条件互信息量),
定义式为
I ( X ;Y Z ) EX ,Y ,Z [I (x; y z)]
P(x y z)
P(xyz)log
X ,Y ,Z
P(x z)
2.4.2 平均互信息的性质
性质2.31(非负性) I(X;y=bj ) 和 I(X;Y) 是非负的,即
称 H(X | Y) 为信道疑义度(或损失熵)。
2.4.1 平均互信息
平均互信息的物理含意及其负熵的概念 (2) 式 I(X;Y ) H(Y ) H(Y X ) 的物理含意 ◆ I(X;Y)即信道传输的信息量,等于在 H(Y) 中
扣除掉 H(Y | X)后的量值。 ◆H(Y | X) 表示信源发出 X 后,对 Y 依然存在的平均不确定度,
2.4.2 平均互信息的性质
性质2.32(极值性)
H(X ) I ( X ;Y ) H (Y )
性质2.33(互易性、对称性) I(X ;Y ) I(Y ; X )
性质2.34(上凸性) I(X;Y) 是输入信源概率分布 P(x) 的 ∩形凸函数(又称上凸函数)。
信息论复习题
信息论概念复习题一、填空1、 1948 年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
2、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
3、信息的可度量性是建立信息论的基础。
4、统计度量是信息度量最常用的方法。
5、熵是香农信息论最基本最重要的概念。
6、事物的不确定度是用时间统计发生概率的对数来描述的。
7、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
8、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
9、自信息量的单位一般有比特、奈特和哈特。
10、必然事件的自信息是 0 。
11、不可能事件的自信息量是∞ 。
12、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
13、当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
14、离散平稳无记忆信源 X 的 N 次扩展信源的熵等于离散信源 X 的熵的 N 倍。
15、离散平稳有记忆信源的极限熵,H = lim H(X N / X1 X2 …X N 1)N 。
16、对于 n 元 m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
17、一维连续随即变量 X 在[a,b]区间内均匀分布时,其信源熵为 log2 (b-a ) 。
118、平均功率为 P 的高斯分布的连续信源,其信源熵, H c () = 2 log 2 2eP 。
19、对于限峰值功率的连续信源,当概率密度均匀分布时连续信源熵具有最大值。
20、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。
22、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。
23、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道。
24、具有一一对应关系的无噪信道的信道容量 C= log 2 n 。
25、对称信道的信道容量 C= log 2 m-H mi 。
信息量的度量如何计算公式
信息量的度量如何计算公式信息量的度量是指在一定的信息传输过程中,信息的多少和质量的度量。
在信息论中,我们通常使用熵来度量信息的多少,熵越大表示信息量越大。
下面我们将介绍信息量的度量以及相关的计算公式。
在信息论中,熵是度量信息量的一个重要概念。
熵的计算公式为:\[H(X) = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(H(X)\)表示随机变量\(X\)的熵,\(p(x_i)\)表示随机变量\(X\)取值为\(x_i\)的概率。
通过计算熵,我们可以得到随机变量\(X\)的信息量。
在实际应用中,我们经常使用二进制编码来表示信息。
在这种情况下,我们可以使用香农编码来计算信息量。
香农编码是一种使用变长编码来表示信息的编码方式,通过根据信息的概率分布来确定每个信息的编码长度,从而实现信息的高效表示。
香农编码的计算公式为:\[L = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(L\)表示信息的平均编码长度。
通过计算香农编码,我们可以得到信息的平均编码长度,从而可以评估信息的压缩效果和传输效率。
除了熵和香农编码,我们还可以使用信息熵来度量信息的多少。
信息熵是一种用于度量信息量的概念,它是对信息量的期望值。
信息熵的计算公式为:\[H(X) = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i)\]其中,\(H(X)\)表示随机变量\(X\)的信息熵,\(p(x_i)\)表示随机变量\(X\)取值为\(x_i\)的概率。
通过计算信息熵,我们可以得到随机变量\(X\)的平均信息量。
在实际应用中,我们可以使用信息熵来评估信息系统的复杂度和传输效率。
通过计算信息熵,我们可以得到系统中信息的平均复杂度,从而可以评估系统的性能和稳定性。
综上所述,信息量的度量是信息论中的重要概念,我们可以使用熵、香农编码和信息熵来度量信息的多少。
信息论与编码理论-第2章信息的度量-习题解答-20071017
1第2章 信息的度量习 题2.1 同时扔一对质地均匀的骰子,当得知“两骰子面朝上点数之和为5”或“面朝上点数之和为8”或“两骰子面朝上点数是3和6”时,试问这三种情况分别获得多少信息量?解:某一骰子扔得某一点数面朝上的概率是相等的,均为1/6,两骰子面朝上点数的状态共有36种,其中任一状态出现都是等概率的,出现概率为1/36。
设两骰子面朝上点数之和为事件a ,有:⑴ a=5时,有1+4,4+1,2+3,3+2,共4种,则该事件发生概率为4/36=1/9,则信息量为I(a)=-logp(a=5)=-log1/9≈3.17(bit)⑵ a=8时,有2+6,6+2,4+4,3+5,5+3,共5种,则p(a)=5/36,则I(a)= -log5/36≈2.85(bit) ⑶ p(a)=2/36=1/18,则I(a)=-log1/18≈4.17(bit)2.2 如果你在不知道今天是星期几的情况下问你的朋友“明天是星期几”,则答案中含有多少信息量?如果你在已知今天是星期三的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的排序)?解:设“明天是星期几”为事件a :⑴ 不知道今天是星期几:I(a)=-log1/7≈2.81(bit) ⑵ 知道今天是星期几:I(a)=-log1=0 (bit)2.3 居住某地区的女孩中有20%是大学生,在女大学生中有80%是身高1米6以上的,而女孩中身高1米6以上的占总数的一半。
假如我们得知“身高1米6以上的某女孩是大学生”的消息,求获得多少信息量?解:设“居住某地区的女孩是大学生”为事件a ,“身高1米6以上的女孩”为事件b ,则有: p(a)= 0.2,p(b|a)=0.8,p(b)=0.5,则“身高1米6以上的某女孩是大学生”的概率为:32.05.08.02.0)()|()()|(=⨯==b p a b p a p b a p信息量为:I=-logp(a|b)=-log0.32≈1.64(bit)2.4 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男同志:“你是否是红绿色盲?”,他回答“是”或“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果你问一位女同志,则答案中含有的平均自信息量是多少?解:⑴ 男同志回答“是”的概率为7%=0.07,则信息量I=-log0.07≈3.84(bit) 男同志回答“否”的概率为1-7%=0.93,则信息量I=-log0.93≈0.10(bit)2平均信息量为:H 1=-(0.07×log0.07+0.93×log0.93) ≈0.37(bit/符号) ⑵ 问女同志的平均自信息量:H 2=-[0.05×log0.05+(1-0.05) ×log(1-0.05)] ≈0.045(bit/符号)2.5 如有7行9列的棋型方格,若有两个质点A 和B ,分别以等概率落入任一方格内,且它们的坐标分别为(X A ,Y A )、(X B ,Y B ),但A 、B 不能落入同一方格内。
信息论度量方法
信息论度量方法
信息论中,信息的度量方法有多种,以下是几种主要的度量方式:
1. 信息量:信息量可以用比特(bit)来度量,比特是信息论中最基本的单位,表示二进制系统中的一个选择。
比特的数量表示传递或存储的信息量
的大小。
2. 信息熵:信息熵是信息理论中度量信息不确定性的概念。
熵的值越大,
表示信息的不确定性越高。
熵可以用来度量某个事件或数据集中的信息量。
3. 信噪比:信噪比是度量信号中有用信息与噪声比例的指标。
它可以用来
衡量信号中噪声对有用信息的影响程度。
4. 信息速率:信息速率是单位时间内传输或处理的信息量。
常用的单位是
比特每秒(bps)或字节每秒(Bps)。
5. 信息传输效率:信息传输效率是指在给定的带宽或资源条件下,能够传输的有效信息量。
它是通过传输速率和信道容量的比值来度量的。
以上信息仅供参考,如有需要,建议查阅相关书籍或咨询专业人士。
信息论与编码理论-习题答案-姜楠-王健-编著-清华大学
可得 ,3种状态等概率分布。
一阶马尔可夫信源熵为
信源剩余度为
(2)二阶马尔可夫信源有9种状态(状态转移图略),同样列方程组求得状态的平稳分布为
二阶马尔可夫信源熵为
信源剩余度为
由于在上述两种情况下,3个符号均为等概率分布,所以信源剩余度都等于0。
总的概率
所需要的信息量
2.6设 表示“大学生”这一事件, 表示“身高1.60m以上”这一事件,则
故
2.7四进制波形所含的信息量为 ,八进制波形所含信息量为 ,故四进制波形所含信息量为二进制的2倍,八进制波形所含信息量为二进制的3倍。
2.8
故以3为底的信息单位是比特的1.585倍。
2.9(1)J、Z(2)E(3)X
(2)三元对称强噪声信道模型如图所示。
4.7由图可知信道1、2的信道矩阵分别为
它们串联后构成一个马尔科夫链,根据马氏链的性质,串联后总的信道矩阵为
4.8传递矩阵为
输入信源符号的概率分布可以写成行向量形式,即
由信道传递矩阵和输入信源符号概率向量,求得输出符号概率分布为
输入符号和输出符号的联合概率分布为
由冗余度计算公式得
3.18(1)由一步转移概率矩阵与二步转移概率矩阵的公式 得
(2)设平稳状态 ,马尔可夫信源性质知 ,即
求解得稳态后的概率分布
3.19设状态空间S= ,符号空间
且
一步转移概率矩阵
状态转移图
设平稳状态 ,由马尔可夫信源性质有
即
可得
马尔可夫链只与前一个符号有关,则有
3.20消息元的联合概率是
平均信息传输速率
信息论第二章信息的度量
I(xi;yj)I(xi)I(xi yj)
log
( xi y j q(xi )
)
(2-6)
称(2-6)式为事件xi和事件yj之间的互信息量。
注:式(2-6)的I(xi ;yj ) 和式(2-3)的I(xiyj )的区别
在于: 前者是事件xi∈X和事件yj∈Y之间的互信息量, 后者是二维空间XY 上元素xi yj 的自信息量。
根据概率互换公式p(xi yj) = p(yj︱xi)q(xi)=φ(xi︱yj)ω(yj) 互信息量I(xi ;yj )有多种表达形式:
I(xi;yj)loq(p x g (ix ) iy (jy )j)I(xi)I(yj)I(xiyj) (2-7)
I(xi;yj)lopg (y(yjjx)i)I(yj)I(yj xi)(2-8)
如底数分别取 2、 e、 10,
则自信息量单位分别为:比特、奈特、哈特
1 na lto2e g 1 .4b 3i3t
1 H a lo r2 1 tg 0 3 .3b 2i2 t
1 bi t0.69 n3 at
1bit0.30H 1art
一个以等概率出现的二进制码元
(0,1)所包含的自信息量为1bit。
第2章 信息的度量
内容提要:
根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要从通信系统模型入手,研究离散情况 下各种信息的描述方法及定量计算,讨论 它们的性质和相互关系。
2.1 自信息量和互信息量
I(a i)I(bj)
( 2-4 )
3.条件自信息量
在已知事件yj条件下,随机事件xi发生的概率为条件概率φ(xi
信息论期末复习资料
书中: 1.信息科学,材料科学,能源科学仪器被称为当代的“三大支柱”。
2.带宽与数据传输速率 信道带宽与数据传输速率的关系可以奈奎斯特(Nyquist)准则与香农(Shanon)定律描述。
奈奎斯特准则指出:如果间隔为π/ω(ω=2πf),通过理想通信信道传输窄脉冲信号,则前后码元之间不产生相互窜扰。
因此,对于二进制数据信号的最大数据传输速率Rmax 与通信信道带宽B (B=f,单位Hz)的关系可以写为:Rmax =2.f(bps);对于二进制数据若信道带宽B=f=3000Hz ,则最大数据传输速率为6000bps 。
香农定理则描述了有限带宽、有随机热噪声信道的最大传输速率与信道带宽、信噪比之间的关系。
香农定理指出:在有随机热噪声的信道上传输数据信号时,数据传输速率Rmax 与信道带宽B 、信噪比S/N 的关系为:Rmax =B.log2(1+S/N) 3.自信息量的性质:非负性、必然事件信息量为0、不可能事件信息量为无穷、信息量是概率的单调递减函数。
4.当X 和Y 相互独立时,互信息为0.5.信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。
6信源熵H(X)与信息率R 和信道容量C 的关系:不论何种信道,只要信息率R 小鱼信道容量C ,总能找到一种编码,能在信道上以任意小的错误概率和任意接近于C 的传输率来传送信息。
反之,若R>C,则传输总要产生失真。
又由无失真信源编码定理可知,要做到几乎无失真信源编码,信息率R 必须大于信源熵H (X )。
故三者的关系为:H(x)<=R<=C7.保真度准则下的信源编码定理:即译码平均失真度大于允许失真度。
8.香农三个基本编码定理:无失真信源编码定理、信道编码定理和限失真信源编码定理。
三个基本概念:信源熵、信道容量和信息率失真函数。
9.信源编码、信道编码和安全编码信源编码是以提高通信有效性为目的的编码。
通常通过压缩信源的沉余度来实现。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
互信息量的性质
概率乘法公式
p ( x, y ) = p ( y ) p ( x | y )
全概率公式
p( x) = ∑ p( x, yi ) = ∑ p ( yi ) p( x | yi )
i =1 i =1 n n
互信息量的性质
1. 互信息量的互易性
I ( x; y ) = I ( y; x)
互信息量的性质
3. 互信息量可正可负 肯定x的出现 正:y的出现有助于肯定 肯定 x:张三病了。 y:张三没来上课。 否定x的出现 负:y的出现有助于否定 否定 x:李四考了全班第一名。 y:李四没有复习功课。 无论正负,互信息量的绝对值越大,x和y的关系 越密切。
互信息量的性质
4.互信息量不可能大于其中任一事件的自信 息量
XY XY
2.4 平均互信息量
定义2.4.2 平均互信息量
I ( X ; Y ) = ∑ p( xi y j ) I ( xi ; y j )
XY
互信息量的均值
平均互信息量的性质
1.非负性 非负性 I(X;Y) ≥0 2.互易性(对称性) 互易性( 互易性 对称性) I(X;Y)=I(Y;X) 对称性表明:从集合Y中获得的关于X的信 息量(I(X;Y))等于从集合X中获得的关于Y 的信息量(I(Y;X))。
互信息量=自信息量-尚存在的不确定性
互信息量的例子
例2.2.1 已知条件
p(B)=p(C)=p(D)=1/3, p(D|E)=0, p(B|E)=p(C|E)=1/2 p(C|EF)=p(D|EF)=0, p(B|EF)=1
互信息量
p( B | E ) I ( B; E ) = I (C ; E ) = log = log 1.5 = 0.585 p( B)
熵函数的数学特性
2.非负性 非负性:H(X) ≥0 非负性 源于自信息量的非负性。 什么时候为0:有且仅有一个pi=1,其余的 pi=0,即确定信源。
熵函数的数学特性
3.扩展性 扩展性 含义:
集合X中,一个事件发生的概率比其它事件发 生的概率小得多时,这个事件对于集合的熵值 的贡献可以忽略。 集合X有q个事件,集合Y比X仅仅是多了一个概 率接近0的事件,则两个集合的熵值一样。
− log 2 (0.9999) = 0.00014428
假设“美国总统的专 机发生空难”这个事 件发生的概率是0.01%, 则该事件的自信息量 为:
− log 2 (0.0001) = 13.2877
这表明该事件的不确 定性很小。
这表明该事件的不确 定性很大。
自信息量的例子
例2.1.1 设在甲袋中放入n个不同阻值的电 x 阻,1 , x2 ,⋯ , xn,每个电阻被取出的概率是相 p 等的, ( xi ) = 1 n ,则事件“取出的电阻的阻 值为i”的信息量为:
含义:本身的不确定性,减去知道了事 件y之后仍然保留的不确定性,即由y所 提供的关于x的信息量
I ( x; y ) = I ( x) − I ( x | y )
互信息量=自信息量-尚存在的不确定性
互信息量的例子
事件:
x=“美国总统的专机发生空难” y=“今天是9.11”
概率:
p(x)= 0.01% p(x|y)=1%
第2章 信息的统计度量
主要内容 从概率的角度研究问题
自信息量 互信息量 平均自信息量 平均互信息量
信息的大小 多个信息之间 关联的密切程度
离散信号和连续信号
连续信号:时间和幅度都是连续的
幅度
时间
离散信号:时间和幅度都是离散的,是我们的研 究重点 幅度
时间
离散信号和连续信号之间的转换
幅度
抽样
幅度
自信息量的均值 定义2.3.1 集X上,随机变量I(xi)的数学期 望定义为平均自信息量。 q 又称作集X的信息熵,简称熵。
i =1
H ( X ) = E ( I ( xi )) = E[− log p ( xi )] = −∑ p ( xi ) log p ( xi )
平均自信息量
含义
自信息量:集合 中某一个元素 中某一个元素x 自信息量:集合X中某一个元素 i的信息量 平均自信息量:集合 中所有元素信息量的平均值 平均自信息量:集合X中所有元素信息量的平均值 集合X的平均不确定性 集合 的平均不确定性
p ( B | EF ) I ( B; EF ) = log = log 3 = 1.585 p( B)
2.3 平均自信息量
x2 ⋯ xq x1 X P = p( x ) p( x ) ⋯ p( x ) 2 q 1 I ( x1 ) I ( x2 ) ⋯ I ( xq )
−3×105
log10
−3×105
≈ 106
平均每篇千字文可提供的信息量: 平均
Y = { y1 , y2 ,..., y100001000 }
10 4000 i =1
1 p ( yi ) = = 10 − 4000 100001000
10 4000 i =1
H (Y ) = − ∑ p ( yi ) log p ( yi ) = − ∑10 − 4000 log 10 − 4000 ≈ 1.3 ×10 4
2
1
0
自信息量一般以2为底,单位为比特。
0
0.1
0.2
0.3
0.4
0.5
概率
0.6
0.7
0.8
0.9
1
log 2 = lb
自信息量的含义
自信息量衡量的是随机事件的不确定性 不确定性。 自信息量 不确定性 事件的不确定性越大,其自信息量也越大; 反之亦然,两者成正比。
自信息量的例子
假设“人每天都要吃 饭”这个事件发生的 概率是99.99%,则该 事件的自信息量为:
条件自信息量
知道了另一件事情之 后,仍然保留的不确 定性。
衡量的都是不确定性
条件自信息量的例子
事件:
x=“美国总统的专机发生空难” y=“今天是9.11”
概率:
p(x)= 0.01% p(x|y)=1%
事件x的自信息量为: I ( x) = − log p( x) = − log 0.01% = 13.2877 事件x在事件y发生的情况下的条件自信息量为: I ( x | y ) = − log p( x | y ) = − log1% = 6.6439
前面已求出自信息量和条件自信息量为:
I ( x) = 13.2877
而x和y的互信息量为:
I ( x | y ) = 6.6439
p( x | y) 1% I ( x; y ) = log = log = log100 = 6.6439 p( x) 0.01% = I ( x) − I ( x | y )
0*log0=0
平均自信息量的例子
例2.3.1 平均每个画面可提供的信息量: 平均
X = {x1 , x2 ,..., x
103×10 i =1
5
10
3×105
}
p ( xi ) =
103×10 i =1
5
1 10
3×105
= 10
−3×105
H ( X ) = − ∑ p ( xi ) log p ( xi ) = − ∑ 10
连续信号
时间
插值 离散化
幅度
离散时间信号
时间
离散信号
时间
2.1 自信息量和条件自信息量
定义2.1.1 任意随机事件的自信息量定义为该i),则其自信息定义式为
7 6
I ( xi ) = − log p ( xi )
5
自 信 息 量
4
3
凸函数
凸集合
一维和二维凸集合的例子
非凸集合
熵函数的数学特性
1.对称性 对称性:集合中各分量的次序任意变更时, 对称性 熵值(平均自信息量)不变 从熵(平均自信息量)的公式上来看,该 结论是明显的 q
H ( X ) = −∑ p ( xi ) log p ( xi )
i =1
深层含义:熵是有局限性的。它是平均不 确定性的度量,抹煞了个体的特性。
1 I ( xi ) = − log p ( xi ) = log = log n p ( xi )
自信息量的例子
不同阻值的电阻,其中1 的1个,2 的2 i 个,…,n 的n个,则 p( xi ) =
1 n(n + 1) 2
1 例2.1.1(续) 设在甲袋中放入 2 n(n + 1)个 (
那么,事件“取出的电阻的阻值为i”的信息 量为:
含义:由y所提供的关于x的信息量等于 等于由x 等于 所提供的关于y的信息量
互信息量的性质
2. 互信息量可为0 何时为0:
I ( x; y ) = log p( x | y ) = 0 ⇒ p( x | y ) = p ( x) p ( x)
这表明当x和y统计独立时,也就是x和y没有什么 关系的时候,互信息量为0。 含义:一个事件不能提供另一个事件的任何信息。 即一个事件发生之后,对于确定另一个事件是否 发生没有任何帮助。
n( n + 1) I ( xi ) = − log p ( xi ) = log 2i
条件自信息量
定义2.1.3 事件x在事件y给定的条件下的条 件自信息量定义为:
I ( x | y ) = − log p( x | y )
含义:知道y之后仍然保留的关于x的不确定 性。
自信息量
事件本身的不确定性。
条件熵
定义2.3.3 条件自信息量I(yj|xi)的概率均值 定义为条件熵。
H (Y | X ) = ∑ p( xi y j ) I ( y j | xi ) = −∑ p ( xi y j )log p ( y j | xi )