第1章 信源模型及信息的度量

合集下载

信息论与编码-第2讲-信源及信息度量1

信息论与编码-第2讲-信源及信息度量1



自信息含义
当事件xi发生以前:表示事件xi发生的不确定性。 当事件xi发生以后:表示事件xi所含有(或所提供)的信
息量。在无噪信道中,事件xi发生后,能正确无误地传输到 收信者,所以I(xi)可代表接收到消息xi后所获得的信息量。 这是因为消除了I(xi)大小的不确定性,才获得这么大小的信 息量。
2.1.1 单符号离散信源的数学模型
(1) 信源的描述方法 (2) 单符号离散信源数学模型
(1) 信源的描述方法
在通信系统中收信者在未收到消息以前,对信源发出 什么消息是不确定的。
① 离散信源:输出的消息常常是以一个个符号形式出现,


这些符号的取值是有限的或可数的。 单符号离散信源:只涉及一个随机事件,可用随机变量描述。 多符号离散信源:每次输出是一个符号序列,序列中每一位出现




② 联合自信息量

信源模型为
x2 y1 ,, x2 ym ,, xn y1 ,, xn y m XY x1 y1 ,, x1 ym , P( XY ) p( x y ),, p( x y ), p( x y ),, p( x y ),, p( x y ),, p( x y ) 1 m 2 1 2 m n 1 n m 1 1

计算y1与各种天气之间的互信息量 对天气x1,不必再考虑 对天气x2, I ( x2 ; y1 ) log2 p( x2 / y1 ) log2 1/ 2 1(比特) p( x ) 1/ 4
i i

验概率的函数。

函数f [p(xi)]应满足以下4个条件 根据上述条件可以从数学上证明这种函数形式是对 数形式。

信息论第一章

信息论第一章

Tianjin Polytechnic University
自信息量 ①自信息量
单符号离散信源的数学模型
信源的描述方法 单符号离散信源 单符号离散信源的数学模型

Company Logo
Tianjin Polytechnic University
单符号离散信源的数学模型
Tianjin Polytechnic University
例题
例题:写出相应的数学模型 (1)某二元信源只含有0和1两个消息,发送1的概率是 0.99,而发送0的概率是0.01 解:
X 1 P ( X ) 0.99 0 0.01
(2)某二元信源只含有0和1两个消息,发送1和0的概率 均是0.5
自信息的定义
若噪声太大, 信宿收到受干扰的信息后,对某信息 产生的不确定性依然存在或一点也未消除,则信宿 获得较少的信息或者说一点也没有获得信息.
自信息 I ( xi ) 的定义: 信源中某个符号 x i 的出现所带来的信息量
Tianjin Polytechnic University
自信息的定义
1 2 9 X 0 P ( X ) 0.1 0.1 0.1 0.1
(4)信源只发送一种消息,即永远发送1或者永远发送0
X 0 P ( X ) 1 X 1 或 P ( X ) 1

其不确定性 I ( xi )
Tianjin Polytechnic University
自信息的定义
自信息 I ( xi ) 满足以下几条公理:
(4)可加性:若
p( xi y j ) p( xi ) p( y j )
I ( xi y j ) I ( xi ) I ( y j )

离散信源的数学模型及其信息测PPT课件

离散信源的数学模型及其信息测PPT课件

息熵,也叫信源熵或香农熵,简称熵。
H (X ) E[I (xi )] E[log
1] p(xi )
n
i1
p(xi ) log
p(xi )
• 熵函数的自变量是X表示信源整体,实质上是离散无记忆信源平均不确 定度的度量。与自信息不同,自信息表示某一消息所含有的信息量,它是 一个随机变量,不能用它来作为整个信源的信息测度。
q1
其中,ai A a0, a1,, aq1 且 P(ai ) 1
i0
第7页/共50页
离散无记忆信源 N次扩展信源
• 由离散无记忆信源输出N长的随机序列构成的信源。
X N
P(
i
)
0 , P(0
),
1, P(1),,
qN 1
P(qN 1)
N
其中i (ai1ai2 aiN ), i ik q ,k1 (i1, i2 ,iN 0,1,, q 1) k 1
第3页/共50页
信源的分类
不同的信源输出的消息的随机性质不同,可以根 据消息的不同的随机性质来对信源进行分类:
➢按照某时刻信源输出消息的取值集合的离散性和 连 续性, 信源可分为离散信源和连续信源。
➢按照信源输出消息的所对应的随机序列中随机变 量 前后之间有无依赖关系, 信源可分为无记忆信源和有 记忆信源。
• 数学模型:
X (a,b)
p(
x)
p(x)
并满足
b
a p(x)dx 1
注:这里的p(x)代表概率 密度函数。
第6页/共50页
离散无记忆信源
离散信源在不同时刻发出的符号之间是无依赖的
彼此统计独立的。
X P(
x)
a0 ,

信息及其度量

信息及其度量

第1章 绪论
I = log a
1 = log a P( x ) P( x)
– 上式中对数的底: 若a = 2,信息量的单位称为比特(bit) ,可简记为b 2,信息量的单位称为比特(bit) ,可简记为b 若a = e,信息量的单位称为奈特(nat), ,信息量的单位称为奈特(nat), 若 a = 10,信息量的单位称为哈特莱(Hartley) 。 10,信息量的单位称为哈特莱(Hartley) – 通常广泛使用的单位为比特,这时有
I 108 I= = = 1.89 每个符号的算术平均信息量为 (比特 / 符号) 符号数 57
第1章 绪论
若用熵的概念来计算:
3 3 1 1 1 1 1 1 H = log 2 log 2 log 2 log 2 8 8 4 4 4 4 8 8 = 1.906 (比特/ 符号)
则该消息的信息量
【解】此消息中,“0”出现23次,“1”出现14次,“2” 此消息中,“ 出现23次,“ 出现14次,“ 出现13次,“ 出现7次,共有57个符号,故该消息的 出现13次,“3”出现7次,共有57个符号,故该消息的 信息量
I = 23log2 8 / 3 + 14 log2 4 + 13log2 4 + 7 log2 8 = 108 (b)
– 模拟通信系统: 有效性:可用有效传输频带来度量。 可靠性:可用接收端最终输出信噪比来度量。
第1章 绪论
– 数字通信系统 有效性:用传输速率和频带利用率来衡量。
– 码元传输速率RB:定义为单位时间(每秒)传送码元的数 1 R B = ),简记为B。 目,单位为波特(Baud ( B) 目,单位为波特(Baud),简记为B T 式中T - 码元的持续时间(秒) – 信息传输速率Rb:定义为单位时间内传递的平均信息量或 比特数,单位为比特/ 比特数,单位为比特/秒,简记为 b/s ,或bps ,或bps

第1章 基本概念6(信息的度量和香浓公式)

第1章 基本概念6(信息的度量和香浓公式)
23
1.8 多路复用
波分复用WDM
光通信中的复用技术,原理同FDM
24
1.8 多路复用
图1-19 三种复用示意图
时间 1 23 4
FD M
频率
时间
4
3 2 1
TD M
频率
时间
1234
CDM 频 率
码型
25
1.10 通信系统的性能评价
主要性能指标
有效性 可靠性
27
模拟通信系统的主要性能指标
17
1.8 多路复用
物理信道与逻辑信道
物理信道:指信号通过的通信设备和传 输介质。
逻辑信道:一个物理信道中传输一路信 号的通道。如一个频段、一个时隙等。
18
1.8 多路复用
多路复用的概念
多路复用:在一个物理信道中,利用特 殊技术传输多路信号,即在一条物理信 道中产生多条逻辑信道。
… …
n路 信号 输入
复 用
解 复 一 条物 理 信 道 用
n个 逻 辑 信 道
图1―18 多路复用示意图
n路 信号 输出
19
1.8 多路复用
频分复用FDM
通过调制技术将多路信号分别调制到频 谱互不重叠的频带上,同时传输的一种 多路复用方式。
信号时间上重叠,频谱互不重叠
20
1.8 多路复用
时分复用TDM
通过脉冲调制等技术将多路信号分时在 信道上传输的一种多路复用方式。
香农公式
C Blb(1 S ) (bit/s) N
式中,C 为信道容量(bit / s或b/s) B 为信道带宽(Hz) S/N 是系统的输出信噪比
11
1.7 信息量与香农公式
例子
若一帧电视图像的信息量为99600bit, 电视的帧频为30Hz,为使接收端收到良 好的图像,要求信道的信噪比S/N=1000, 10lgS/N=30dB,求信道的带宽B。

信源模型与信息度量3v

信源模型与信息度量3v
0
H
,n1[1
,
...n
,
n1;
p(
x1
),
...,
p(
xn
)
,
]
H,n[1 , ...n; p( x1 ), ..., p( xn )]
• 物理意义:增加1个意义很大但不可能发生的事件,信源并不能提 供更多的信息量。
• 5. 连续性
lim
0
H
,n [..., n1
, n ; ...,
p(
1
i 1
i 1
f (1, ,n ) (b)
11
最大加权熵的求解
得到 后,将式(a)代入加权熵的定义式,可得:
H,max[1, ...,n;
p( x1 ), ...,
p( xn )]
n
i
i 1
log e
2i
(
i
log e)
最大熵对应的输入信源分布为:
log e
p( xi ) 2i
i 1
• 求 F 关于 p( xi的) 偏导数,列出方程组:
n
H [1, ...,n; p( x1 ), ..., p( xn )] i p( xi ) log p( xi )
i 1
H p( xi
)
i
log
p( xi )
log
e
p( xi
)
i
p( xi
)
i
[log
p( xi
)
log
物理意义:对于确定性信源,总是只有唯一的一个事件永远发生,尽管
该事件是有意义或有效用的,但仍不能提供信息量。 6
4. 扩展性 & 5.连续性

通信原理 第1章

通信原理 第1章

缺点: 缺点:
需要较大的传输带宽 对同步要求高
第1章 绪论 章
1.3 通信系统分类与通信方式
1.3.1 通信系统的分类
按通信业务分类:电报通信系统、电话通信系统、数据 按通信业务分类:电报通信系统、电话通信系统、 通信系统、 通信系统、图像通信系统 … … 按调制方式分类:基带传输系统和带通(频带或调制) 按调制方式分类:基带传输系统和带通(频带或调制) 传输系统
1.1 通信的基本概念
实现通信的方式和手段: 实现通信的方式和手段: 非电的:如烽火台、 旌旗、消息树… 非电的:如烽火台、 旌旗、消息树 电的:如电报、电话、广播、电视、遥控、 电的:如电报、电话、广播、电视、遥控、 遥测、因特网和计算机通信等。 遥测、因特网和计算机通信等。
1.1 通信的基本概念
1.3 通信系统分类与通信方式
串行传输 :将数字信号码元序列以串行方式一个码元接 一个码元地在一条信道上传输
优点:只需一条通信信道, 优点 只需一条通信信道,节省线路铺设费用 只需一条通信信道 缺点:速度慢 速度慢, 缺点 速度慢,需要外加码组或字符同步措施
其他分类方式: 其他分类方式:
同步通信和异步通信; 同步通信和异步通信;专线通信和网通信
在工程应用中,习惯把一个二进制码元称作 比特 在工程应用中,习惯把一个二进制码元称作1比特 。
1.4 信息及其度量
若有M个等概率波形( ),且每一个波形的出现 若有 个等概率波形(P = 1/M),且每一个波形的出现 个等概率波形 ), 是独立的,则传送 进制波形之一的信息量为 是独立的,则传送M进制波形之一的信息量为
1.2 通信系统的组成
信道:将来自发送设备的信号传送到接收端的物理媒质。 信道:将来自发送设备的信号传送到接收端的物理媒质。 是信号传输的通道,分为有线信道和无线信道。 是信号传输的通道,分为有线信道和无线信道。 噪声源:集中表示分布于通信系统中各处的噪声。 噪声源:集中表示分布于通信系统中各处的噪声。 接收设备:从受到减损的接收信号中正确恢复出原始电信号。 接收设备 从受到减损的接收信号中正确恢复出原始电信号。 从受到减损的接收信号中正确恢复出原始电信号 受信者(信宿):把原始电信号还原成相应的消息, 受信者(信宿):把原始电信号还原成相应的消息,如扬声 ):把原始电信号还原成相应的消息 器等。 器等。

信息论第二讲

信息论第二讲
(1)它应是先验概率p(xi)的单调递减函数,即当 p (x1) > p (x2) 时,有 f [ p (x1)] < f [ p (x2) ] ; (2)当p (xi) =1时, f [ p (xi)] = 0 (3)当p (xi) =0时, f [ p (xi)] = (4)两个独立事件的联合信息量应等于它们分别的信息量之 和。即统计独立信源的信息量等于它们分别的信息量之和。
第二次测量获得的信息量 = I [P (x2)] - I [P (x3)]=1(bit) 第三次测量获得的信息量 = I [P (x3)] -0=1(bit) 至少要获得3个比特的信息量就可确切知道哪个灯泡已坏。
[例]:求离散信源的自信息量。 一次掷两个骰子,作为一个离散信源,求下列事件产生后提供的信 息量。
a. 仅有一个为3;
b. 至少有一个为4; c. 两个之和为偶数;
解:
一个骰子有6个符号,这一随机事件的总数(信源符号数)为36。 a事件样本数=5×2=10(另外一个不能为3)
b事件样本数=5×2+1=11(加上一个双4)
c事件样本数=18 则 p(a)=10/36=5/18; p(b)=11/36; p(c)=18/36=1/2;
i 1 i
q
X x1 x2 x3 x4 x5 x6 P 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6
离散无记忆信源N次扩展信源

由离散无记忆信源输出N长的随机序列构成的信 源。符号取自同一符号集,其相互独立
2 , qN X N 1 , P(1 ), P( 2 ), , P( q N ) P( i )

底为e,单位为“奈特(nat, nature

一般信源及其信息量的度量

一般信源及其信息量的度量

一般信源及其信息量的度量
刘勇
【期刊名称】《自然辩证法研究》
【年(卷),期】1986()6
【摘要】本文简述了人们在信息度量方面所作的纵横向拓广研究情况,分析了仙农信源模型和信息概念的实质,给出了一个一般信源模型。

在因素分析的基础上推导
出了一个综合性的信息量计量的基本公式,并由之推出三类系统的信息量计算方法。

其中的H(R)可度量有机系统的进化程度。

【总页数】5页(P40-44)
【关键词】信源模型;信息量计算;不定度;肯定度;不定性;元素;拓广;差异度;信宿;复
杂程度
【作者】刘勇
【作者单位】中国人民大学计划统计学院计划系
【正文语种】中文
【中图分类】N031
【相关文献】
1.基于符号信息量的离散信源特性分析 [J], 麻信洛;吕金娜;张志军;葛长涛
2.利用马尔可夫信源原理计算遥感影像信息量 [J], 王占宏;杜道生
3.基于符号信息量的离散信源特性分析 [J], 麻信洛;吕金娜;张志军;葛长涛
4.线状要素空间弯曲特征信息量的度量方法探讨 [J], 许丁友; 李展; 刘强; 何静; 刘
乾坤; 毛宇昆; 蒋雨欣
5.基于图论与互信息量的差分隐私度量模型 [J], 王毛妮; 彭长根; 何文竹; 丁兴; 丁红发
因版权原因,仅展示原文概要,查看原文内容请购买。

信息论与编码理论-习题答案-姜楠-王健-编著-清华大学

信息论与编码理论-习题答案-姜楠-王健-编著-清华大学
一阶马尔可夫过程共有3种状态,每个状态转移到其他状态的概率均为 ,设状态的平稳分布为 ,根据
可得 ,3种状态等概率分布。
一阶马尔可夫信源熵为
信源剩余度为
(2)二阶马尔可夫信源有9种状态(状态转移图略),同样列方程组求得状态的平稳分布为
二阶马尔可夫信源熵为
信源剩余度为
由于在上述两种情况下,3个符号均为等概率分布,所以信源剩余度都等于0。
总的概率
所需要的信息量
2.6设 表示“大学生”这一事件, 表示“身高1.60m以上”这一事件,则

2.7四进制波形所含的信息量为 ,八进制波形所含信息量为 ,故四进制波形所含信息量为二进制的2倍,八进制波形所含信息量为二进制的3倍。
2.8
故以3为底的信息单位是比特的1.585倍。
2.9(1)J、Z(2)E(3)X
(2)三元对称强噪声信道模型如图所示。
4.7由图可知信道1、2的信道矩阵分别为
它们串联后构成一个马尔科夫链,根据马氏链的性质,串联后总的信道矩阵为
4.8传递矩阵为
输入信源符号的概率分布可以写成行向量形式,即
由信道传递矩阵和输入信源符号概率向量,求得输出符号概率分布为
输入符号和输出符号的联合概率分布为
由冗余度计算公式得
3.18(1)由一步转移概率矩阵与二步转移概率矩阵的公式 得
(2)设平稳状态 ,马尔可夫信源性质知 ,即
求解得稳态后的概率分布
3.19设状态空间S= ,符号空间

一步转移概率矩阵
状态转移图
设平稳状态 ,由马尔可夫信源性质有

可得
马尔可夫链只与前一个符号有关,则有
3.20消息元的联合概率是
平均信息传输速率

信息资源管理第一章ppt

信息资源管理第一章ppt
徐志摩家的月饼 悄悄的我收了,正如你悄悄的送, 我挥一挥衣袖,来年你还送不送!
琼瑶家的月饼 我有一块月饼,不知与谁能共? 多少秘密在其中,送饼之人能懂。 饼外情深义重,饼内目的重重。 迎来送往惧无踪,徒留一帘幽梦!
第1章 信息与信息管理
1.1 信息
-1.1.1 信息的含义 -1.1.2 数据、信息和知识的关系 -1.1.3 信息的特性 -1.1.4 信息与物质、能量的关系 -1.1.5 信息的类型
1.5 信息管理
信息管理的职能 与管理的一般职能相同,信息管理也有计划、组织、 指挥、协调和控制五个主要职能。 (1)信息管理的计划职能 (2)信息管理的组织职能 (3)信息管理的指挥职能 (4)信息管理的协调职能 (5)信息管理的控制职能
1.5 信息管理
1.5.2 信息管理的基本原理
信息管理的目标 微观:一是建立信息集约,实现信息流的集约控制; 二是对信息进行整序与开发,实现信息的质量控制。 宏观:提高社会活动资源的系统功能,最终提高社会 活动资源的系统效率。 信息管理的四大基本原理 增值原理、增效原理、服务原理、市场调节原理
把一份信息复制一次,信息量并不会增加一倍。
6.时效性(动态性):信息从产生到对解决特定问题完全失去效用的
过程构成信息的生命周期。
7.可加工性(可变换性):可编码转换,可加工提炼。 8.真伪性:一个信息可能符合实际情况,也可能与实际情况不符合。 9.有用性:提供决策支持。信息的有用性是相对的。
1.1 信息
1.6 信息管理学
信息管理学研究如何科学地组织、管理信息资 源和信息活动。它是一门综合性的边缘交叉学。 我国学者提出的信息管理学实用体系框架 包括四个模块。如图1.8。
信息经济研究 信息系统建设 信息管理学 信息技术应用 信息资源管理

信息的度量

信息的度量

I (ai ) f [ p(ai )]
3.信源发送符号ai的先验概率p(ai) = 1,则
I (ai ) f [ p(ai )] 0
4.设有两个独立信源X和Y,信源X发送符号ai的先验概率为p(ai), 信源Y发送符号aj的先验概率为p(aj),符号ai 和aj的联合消息 (aiaj)的先验概率为p (aiaj),则
a 0 a 2 1 a 3 2 a 4 3 X 1 1 1 1 P 3 8 4 4 8
其发生的消息为:
(202120130213001203210110321010021032011223210)
求(1)此消息的自信息量。 (2)在此消息中平均每个符号携带的信息量。
此消息中共有14个“0”符号,13个“1”符号,12个“2”符 号,6个“3”符号,则得到的自信息量是:
I 14I (a1 ) 13I (a2 ) 12I (a3 ) 6I (a4 )
14 1.415 13 2 12 2 6 3 87.81bit
(2)此消息中平均每个符号携带的信息量为:
且有
取 0 1 则:
pi 1,
i 1
q
q
pi' 1
i 1
q
H [ (1 )' ] [ pi (1 ) pi' ]log[ pi (1 ) pi' ]
i 1
q
q pi pi' pi log{[pi (1 ) pi' ] } (1 ) pi' log{[pi (1 ) pi' ] ' } pi pi i 1 i 1
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

6
二元联合信源
有两个信源X,Y
, an a2 , X a1 , P ( x) P (a ), P (a ), , P (a ) n 1 2
, bm b2 , Y b1 , P ( y ) P (b ), P (b ), , P(b ) 1 m 2
, aq a2 , X a1, P ( x) P (a ), P (a ), , P (a ) q 1 2
例:
a2 a1 P ( ) 0.01 0.99
b1 b2 P ( ) 0 .4 0 .6


可பைடு நூலகம்性公理:
两个消息独立,则 I (ai , b j ) I (ai ) I (b j ) 对同一条消息,观察两次所得到的信息量等 于两次分别收到的信息量之和
I (ai ; b j ck ) I (ai ; b j ) I (ai ; ck / b j )
例题
说明信息论在我们日常生活中的指导意义
P(X): p
1. p=0.5时; H(X)=-0.5log0.5+(-0.5log0.5)=1 bit/符号 2. p=0.99,1-p=0.01时;
H(X)=-0.99log0.99+(-0.01 log0.01)=0 .08bit/符号
3. p=0,1-p=1(或p=1,1-p=0)时; H(X)=-0log0+(-1 log1)=0 bit/符号
XY——样本值共有 m n 个
p ( x i y j ) p ( y j ) p ( xi / y j ) p ( x i ) p ( y j / x i )
当X,Y相互独立时
p ( y j ) p ( y j / xi )
p ( x j ) p ( x j / yi )
p( xi y j ) p( y j ) p( xi )
例: 掷一个六面均匀的骰子,每次出现朝上一面的点数 是随机的,以朝上一面的点数作为随机实验的结果,并把 实验结果看作一个信源的输出,试建立数学模型。
A:{1,2,3,4,5,6}——样本空间 P:{ p(X=1)=1/6,p(X=2)=1/6,…,p (X=6)=1/6} ——概率测度
X a1 , a2 , , a6 p(ai ) 1 P( x) 1 / 6, 1 / 6, , 1 / 6 i 1 ——概率空间
信息如何度量:
事物特性五花八门
物质有一个量——质量 m 信息可否有一个量:信息量? 复习一下信里的定义——事物运动状态或存在 方式的不确定性的描述。
信息的度量问题!
, an a2 , X a1 , P ( x) P (a ), P (a ), , P (a ) n 1 2
例题
说明信息论在我们日常生活中的指导意义
设有12个形状完全相同的球,其中一个球的质量与其他球 不同(不知是重还是轻),其他球均等重。为了用天平(无 砝码)称出这个不同重量的球,问至少必须称多少次?
信息获取
天平称一次能判断出3种情况:重、轻和相等
I获
1 log 1.585bit 3
p(a ) 1
i 1 i
q
连续信源
输出的符号集的取值是不可数的无限值, 即输出消息的取值是连续的
X ( a , b ) P( x) p ( x)
p ( x ) dx 1
a
b

X R P( x) p( x)
P(ai / b j ) 称作后验概率
什么是信源?
在信息论中,信源是产生消息(符号)、消 息序列以及连续消息的来源;
数学上,信源是产生随机变量X、随机序列X 和随机过程X(t,ω)的源。
信源的主要特性
信源的最基本的特性是具有统计不确定性,它 可用概率统计特性来描述。
用概率空间来描述信源
信源的分类
I需 I获
至少必须称的次数为:
2.9次
§1.3 平均信息量-熵
信息熵
定义:自信息量的数学期望为信源的平均自信 息量,也称为熵
H ( X ) E[ I ( xi )] p(ai ) log p(ai )
i 1
n
单位: 与自信息量的单位相同
H r ( X ) p(ai ) log r p(ai )
1、当 ai 发生前,表示事件 ai 发生的不确定性
2、当 ai 发生后,表示事件 ai 所含有(或所提供) 的不确定性
信息函数中对数log底
log ? p(ai)
2 e 10 bit nat hat
一般假定以2为底,记为log
定义(2):
I ( ai , b j ; ai , b j ) I ( ai , b j ) p ( ai , b j ) log p ( ai , b j )
(4) 两个统计独立事件的联合信息量,应等于它 们各自信息量之和: I(ab)=I(a)+I(b)
定义(1):
自信息量:ai 出现后收到关于 ai 的信息量
1 I (ai ; ai ) I (ai ) p(ai ) log log p(ai ) p(ai )
两种含义:
i 1
q
r进制与2进制的变换关系:
H r ( X ) p ( ai ) log r p (ai )
i 1 q
log 2 p ( ai ) 1 p (ai ) H (X ) log 2 r log 2 r i 1
q
X = P
X:
1
2 1-p (0≤ p ≤1)

R
p ( x)dx 1
离散无记忆信源
信源在不同时刻输出的符号先后之间是无依 赖的,彼此统计独立
p( x j xi ) p( xi ) p( x j / xi ) p( x j / xi ) p( x j )
离散有记忆信源
信源在不同时刻输出的符号先后之间是相互 依赖的
数学模型的建立
单符号信源
离散信源
有记忆信源
多符号信源
连续信源
无记忆信源
单符号信源: 一个符号代表一个完整的消息
多符号信源: 多个符号代表一个完整的消息
离散信源
输出的符号集的取值是有限的或可数的
, aq a2 , X a1 , P( x) P (a ), P (a ), , P(a ) q 1 2
“不确定的”、“无知的”事件
事件a:在12个形状完全相同球中,某一球为重量不同的球 事件b:重量不同的球比其它球的重量是重,还是轻 p(b) 1 / 2 信息获取
p(a) 1 / 12
要找出这个不同重量的球所需的信息量 =消除这两个事件的自信息量
事件a ,b统计独立 I 需 I(a ) I(b ) log p(a ) log p(b ) 4.585bit
信息论
Information Theory
王逸林
哈尔滨工程大学 2013
Tel: 82519503 E-mail: wangyilin@
第 1章
1.1 1.2 1.3 1.4 1.5 1.6
信源模型及信息的度量
信源模型及分类 不确定性与信息量 平均信息量 消息序列的熵 连续信源的信息度量 信源的相关性和剩余度
§1.1 信源模型及分类
几个概念
一个函数随机变量X,有N个可能取值: a1 a N ,各取值出现概率
Pn P(an )
P
1
N
n
1
所有可能选择的消息的集合,称为样本空间 每个可能选择的消息是这个样本空间的元素 每个可能选择的消息的概率,称为概率测度
概率空间:
一个样本空间和它的概率测度统称为概率空间
该信源中每个消息的出现会携带多少信息量?
自信息问题
非平均不确定性,非平均信息量
整个信源能输出多少信息量?

信源的信息熵问题
平均信息量

彩票走势图
信息
数量上等于通信前后“不确定性”的消除量/减少 量
信息量 f(不确定性)
―不确定性” →―多种结果的可能性”→用概率来度量 ∴ ―不确定性”是概率的某一函数 f [ p( x)]
设有12个形状完全相同的球,其中一个球的质量与其他球 不同(不知是重还是轻),其他球均等重。为了用天平(无 砝码)称出这个不同重量的球,问至少必须称多少次?
判断“不确定的”、“无知的”量/事件? 信息获取? 消除全部不确定性
例题
说明信息论在我们日常生活中的指导意义
设有12个形状完全相同的球,其中一个球的质量与其他球 不同(不知是重还是轻),其他球均等重。为了用天平(无 砝码)称出这个不同重量的球,问至少必须称多少次?
两个信源的联合概率空间
an b m a 2 b1 , , a n b1 , a1b2 , , XY a1b1 , P( xy) P (a b ), P(a b ), , p (a b ), p (a b ), , P(a b ) n 1 n m 1 1 2 1 1 2


ai , b j 同时出现后收到关于 ai , b j 的信息量
定义(3):
互信息量:观察到 b j 后收到关于 ai 的信息量
p(ai ) I (ai ; b j ) p(ai ) p(ai / b j ) log p(ai / b j )
1、关于 ai 的先验不确定性/无知程度-观察到 b j 后 对 ai 保留的不确定性/无知程度 2、 b j 给定后关于 ai 不确定性减少的程度
相关文档
最新文档