第二章 信源及其信息量 李伟
信息论与编码-第4讲-第2章信源及信息度量(修改最新)
1) 如果二进制信源的输出是确定的(p=1),则该信源不提 供任何信息;
2) 当二进制信源符号0和1等概率发生时,信源的熵达到最
大值,等于1比特信息
3) 二元数字是二进制信源的输出。在具有等概率的二进制 信源输出的二进制数字序列中,每一个二元数字提供1比特 的信息量。如果符号不是等概率分布,则每一个二元数字 所提供的平均信息量总是小于1比特。这也进一步说明了 “二元数字”(计算机术语称“比特”)与信息量单位 “比特”的关系。
p(a1|b2)=0.75
p(a2|b1)=0.75
p(a2|b2)=0.25
根据条件熵的计算表达式可得
H(X|Y)=-p(a1,b1) logp(a1|b1)-p(a1,b2) logp(a1|b2) -p(a2,b1) logp(a2|b1)-p(a2,b2) logp(a2|b2) =0.406比特/符号
以熵H(X)≥0;
只有当随机变量是一确知量时,熵H(X)=0。 这种非负性对于离散信源的熵是合适的,但对连续信源来 说这一性质并不存在。
(2) 对称性
① 定义:当变量p(x1),p(x2),…,p(xn) 的顺序任意互换时,熵
函数的值不变,即
H[ p( x1 ), p( x2 ),, p( xn )] H[ p( xi1 ), p( xi2 ),, p( xin )] ,其中i1, i2 ,in 1,2,, n
H ( X ) E[log p (1xi ) ] p( xi ) log p (1xi )
i 1
r
为了求得整个信源所提供的平均信息量,首先
,我们应当了解数学中有关三种不同类型的平均方
法以及它们各自的计算公式。这三种平均方法分别
第二章 信源的信息量
非平均互信息
传送消息 X1 X2 X3 X4 X5 X6 X7 X8 码字 000 001 010 011 100 101 110 111
Wuhan University
例2.1.1 观察先验等概时后验概率的变化
P(xk)
1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 看到0 P(Xk|0) 1/4 1/4 1/4 1/4 0 0 0 0 看到01 P(Xk|01) 0 0 1/2 1/2 0 0 0 0 看到011 P(Xk|011) 0 0 0 1 0 0 0 0
0 p p
1
1-p
0
非单调 变化
1 1-p
信息量与后验概率有关。后验概率越
大,得到的信息量越大。
9
非平均互信息
Wuhan University
互信息要满足的条件
10
非平均互信息
Def. 互信息
Wuhan University
给定一个二维离散型随机变量 {(X, Y), (xk, yj), k=1~K; j=1~J},事件xk∈X与事件yj∈Y的互信息 量定义为 P ( xk | y j ) P ( xk , y j )
特殊性质 I(xk|yj)=I(xk)-I(xk; yj)
21
非平均自信息
•
Wuhan University
Def. 联合自信息
事件xk和事件yj的联合自信息定义为
I(xk yj)= -log p(xk yj)
联合的非平均自信息量实际上是非平均自信息 量的简单推广。即可以将(X,Y )直接看成是一维的 随机变量。
20
非平均自信息
Wuhan University
信息论 第2章 离散信源及其信息
合肥学院胡学友
22
2.2.1 自信息
信源发出某一符号 xi (i = 1,2, L, n) 后,它提供多 少信息量?这就是要解决信息的度量问题。 在通信的一般情况下,收信者所获取的信息量, 在数量上等于通信前后不确定性的消除(减少)的 量。
2011-7-22
合肥学院胡学友
23
具体地说,如信源发某一符号ai,由于信道中 噪声的随机干扰,收信者收到的一般是ai的某 种变型bi.收信者收到bi后,从bi中获取关于ai 的信息量,如果以I(ai;bi)表示, 则有I(ai;bi) =收到bi前,收信者对ai存在的不确定性(先验 不定度)—收到bi后,收信者对ai仍然存在的不 确定性(后验不定度) =收信者收到bi前、后,对ai存在的不确定性的 消除。 2011-7-22 24 合肥学院胡学友
6
a2 1 6
a3 1 6
a4 1 6
a5 1 6
a6 1 6
∑ p (a ) = 1
i =1 i
2011-7-22 合肥学院胡学友
完备集
4
X a1 p ( x) = p (a ) 1
q
a2 L aq p(a2 ) L p(aq )
离散情况
2011-7-22 合肥学院胡学友 10
• 若信源输出的N维随机矢量 ,每个 uu v X = ( X 1 , X 2 ,L , X N ) 随机变量 (i=1, 2, …, N) 都是取值为连续 Xi 的连续型随机变量,即每个随机变量的可 能取值是不可数的无限值。而且随机矢量 的各维概率密度函数都与时间起点无关, 也就是说,在任意两个不同时刻随机矢量 的各维概率密度函数都相同,这样的信源 称为连续平稳信源
信息论第2章(2010)
ai 后所获得的信息量。
自信息量的性质:
1)非负性。 2) 单调递减性。 3) 可加性。
I xi ,y j log pxi ,y j
若两个符号x i , y j同时出现,可用联合概率px i , y j 来表示 这时的自信息量为 I y j I xi | y j
例题:二元信源,每个符号发生的概率分别为p(x1)=p,p(x2)=1-p. 试计算信源熵,并画出熵函数H(p)和p的曲线图。
① 等概时(p=0.5):随机变量具有最大的不确定性
② p=0或1时:随机变量的不确定性消失。
信息熵的物理意义
1)表示了信源输出前,信源的平均不确定性。 2)表示了信源输出后,每个消息或符号所提供的 平均信息量。 3)信息熵反映了变量X的随机性。
平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值,其表达式为 q
H ( X ) EI ( xi ) P( xi ) log P( xi )
i 1
式中, E 表示统计平均,
I ( xi ) 表示符号 x i 包含的自信息量。
平均信息量可以表示为:
任何一个物理量的定义都应当符合客观规律和逻辑上 的合理性,信息的度量也不例外。直观经验告诉我们: ① 消息中的信息量与消息发生的概率密切相关:出现消 息出现的可能性越小,则消息携带的信息量就越大。 ② 如果事件发生是必然的(概率为1),则它含有的信息 量应为零。如果一个几乎不可能事件发生了(概率趋 于0),则它含有巨大的信息量。 ③ 如果我们得到不是由一个事件而是由若干个独立事件 构成的消息,那么我们得到的信息量就是若干个独立 事件的信息量的总和。
② 联合信源中平均每个符号对所包含的信息量?
第二章信源及信源的熵
Pij的性质: Pij ( m, n ) 0,i, j S
Pij (m, n ) 1,
jS
i S
17
齐次马尔可夫信源的状态转移概率: 齐次:状态转移概率与时间无关
{
无记忆信源 有记忆信源
(1)单符号信源和符号序列信源 前述各离散或连续信源都是单符号信源----信源(试验) 每次发出一个符号(消息的长度为1)。 更多信源输出的消息需要用多个符号(即符号序列)来表示 ,如:随机取球试验,一次取两个球。多少种消息?
8
3种消息:“红红”、“白白”、“红白或白红”;用符号序 列表示 个消息。这种信源称为符号序列信源。 (2)符号序列信源用多维随机变量(随机矢量或随机序列)及 其概率空间来描述。如上面的离散符号序列信源:
7
X [0,1.5] pX (x) pX (x)
任意连续信源 的数学模型为
1.5
,
pX (x)d x 1
0
X [a,b] p X (x) p X (x)
b
,
a
pX (x)d x 1
2、按照信源发出的符号之间的关系分类: 信源
香农第二章信源及信源熵第一节信源的描述和分类第二节离散信源熵和互信息第二节离散信源熵和互信息3第三节连续信源的熵和互信息第四节离散序列信源的熵第五节冗余度第一节信源的描述和分类一消息的统计特征香农信息论运用概率论和随机过程的理论来研究信息
复
1、信息的定义:
习
信息是指各个事物运动的状态及状态变化的形式。 是事物运动状态或存在方式的不确定性的描述。 2、信息论的定义 关于信息的本质和传输规律的科学理论,是研究信息的度 量、发送、传递、交换、接收和储存的一门新兴学科。它为 各种具体的信息技术提供理论依据,而信息技术则以此为根 据去研究如何实现、怎样实现的问题。 3、信息、消息和信号的关系:
第二章基本信息论1_信源不确定性-精品文档
X 0 1 2 3 4 5 6 7 8 9 例 3 : p ( X ) 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1 0 . 1
信息速率和信道容量的概念,离散有噪
信道的熵速率,可疑度的物理解释,连 续有噪信道的信道容量
三种多用户信道模型及其信道容量 信源编码原理,等长编码和变长编码
常用的信源编码:山农费诺编码、哈夫
曼编码和L-D编码
本章作业
P113: 1-9,11,15,17,20,21
2.1 信源及信源的不确定性
发生概率小的事件不确定性大, 发生概率大的事件不确定性小 4)两个独立事件的联合信息量应等于它们分别 信息量之和
三、信息度量
信源消息 x i 的自信息量:
Ix () l o g p () x i i
表示信源发出一个消息 x i 所含有(或所提供)的 非平均自信息量
ห้องสมุดไป่ตู้
也表示通信发生前,信源发送消息 x i 的不确定度。
n
p (x gp (x i )lo i)
即信源的非平均不确定度
条件自信息量
I (/ x ) l o g p (/ x ) i y j i y j
y 已 知 的 条 件 下 , 发 生 x 所 带 来 的 信 息 量 j i
信宿接收到消息 y j 后,对信源发送消息 x i 尚存的不 确定度。
从信宿端看,信息量的定义:
I(信息量)=不肯定程度的减少量
log p( xi / y j ) p( xi )
第二章信源与信息度量习题-精品
第二章信源与信息度量习题-精品2020-12-12【关键字】方案、空间、系统、平稳、合理、规律、稳定、需要、标准、关系、设置1. 某大学设置五个学院,每个学院的学生数分别为学院: 数学 物理 外语 外贸 医学人数: 300 400 500 600 200问“某学生王某是外语学院学生”这一消息提供的信息量是多少?2. 同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1) 事件“2和5同时呈现”的自信息量;(2) 事件“两个4同时呈现”的自信息量;(3) 事件“至少呈现一个1”的自信息量。
3. 字母“e ”在英文中出现的概率是0.103,字母“c ”出现的概率为0.022,字母“x ”出现的概率是0.001,求这些字母各自的自信息量。
4. 某电子厂共能生产A 、B 、C 、D 四种仪器,其中A 因技术落后停产了,B 占全部产量的20%,C 占30%,D 占50%。
有两个消息“现在完成1台仪器B ”,和“现在完成1台仪器C ”,试确定哪一种消息提供的信息量大些?其中有什么规律?5. 某地,35%的女孩上大学,65%的女大学生身高超过1.6米,而一个女孩身高超过1.6米的概率是50%,现有一条消息:说某一个身高超过1.6米的女孩是大学生,求这条消息的信息量。
6. 试求:(1) 在一付标准的扑克牌中抽出一张(每张牌均认为是不同的)的平均信息量。
(2) 若扑克牌仅按它的等级鉴定而不问它的花色(大、小王属同一等级),重复上述计算。
7. 某地的天气预报为:晴(占4/8),多云(占2/8),雨(占1/8),雪(占1/8),冰雹(占0/8);而当地老农对天气的预测只能做到:晴(占7/8),雨(占1/8)。
试求两者对天气预报各自提供的平均信息量,并说明从中得到的规律。
8. 某离散无记忆平稳信源的概率空间为:12340123()3/81/41/41/8X x x x x p X ====⎧⎫⎡⎤=⎨⎬⎢⎥⎩⎭⎣⎦,若某消息符号序列为:202 120 130 213 001 203 210 110 321 010 021 032 011 223 210,求:(1) 该消息的自信息量;(2) 该消息平均每个符号携带的信息量。
第二章信源及其信息量
2
1 2
3
计算出各事件Байду номын сангаас自信息量列表2-1如下:
消息xi 概率分布q (xi) 自信息量I (xi)
x1 1/3 log 3
x2 1/6 log 6
x3 1/2 log 2
自信息量I(ai)代表两种含义:
1.事件ai发生以前,表示事件发生的先验不确定性
x1 x2 x3 X 3 x0 (3)信源三: 等概信源 q ( X ) 0 . 25 0 . 25 0 . 25 0 . 25 3 熵 H(X3) = -4×0.25 log 0.25 = log4 = 2(比特/符号)
(4)信源四: 信源为确定事件
⑵.平均互信息量
定义xi ∈ X和yj ∈ Y之间的互信息量为I(xi ;yj ),在集合X上对 I(xi ;yj )进行概率加权统计平均,可得I(X;yj)为:
I ( X ; y j ) p xi y j I ( xi ; y j ) p xi y j log
i i
p ( xi y j ) p ( xi )
第2章 离散信源及其信息熵
内容提要: 根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要研究离散信源下各种信息的定量计算 ,讨论它们的性质和相互关系。
2.1 信源基本分类及其数学模型
在通信系统中,收信者在未收到信息以前, 对信源发出什么样的消息是不确定的,是随机的, 所以可以用随机变量、随机矢量或随机过程来描 述信源输出的消息,或者说用一个样本空间及其 概率测度来描述信源。 不同的信源根据其输出消息的不同的随机性 质进行分类。
信息论与编码_第6讲_信源及其信息量5_连续信源
Electronics Engineering Department, NCUT Song Peng 第2页
目 录
第13讲:信源编码1 第14讲:信源编码2 第15讲:信道编码概论 第16讲:线性分组码 第17讲:循环码 第18讲:卷积码 第19讲:习题课2 第20讲:上机1 第21讲:上机2 第22讲:上机3 第23讲:上机4 第24讲:总复习
为不可数的无限多个。
2018/8/13
第11页
2.3.1 一些基本概念
2.3 连 续 信 源
(2) 随机过程及其分类
① 随机过程
连续型信源特点
当固定某一瞬时 t=tk 时,信源的输出是一个随机变量 X,
X 的取值又是连续的,为不可数的无限多个值。因此连续信 源可能有的消息数为无限多个。
连续型信源,可用有限维概率密度函数族以及各维概率密
连续信源输出的消息是随机的,与随机过程{x(t)}相对
应。可用有限维概率密度函数族描述。
pn(x1, x2 ,…, xn, t1, t2, …, tn)
2018/8/13
第7页
2.3.1 一些基本概念
2.3 连 续 信 源
(2) 随机过程及其分类
① 随机过程
② 随机过程的分类
2018/8/13
i 1 i 1 i 1 n n n
当n , 0时,若极限存在,即得连续信源的熵为:
limH ( X ) lim p( xi ) log2 p( xi ) lim(log2 ) p( xi )
n 0 n 0 i 1 b n 0 i 1 n n
① 单变量连续信源数学模型
② 连续信源的熵
第2章 信源及信源熵2
离散信源熵
例:一个布袋内放100个球,其中80个球是红
色的,20个球是白色的,若随机摸取一个球, 猜测其颜色,求平均摸取一次所能获得的自信 息量。
解: 依据题意,这一随机事件的概率空间为
X P
x1 0.8
x2 0.2
其中:x1表示摸出的球为红球事件, x2表示摸出的 球是白球事件 .
晴, 1/ 2
雨 1/ 2
H (X ) log 1 2比特 / 符号 4
H (Y ) log 1 1比特 / 符号 2
• 这种情况下,信源的不确定性最大,信息熵最大。 • 甲地比乙地提供更多的信息量。因为甲地可能
出现的消息数多于乙地可能出现的消息数。
例:电视屏上约有 500 × 600= 3×105个格点,
如果摸出的是红球,则获得的信息量是
I (x1)=-log2p (x1) = -log20.8 bit
如果摸出的是白球,则获得的信息量是
I (x2)=-log2p (x2) = -log20.2 bit
如果每次摸出一个球后又放回袋中,再进行 下一次摸取。则如此摸取n次,红球出现的次
数为np(x1)次,白球出现的次数为 np (x2)次。
条件熵H(X|Y)表示已知Y后,X的不确定度。
相应地,在给定X(即各个xi)条件下, Y集合的 条件熵H(Y|X)定义为
H (Y | X ) p(xi , y j )I ( y j | xi )
ij
p(xi , y j ) log p( y j | xi )
ij
几个概念
p(u0)=1/2, p(v0 |u0)=3/4,p(v0 |u1)=1/2 求:
第二章 信息量
信源数学模型与分类
• 信源的数学模型: 信源发出消息具有随机性 -在信源发出消息之前,消息是不确定 的 用随机量表示信源发出的消息,随 机量可以是随机变量、随机序列、随机 过程。
信息论基础 李富年
武汉科技大学
信源数学模型与分类
信源的数学模型:
为了表示一个随机量,用随机量的的样本 空间及其概率空间来描述 – 可能输出的所有消息 – 各种消息的可能性
信息论基础 李富年 武汉科技大学
信息熵及其性质
信息量是指某一个信源发出某一消息(事件) 的消息大小,信源可以发出的消息有很多,发 出的消息不同,所携带的信息量也不同,如:
晴 多云 阴 1 1 1 2 4 8
雨 1 8
发出的消息有4个:晴、多云、阴、雨。发出 晴时,信息量是1bit,发多云时信息量是2bit, 发阴或雨时信息量是3bit,发出的消息不一样, 所携带的信息量也不一样。
信息论基础 李富年 武汉科技大学
信源数学模型与分类
说明:
① 不同的信源,对应与不同的数学模型。 即不同的信源概率空间。 ② 用概率空间来表示信源的数学模型,有 一个必要的前提,这就是信源可能发出 的各种不同符号的概率必须是先验可知 的,或是事先可测定的。这是香农信息 论的一个基本假说。
信息论基础 李富年 武汉科技大学
信息论基础 李富年 武汉科技大学
条件自信息量和联合自信息量
p 解:住在某一单元的概率是:( y j ) 15 p ( xi | y j ) 1 12 知道单元,住在某一户的条件概率为 既不知道单元,也不知道哪一户,一次能够到 朋友家的概率为 p( xi y j ) p( y j ) p( xi | y j ) 1
信息论基础 李富年 武汉科技大学
第二章 信源与信息度量 习题解答
第二章 信源与信息度量 习题解答1. 某大学设置五个学院,每个学院的学生数分别为学院: 数学 物理 外语 外贸 医学 人数: 300 400 500 600 200问“某学生王某是外语学院学生"这一消息提供的信息量是多少?解:总人数为:300+400+500+600+200=2000人 是外语学院学生的概率为:5000.252000= 同理计算其它学院学生概率后,得信源的概率空间为:12345()0.150.20.250.30.1X x x x x x p X ⎡⎤⎧⎫=⎨⎬⎢⎥⎣⎦⎩⎭“学生王某是外语学院学生”这一消息提供的信息量:33()lb ()lb 0.252I x p x =-=-=比特2. 同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求:(1) 事件“2和5同时呈现"的自信息量; (2) 事件“两个4同时呈现”的自信息量; (3) 事件“至少呈现一个1”的自信息量。
解:(1)事件“2和5同时呈现”的概率:1()18p A =,该事件的自信息量: 1()lb ()lb4.170 bit 18I A p A =-=-= (2)事件“两个4同时呈现”的概率:1()36p B =,该事件的自信息量:1()lb ()lb 5.170 bit 36I B p B =-=-=(3)事件“至少呈现一个1"的概率:11()36p C =,该事件的自信息量:11()lb ()lb 1.711 bit 36I C p C =-=-=3. 字母“e ” 在英文中出现的概率是0。
103,字母“c ”出现的概率为0.022,字母“x ”出现的概率是0。
001,求这些字母各自的自信息量。
解:(1)字母“e ”的自信息量:()lb ()lb0.103 3.279 bit I e p e =-=-=(2)字母“c ”的自信息量:()lb ()lb0.022 5.506 bit I c p c =-=-=(3)字母“x "的自信息量:()lb ()lb0.0019.966 bit I x p x =-=-=4. 某电子厂共能生产A 、B 、C 、D 四种仪器,其中A 因技术落后停产了,B 占全部产量的20%,C 占30%,D 占50%。
第2章_信源及其信息量
2020/1/28
第7页
2.1.2 信源输出的消息由随机矢量描述
2.1 信
X p(x)
a1 0.8
a2 0.2
其中,a1、 a2分别表示白色球和黑色球。
源 的 信源输出的消息就是一个符号序列,可用二维随机矢量描述该信
数
源,即
学
模
型
与
X p(
2 x)
2.2 离散信源的熵与互信息
2.2.1 非平均信息量
给定信源X,对应的概率空间为
X p(x)
a1 p(a1
)
a2 p(a2 )
... ...
ar
p(ar
)
符号出现的概率不同,它的不确定性也不同。 如果某种符号出 现的概率为1,这是确定性事件,这样的信源为确定性信源,该符号 的出现不会给接收者任何信息。
符号出现的概率越大,不确定性越小,所能够提供的信息量就 越小;反之,符号出现的概率越小,不确定性越大,一旦出现,接 收者获得的信息量就越大。
2020/1/28
第14页
自信息量的定义遵循的基本规则如下:
2.2 (1) 确定性事件,即 p=1时,信息量应当为0;
非 平
(2) 事件出现的概率越小,信息量越大,反之亦然;
非 平
为接收者所能提供的信息量,是接收者为了消除该符号不确定性而需要
如果连续信源输出的消息由一系列符号组成,这样的
信源称为多维连续信源,用N维随机矢量X=(X1,X2,…,
XN)来描述。
2020/1/28
第12页
2. 离散有记忆信源
2.1
若信源输出的N维随机矢量 X =(X1,X2, … ,XN)中,
信息论基础教程(书配套)
BUPT Press
2. 确定性: . 确定性: 在概率矢量中,只要有一个分量为1,其它分量必为0,它们对熵 的贡献均为0,因此熵等于0。也就是说确定信源的不确定度为0。 3. 非负性:H (p) = H ( p1 , p2 ,L , pq ) ≥ 0 . 非负性: 对确定信源,等号成立。信源熵是自信息的数学期望,自信息是 非负值,所以信源熵必定是非负的。 4. 扩展性: lim H q +1 ( p1 , p2 ,L , pq − ε,ε ) = H q ( p1 , p2 ,L , pq ) . 扩展性: ε →0 这个性质的含义是增加一个基本不会出现的小概率事件,信源的 熵保持不变。 5. 连续性: lim H ( p1 , p2 ,L , pq −1 − ε, pq + ε ) = H ( p1 , p2 ,L , pq ) 连续性: ε →0 即信源概率空间中概率分量的微小波动,不会引起熵的变化。
BUPT Press
信源所含有的信息量 信息量定义为信源发出的所有可能消息的平均不确 信息量 定性,香农把信源所含有的信息量称为信息熵 信息熵。自信息的统计平 信息熵 均定义为信源熵 信源熵,即 信源熵
H ( X ) = −∑ p( xi ) log p( xi )
i =1 q
这里的q表示信源消息的个数。信息熵表示信源的平均不确定性 的大小,同时表示信源输出的消息所含的平均信息量。因此,虽 然信源产生的消息可能会含有不同的信息量。 在收信端,信源的不确定性得到了部分或全部的消除,收信者就 得到了信息。信息在数量上等于通信前后“不确定性”的消除量 (减少量)。
互信息 I ( xi ; y j )是已知事件 y j后所消除的关于事件 xi 的不确定性, xi I ( xi ) 它等于事件 本身的不确定性 减去已知事件 后对y j 仍然 xi 存在的不确定性 I ( xi | 。j ) y 互信息的引出,使信息得到了定量的表示,是信息论发展的一个 重要的里程碑。
第3讲_信源及其信息量2_平均互信息
举例 某地二月份天气构成的信源为:
x (晴), x2 (阴), x3 (雨), x4 (雪)⎫ ⎡ X ⎤ ⎧ 1 ⎪ ⎪ =⎨ 1 1 1 1 ⎬ ⎢P( X )⎥ , , ⎣ ⎦ ⎪ 2, 4 8 8 ⎪ ⎩ ⎭
收到消息 y1:“今天不是晴天” 收到 y1 后:p(x1/y1)=0, p(x2/y1)=1/2, p(x3/y1)=1/4,p(x4/y1)=1/4
2011-3-4
Department of Electronics and Information, NCUT
Song Peng
第10页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量 互信息量定义:
互信息量:yj 对 xi 的互信息量定义为后验概率与先验概率比 值的对数。
Song Peng
第8页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量 互信息量定义:
信源 X、信宿 Y 的数学模型为:
x2 , …, xi , …, xn ⎫ ⎡ X ⎤ ⎧ x1 , ⎢ P( X )⎥ = ⎨ p( x ), p( x ), …, p( x ), …, p( x )⎬ ⎣ ⎦ ⎩ 1 i n ⎭ 2 0 ≤ p( xi ) ≤ 1,
Song Peng
第16页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量
互信息量的三种不同表达式 观察者站在通信系统总体立场上
▼ 通信前:输入随机变量 X 和输出随机变量 Y 之间没有任
信息论基础及应用第2章 信源及其信息的统计度量(1)_2.1~2.3
2.1.3 信源的分类
◆离散序列信源(N 次扩展信源): 以离散单符号信源相续输出的 N 个符号为基础, 组成一个符号序列来表示的新信源
◆离散序列信源使用 N 维离散型随机序列(随机矢量)描述。 N 为有限正整数,或可数的无限值。
2.1.3 信源的分类
◆ 离散序列信源的表示为: X ( X1, X2, , X N )
2.1.3 信源的分类
2.离散无记忆序列信源
例 掷 3 次骰子,记录每一次的结果为: ai1 , ai2 , ai3 每一次的实验的取值为 1,2,3,4,5,6。
将符号序列 i (ai1 ,ai2 ,ai3 ) 看做 3 个分量的新信源符号。
共有 63=216 种符号序列,组成符号序列的离散信源。 第一序列的出现概率为:1/216。
1 P(1
)
(0 P(i ) 1,
2 P(2 )
rN P(
r
N
)
rN
P(i ) 1)
i 1
2.1.3 信源的分类
◆ 离散无记忆序列信源:信源发出的符号序列中的各个符号 之间没有统计关联性的离散序列信源。
也称离散无记忆信源的 N 次扩展信源。 ◆平稳信源:输出符号的概率分布与时间起点无关的信源。 ◆非平稳信源:输出符号的概率分布与时间起点有关的信源。 ◆离散无记忆序列信源的联合概率分布满足
◆有记忆信源的输出可能达到无限长,不利于研究。 提出一类有限记忆、定长记忆、记忆是邻近的离散信源,即
◆马尔可夫信源:某一符号出现的概率只与前面一个或有限个 符号有关,而不依赖更前面的那些符号。
◆平稳信源:发出的符号序列的概率分布(概率、条件概率) 与时间起点(推移)无关。
2.1.3 信源的分类
第2章:信源及其信息量1
其中:0≤p(xiyj)≤1 (i=1,2,…,n; j=1,2, …,m),
p( x y ) 1
i 1 j 1 i j
n
m
则联合自信息量为:
1 I ( x i y j ) log 2 p( x i y j )
② 联合自信息量
当 X 和 Y 相互独立时,p(xiyj)=p(xi) p(yj)
用概率测度定义信息量:设离散信源 X,其概率空间为:
X x1 P ( X ) p( x ), 1 x2 , xn p( xn )
p( x2 ) ,
如果知道事件 xi 已发生,则该事件所含有的自信息定 义为: 1
I ( xi ) log
p( xi )
(1) 自信息量 (2) 联合自信息量 (3) 条件自信息量
① 自信息量 信息量的直观定义:
收到某消息获得的信息量=不确定性减少的量 =(收到此消息前关于某事件发生的不确定性) -(收到此消息后关于某事件发生的不确定性)
不确定性与发生概率
事件发生的概率越小,我们猜测它有没有发生的困难程
度就越大,不确定性就越大。
单符号离散信源:只涉及一个随机事件,可用随机变量描 述。
扩展信源/多符号离散信源:每次输出是一个符号序列,
序列中每一位出现哪个符号都是随机的,而且一般前后符 号之间是有依赖关系的。可用随机矢量描述。
② 连续信源:输出连续消息。可用随机过程描述。
单符号离散信源数学模型
单符号离散信源的数学模型:
X x1 P ( X ) p( x ), 1 x2 , p( x2 ) , xn p( xn )
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2.2.2
离散集的平均自信息量
⑴ 平均自信息量(熵) 人们注意的是整个系统的统计特性,当信源各个消息的出现概率 相互统计独立时,这种信源称为无记忆信源,无记忆信源的平均自 信息量定义为各消息自信息量的概率加权平均值(统计平均值), 即平均自信息量H(X)定义为:
(2)非负性:H(X) 0 (3)确定性:在集合X = (x1,x2,…,xN)中,若有一个 事件是必然事件,则其余事件必为不可能事件,即该集合的 概率分布为 x x x x
1 0
2 i
0
1
0
N
(4)可加性:
集合X = {x1,x2,…,xi,xi+1,…,xN}的概率分布为:
x 2 xi xi 1 x N x1 p( x ) p( x ) p( x ) p( x ) p( x ) 2 i i 1 N 1
则下式成立:
H(X)= H(x1,x2,…,xi,xi+1,…,xN)
pi pi 1 H ( x1 , x2 ,, xi 1 , xi xi 1 , xi 2 ,, xN ) ( pi pi 1 ) H ( , ) pi pi 1 pi pi 1
⑵.平均互信息量
定义xi ∈ X和yj ∈ Y之间的互信息量为I(xi ;yj ),在集合X上对 I(xi ;yj )进行概率加权统计平均,可得I(X;yj)为:
I ( X ; y j ) p xi y j I ( xi ; y j ) p xi y j log
i i
p ( xi y j ) p ( xi )
x1 1
熵H(X4) = - 0 log 0 –1 log 1 = 0 计算结果说明确定事件的熵为零 (5) 信源五:一般情况下,二元信源的概率分布为
H 2(δ )
1 X 5 0 q( X ) 1 5 熵 H(X) = –δ log δ -(1-δ )log(1-δ ) 记H2(δ ) = –δ log δ -(1-δ )log(1-δ ) H2(δ )与δ 的关系如图2-2所示。
⑷平均互信息量与信源熵、条件熵的关系 I(X;Y)= H(X)-H(X︱Y)
I(X;Y)= H(Y)-H(Y︱X)
I(X;Y)= H(X)+ H(Y)- H(XY )
I X ; Y
H X Y
H Y X
它们之间 的关系可 以用维拉 图表示
H X
H Y
H X , Y
针对信源X某一单个消息或符号
ai
I (ai ) log p(ai )
【例2.1】若盒中有6个电阻,阻值为1Ω 、2Ω 、3Ω 的分别 为2个、1个、3个,将从盒子中取出阻值为iΩ 的电阻记为事 件 x i (i = 1,2,3),则事件集X = {x1, x2, x3},其概率 分布 x x x
第2章 离散信源及其信息熵
内容提要: 根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要研究离散信源下各种信息的定量计算 ,讨论它们的性质和相互关系。
2.1 信源基本分类及其数学模型
在通信系统中,收信者在未收到信息以前, 对信源发出什么样的消息是不确定的,是随机的, 所以可以用随机变量、随机矢量或随机过程来描 述信源输出的消息,或者说用一个样本空间及其 概率测度来描述信源。 不同的信源根据其输出消息的不同的随机性 质进行分类。
i j i j i j i j i j
p( xi y j )
从通信角度来看: 若将X = {x1,x2,…,xi,…}视为信源输出符号; Y = {y1,y2,…,yj,…}视为信宿接收符号; 从通信角度来看,H (X︱Y)是收到确定消息yj后,由 于信道干扰,关于发送的是否为xi仍具有的疑义度, 故称H (X︱Y)为疑义度(损失熵)。 存在以下两种极端情况:
H X
q( x )I ( x ) q( x ) log q( x )
i i i i i i
H(X)的表达式与统计物理学中的热熵具有相类似 的形式,在概念上二者也有相同之处,故借用熵
这个词把H(X)称为集合X的信息熵,简称熵。
【例2.3】计算下列信源的熵
x1 (1)信源一: X 2 x0 q ( X ) 0.99 0.01 2
(1)对于无噪信道H (X︱Y) = 0 (2)在强噪声情况下,收到的Y与X毫不相干 ,可视为统计独立,H (X︱Y) = H (X)
从通信角度来看,H (Y︱X)是发出确定消息xi后,由 于信道干扰而使yj存在的平均不确定性,称H (Y︱X) 为噪声熵(散布度)。 存在以下两种极端情况: (1) 对于无扰信道,有H (Y︱X) = 0。
再将式对集合Y进行统计平均,就可以得到平均互信息量
I X ; Y p( xi y j ) I ( xi ; y j ) p( xi y j ) log
i j i j
p( xi y j ) p( xi ) p( y j )
当X,Y统计独立时,I(xi ;yj )= 0,从而I(X ; Y)= 0
维拉图
从通信的角度来讨论 平均互信息量I(X ; Y) 的物理意义
由第一等式I(X;Y)= H(X)-H(X︱Y)看I(X;Y)的物理意义
设X为发送消息符号集,Y为接收符号集,H(X)是输入集的平均 不确定性,H(X︱Y)是观察到Y后,集X还保留的不确定性,二 者之差I(X;Y)就是在接收过程中得到的关于X,Y的平均互信息量。 对于无扰信道,I(X ; Y)=H(X)。
0 0.5 1 δ 图 2-2 H2(δ )与δ 关系
⑵.平均条件自信息量(条件熵) 若事件xi, yj的联合分布概率为p(xi yj ),给定yj条 件下事件xi的条件自信息量为I (xi︱yj),则H (X ︱Y) 定义为:
H(X Y)
p(x y )I (x y ) p(x y ) log
2 平均互信息量的性质
(1)
非负性: I X ; Y 0
I(X ; Y)= I(Y ; X)
(2) 互易性: 由 I X ;Y
i j
p( xi y j ) log
p( xi y j ) q( xi ) ( y j )
的对称性可得到。
(3)
I X ;Y H X I X ; Y H Y
x1 x2 x3 X 3 x0 (3)信源三: 等概信源 0.25 0.25 0.25 0.25 q ( X 3 ) 熵 H(X3) = -4×0.25 log 0.25 = log4 = 2(比特/符号)
(4)信源四: 信源为确定事件
X 4 x0 q( X ) 0 4
。
I ( xi ; y j ) I ( xi ) I ( xi y j ) log
p ( xi y j ) p ( xi )
称上式为事件xi和事件yj之间的互信息量。 注:式I(xi ;yj ) 和式I(xi,yj )的区别在于: 前者是事件xi∈X和事件yj∈Y之间的互信息量, 后者是二维空间XY 上元素xi yj 的自信息量。
X 1 q( X ) 1 3
2
1 6
1 2
3
计算出各事件的自信息量列表2-1如下:
消息xi 概率分布q (xi) 自信息量I (xi)
x1 1/3 log 3
x2 1/6 log 6
x3 1/2 log 2
自信息量I(ai)代表两种含义:
1.事件ai发生以前,表示事件发生的先验不确定性
?思考题:
若有6行8列的棋方格看,现有A,B两个质点分别以 等概率落入方格内,但两质点不能落入同一格内 ,若A,B是可分辨的,求A,B同时落入的平均自信 息量。
2.2.3 互信息量
⑴.互信息量 从通信的角度引出互信息量的概念 信源符号X={x1,x2,…,xI} ,xi∈{a1,a2,…,ak},i = 1, 2 ,…, I。 经过信道传输,信宿方接收到符号 Y = {y1,y2,…,yJ},yj∈{b1,b2,…,bD},j = 1, 2, …,J。 {x1,x2,…xI} {y1,y2,…yJ}
2.当事件ai发生以后,表示事件ai所能提供的最大 信息量(在无噪情况下)
联合自信息量
二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为:
I ( xi y j ) log p( xi y j )
条件自信息量
在已知事件yj条件下,随机事件xi发生的概率为条件概 率p(xi︱yj),条件自信息量 I ( xi y j )定义为:
1、离散信源 数学模型如下:
X a1 P p 1
a2 p2
... ...
xq pn
p
i 1
q
i
1
集合X中,包含该信源包含的所有可能输出 的消息,集合P中包含对应消息的概率密度,各 个消息的输出概率总和应该为1。
例:天气预报 无记忆信源 X的各时刻取值相互独立。
熵 H(X1) =-0.99 log 0.99 - 0.01 log 0.01 = 0.08(比特/符号)
(2)信源二:等概信源
X 2 x0 x1 q( X ) 0.5 0.5 2
熵 H(X2) = - 0.5 log 0.5 - 0.5 log 0.5 = 1(比特/符号)