第二章信源信息熵
第二章 信源熵
英文字母中“e”出现的概率为0.105,“c” 出现的概率为0.023,“o”出现的概率为 0.001,分别计算他们的自信息量。 答:I(e)=-logP(e)=-log0.105=3.25bit I(c)=-logP(c)=-log0.023=5.44bit I(o)=-logP(o)=-log0.001=9.97bit
H ( X | y j ) p( xi | y j )I ( xi | y j )
i
给定集合Y条件下,集合X的条件熵H(X|Y) 为: H ( X | Y ) p( y ) H ( X | y )
j
j
= p( y j ) p( xi | y j )I ( xi | y j )
I ( xi ) I ( y j )
性质:
非负值 当事件相互独立时,联合自信息量为各自信息量之 和
三 条件自信息
1 定义:条件概率对数的负数。 2 事件Xi以时间Yj发生为条件,其条件密度为 P(Xi|Yj),则其条件自信息量为 I(Xi|Yj)=-logP(Xi|Yj)。 3 性质:非负值
i 1 4
⑤
数学性质分析: 以二元信号源为例。信源分别以概率p,q输 出符号“0”,“1”,p+q=1。信源的概率空 间为: X 0 1 P p q
H ( X ) p( xi ) log p( xi ) p log p q log q
X a1 P p 1 a2 p2 ... ... aq pn
信息量:信息的定量表示 信源熵:
物理熵:无序程度的度量,描述系统特征,如 热力学熵。 信息熵:随机事件的不确定度,描述系统的统 计特征。 信源熵:信源发出消息的不确定度。
第二章信源及信源的熵
Pij的性质: Pij ( m, n ) 0,i, j S
Pij (m, n ) 1,
jS
i S
17
齐次马尔可夫信源的状态转移概率: 齐次:状态转移概率与时间无关
{
无记忆信源 有记忆信源
(1)单符号信源和符号序列信源 前述各离散或连续信源都是单符号信源----信源(试验) 每次发出一个符号(消息的长度为1)。 更多信源输出的消息需要用多个符号(即符号序列)来表示 ,如:随机取球试验,一次取两个球。多少种消息?
8
3种消息:“红红”、“白白”、“红白或白红”;用符号序 列表示 个消息。这种信源称为符号序列信源。 (2)符号序列信源用多维随机变量(随机矢量或随机序列)及 其概率空间来描述。如上面的离散符号序列信源:
7
X [0,1.5] pX (x) pX (x)
任意连续信源 的数学模型为
1.5
,
pX (x)d x 1
0
X [a,b] p X (x) p X (x)
b
,
a
pX (x)d x 1
2、按照信源发出的符号之间的关系分类: 信源
香农第二章信源及信源熵第一节信源的描述和分类第二节离散信源熵和互信息第二节离散信源熵和互信息3第三节连续信源的熵和互信息第四节离散序列信源的熵第五节冗余度第一节信源的描述和分类一消息的统计特征香农信息论运用概率论和随机过程的理论来研究信息
复
1、信息的定义:
习
信息是指各个事物运动的状态及状态变化的形式。 是事物运动状态或存在方式的不确定性的描述。 2、信息论的定义 关于信息的本质和传输规律的科学理论,是研究信息的度 量、发送、传递、交换、接收和储存的一门新兴学科。它为 各种具体的信息技术提供理论依据,而信息技术则以此为根 据去研究如何实现、怎样实现的问题。 3、信息、消息和信号的关系:
2-2 第2章 信源熵及其基本性质和定理
2.1.3 2.1.4 2.1.5 2.1.6
信源熵的基本性质和定理 加权熵的概念及基本性质 平均互信息量 各种熵之间的关系
1
自信息量不能作为信源的信息测度
自信息量 I ( xi ), i = 1,2,... 是指某一信源X发出某一信 息符号 x i 所含有的信息量。发出的信息符号不同, 它们所含有的信息量就不同。
晴 地域A 1/2 地域B 1/2 多云 1/4 1/8 雨 1/8 1/8 冰雹 1/8 1/4
H(A) = H(B) =1.75bit 1 1 2 = log 2 + log 4 + log 8 2 4 8
17
熵函数的性质—— 2. 非负性 熵函数的性质
非负性
H(X ) = H[ p(x1), p(x2 ),L, p(xn )] H(X ) = −∑p(xi ) log p(xi ) ≥ 0
信源熵与平均自信息量数值相等,含义不同
信源熵表征信源的平均不确定度; 平均自信息量是消除信源不确定度所需要的信 息的度量;
信源熵H(X)的三种物理含义:
表示信源输出后,每个离散消息所提供的平均 信息量; 表示信源输出前,信源的平均不确定度; 反映了变量X的随机性。
9
条件熵
定义 2.1.7 联合集XY上,条件自信息量I(x|y)的 概率加权平均值定义为条件熵。其定义式为
f α X 1 + (1 − α ) X 2 < α f ( X 1) + (1 − α ) f ( X 2) ( X 1 ≠ X 2)
则称f(X)为定义域上的下凸函数(Cup型函数)或严格下凸函数。 f(x)是上凸函数 是上凸函数, f(x)便是下凸函数 反过来也成立。 便是下凸函数, 若f(x)是上凸函数,则-f(x)便是下凸函数,反过来也成立。故, 通常只需研究上凸函数
第二章 信源和信息熵
第二章 信源和信息熵
2.1 信源的数学模型及分类
通信系统模型及信息传输模型:
第二章 信源和信息熵
一、离散无记忆信源
例:扔一颗质地均匀的正方体骰子,研究其下落后, 朝上一面的点数。每次试验结果必然是1点、2点、3点、 4点、5点、6点中的某一个面朝上。每次试验只随机出 现其中一种消息,不可能出现这个集合以外的消息, 考察此事件信源的数学模型。
• 平均符号熵就是信源符号序列中平均每个信 源符号所携带的信息量。
• 条件熵≤无条件熵;条件较多的熵≤条件较少 的熵,所以:
第二章 信源和信息熵
离 散 平 稳 信 源 性 质(H1(X)<∞时):
• 条件熵随N的增加是递减的; • 平均符号熵≥条件熵; • 平均符号熵HN(X)随N增加是递减的; • 极限熵
且:I(X1;X2)=I(X2;X1)
第二章 信源和信息熵
注意:任何无源处理总是丢失信息的,至多保持原来 的信息,这是信息不可增性的一种表现。
二、离散平稳信源的极限熵 设信源输出一系列符号序列X1,X2, ‥XN 概率分布: 联合熵:
定义序列的平均符号熵=总和/序列长度,即:
第二章 信源和信息熵
即:收信者所获得的信息量应等于信息传输前 后不确定性的减少的量。
例:设一条电线上串联8个灯泡,且损坏的可 能性为等概,若仅有一个坏灯泡,须获知多少 信息量才可确认?
第二章 信源和信息熵
例解:
测量前,P1(x)=1/8,存在不确定性: I(P1(x))=log8=3bit
第一次测量获得信息量: 第二次测量获得信息量: 第三次测量获得信息量: 每次测量获得1bit信息量,需三次测量可确定坏灯泡
例:运用熵函数的递增性,计算熵函数 H(1/3,1/3,1/6,1/6)的数值。
第2章 信源熵 第1讲 自信息量 与 互信息量
余 映 云南大学
17/38
计算举例
• 对于 2n 进制的数字序列, 假设每一符号的出现完 全随机且概率相等,求任一符号的自信息量。 解:设任一码元 xi 出现概率为 p(xi),根据题意, p(xi) = 1/ 2n I (xi) = –log(1/ 2n) = n (bit) • 事件的自信息量只与其概率有关,而与它的取值 无关。
余 映 云南大学
18/38
信息量与不确定性的关系
• 信源中某一消息发生的不确定性越大,一旦它发生,并为 收信者收到后,消除的不确定性就越大,获得的信息也就 越大。 • 由于各种原因(例如噪声太大),收信者接收到受干扰的 消息后,对某信息发生的不确定性依然存在或者一点也未 消除时,则收信者获得较少的信息或者说一点也没有获得 信息。
余 映 云南大学 21/38
信息量与不确定性的关系
• 自信息量和不确定度的含义又有区别
– 不确定度只与事件的概率有关,是一个统计量,在静 态状态下也存在; – 自信息量只有该随机事件出现时才给出,不出现时不 给出,因此它是一个动态的概念。
余 映 云南大学
22/38
自信息的含义
• 在事件 xi 发生前:表示事件 xi 发生的不确定性。 • 在事件 xi 发生后:表示事件 xi 所提供的信息量。
余 映 云南大学
19/38
信息量与不确定性的关系
• 信息量的直观定义:
收到某消息获得的信息量=不确定性减少的量 =(收到此消息前关于某事件发生的不确定性) -(收到此消息后关于某事件发生的不确定性) • 在无噪声时,通过信道传输,可以完全不失真地收到消息, 收到此消息后关于某事件发生的不确定性完全消除,此项 为零。因此得 收到某消息获得的信息量 =收到此消息前关于某事件发生的不确定性 =信源输出的某消息中所含有的信息量
第2章信源与信息熵
7
称为符号x 的先验概率,信源数学模型表示为: 称为符号 i的先验概率,信源数学模型表示为:
X x1 P = p( x ) 1 x2 p( x 2 ) x3 L p( x 3 ) L xn p( x n )
n
称为概率空间, 称为概率空间,其中
长江大学电信学院
长江大学电信学院
12
X
概率论知识复习
1)条件概率
p ( xi | y j ) = p ( xi y j ) p( y j ) , p ( y j | xi ) = p( xi y j ) p( xi )
13
2)联合概率
p ( xi y j ) = p ( y j ) p ( xi | y j ), p( xi y j ) = p ( xi ) p ( y j | xi )
16
长江大学电信学院
X
2.2 离散信源熵和互信息
如果信源具有更多的消息,例如发10个 【例2.3 】如果信源具有更多的消息,例如发 个 数字0,1…..9(例如采用 位十进制树的中文电报 , 例如采用4位十进制树的中文电报 数字 例如采用 位十进制树的中文电报), 而且假定这是个消息是等概率分布的,均为0.1, 而且假定这是个消息是等概率分布的,均为 , 这时信宿仅凭猜测的话,就更难猜了。 这时信宿仅凭猜测的话,就更难猜了。因为信源 发送什么消息更加不确定。 发送什么消息更加不确定。 现在讨论一种极端的情况, 【例2.4 】现在讨论一种极端的情况,信源只发送 一种消息,即永远只发送1或者只发送 或者只发送0, 一种消息,即永远只发送 或者只发送 ,从这样 的信源中我们就不能从中获取任何信息, 的信源中我们就不能从中获取任何信息,也就是 说信源的不确定性为0。 说信源的不确定性为 。
第2章信源及信源熵
续
3、确定性
只要信源符号集中有一个符号出现的概率为1,那么信源熵 就等于零。
H(1 , 0 ) = H(1 , 0 , 0 ) = H(1 , 0 , 0 ….0 ) = 0 确知事件,不存在不确定度,则H(X ) = 0
2、对称性 当变量P的顺序任意互换后, H(X)的值不变,即H(P1 , P2 , P3 …. Pn ) = H(P2 , P3 , P4 …. Pn , P1 ) 该性质表明:信源熵只与随机变量的总体结构有关,即与信 源的总体统计特性有关。 如果两个信源的总体统计特性相同(含有的符号数和概率分 布相同),那么两个信源就是相同的。
熵的性质
1、非负性 2、对称性 3、确定性 4、可加性 5、极值性 6、H(X/Y) ≤ H(X); H(Y/X) ≤ H(Y) 7、H(XY) ≤ H(X) + H(Y)
续
1、非负性 离散信源熵的值不会小于0,即 H(X) ≥ 0。 只有当随机变量是一个确知量(P(xi) = 1)时等号才成立。
信源熵H(X) 是从平均意义上来表征信源的总 体特征,可以表示信源的平均不确定度。
对于特定的信源(即概率空间给定),其信源 熵是一个确定的数值,不同的信源因统计特性 不同,其熵也不同。
例
通过例子了解信息熵的含义:
一个布袋内放100个球,其中80个为红球,20个为白球, 任摸取一个,猜测是什么颜色。
X
=
x1
x2
P
0.8 0.2
如果摸出红球,那么这一事件的自信息量为:
I (x1) = -log P (x1) = -log 0.8 bit
如果摸出白球,那么这一事件的自信息量为:
I (x2) = -log P (x2) = -log 0.2 bit
第2章 信源与信息熵-1
联合自信息、条件自信息与自信息间 的关系
I(xiyj )=- log2p(xi)p(yj|xi)= I(xi)+I (yj|xi)
16
【例2.1 】某二元信源(含有两个不同消息的信源)发 送1的概率0.99,0的概率0.01,信宿仅凭猜测就可以简 单的认为信源发出的消息始终都是1,即使如此,猜错 的概率仅为百分之一。这说明在这种情况下,信源基 本上在发送1,信源的不确定性很小。 【例2.2 】某二元信源发送1和0的概率相等,均为0.5, 这时信宿不依赖通信仅凭猜测的话,猜错的概率高达 50%。这说明在这种情况下,猜测信源发送什么消息 就困难了,因为信源发送什么消息相当不确定。
X 0 1 0 1 p p P 0 1 / 2 1 / 2 1
8
单个连续信源
X (a, b) p ( x) P X
pX(x)为随机变量X的概率密度函数
b
a
p X ( x) 1
19
二、自信息量
1) 定义:一个符号消息 xi 的自信息量为其发生概率的 对数的负数,并记为 I(xi); I (xi) = -log p(xi) 当p(xi)=0,则 I(xi)→∞;当p(xi)=1,则 I(xi)=0. 2) 自信息量的单位 自信息量的单位与所用对数的底有关:
1º对数的底是2 时,单位为比特 — bit(binary unit) 2º对数的底是 e (自然对数)时,单位为奈特
第二章
信源与信息熵
本章内容
• 信源的分类及基本的信源数学模型描述、自信息 和信息熵的定义及性质、互信息的概念及性质、 信源冗余度的描述等。
本章重点
• 理解信源不确定性的含义,熵函数H(X)的性质、 平均互信息量的定义、性质,联合信源的联合熵、 条件熵,离散平稳信源的信源熵、极限熵等概念 和计算方法。 • 了解马尔可夫信源的定义和计算方法。
第二章信源与信息熵
第二章信源与信息熵主要内容:(1)信源的描述与分类;(2)离散信源熵和互信息;(3)离散序列信源的熵;(4)连续信源的熵和互信息;(5)冗余度。
重点:离散/连续信源熵和互信息。
难点:离散序列有记忆信源熵。
说明:本章内容主要针对信源,但是很多基本概念却是整个信息论的基础,所以安排了较多课时。
由于求熵涉及一些概率论的基础知识,考虑到大四的同学可能对这部分知识已经遗忘,故适当复习部分概率论知识。
较难的 2.1.2节马尔可夫信源部分放置在本章最后讲,便于同学理解。
本章概念和定理较多,比较抽象,课堂教学时考虑多讲述一些例题,通过例题来巩固概念和消化定理。
作业:2.1—2.7,2.10,2.12。
课时分配:10课时。
板书及讲解要点:在信息论中,信源是发出消息的源,信源输出以符号形式出现的具体消息。
如果符号是确定的而且预先是知道的,那么该消息就无信息而言。
只有当符号的出现是随机的,预先无法确定,一旦出现某个符合就给观察者提供了信息。
因此应该用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息,这就是香农信息论的基本点。
2.1 信源的描述与分类在通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的,所以可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度——概率空间来描述信源。
信源:产生随机变量、随机序列和随机过程的源。
信源的基本特性:具有随机不确定性。
信源的分类离散信源:文字、数据、电报——随机序列连续信源:话音、图像——随机过程离散信源:输出在时间和幅度上都是离散分布的消息。
消息数是有限的或可数的,且每次只输出其中一个消息,即两两不相容。
发出单个符号的无记忆信源离散无记忆信源: 发出符号序列的无记忆信源离散信源离散有记忆信源: 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源概率论基础:无条件概率,条件概率和联合概率的性质和关系:(1) 非负性0()()(/)(/)()1i j j i i j i j p x p y p y x p x y p x y ≤≤,,,, (2) 完备性111111()1,()1,(/)1,(/)1,()1n m nijiji j i mm nji i j j j i p x p y p x y p yx p x y ===========∑∑∑∑∑∑11()(),()()n mijjijii j p x y p y p x y p x ====∑∑(3) 联合概率()()(/)()(/)()()()(/)()(/)()i j i j i j i j i j i j j i j i j i p x y p x p y x p y p x y X Y p x y p x p y p y x p y p x y p x =====当与相互独立时,,(4) 贝叶斯公式11()()(/)(/)()()i j i j i j j i nmijiji j p x y p x y p x y p y x p x y p x y ====∑∑,2.1.1 无记忆信源:例如扔骰子,每次试验结果必然是1~6点中的某一个面朝上。
第二章信源与信息熵
I ( X ; Y ) p( yj ) I ( X ; yj ) p( xiyj ) log
p( xi / yj ) p( xi )
I(X;Y)=H(X)-H(X/Y);I(Y;X)=H(Y)-H(Y/X)=I(X;Y).
• 3.疑义度或损失熵
条件熵H(X/Y)信道上的干扰和噪声所造成的对信源符号x的平均不确定度.
X 0 P p
二元信源熵为
1 q
H (X ) p log p q log q p log p (1 p ) log(1 p ) H ( p)
信源信息熵H(X)是概率p的函数,通常用 H(p)表示。函数曲线如图
i i
I ( xi) 0; P( xi) 0;0 p( xi) 1
H(X ) 0
• 2.信源熵:表征信源的平均不确定度. 3.平均自信息:平均每个信源符号所能提供的信息 量.大小与信源熵相同.
• 例2.2.3二元信源是离散信源的一个特例。该信源X输出符号只 有两个,设为0和1。输出符号发生的概率分别为p和q,p+q=1。 即信源的概率空间为可得二元信源熵为
2.概率空间
一个离散信源发出的各个符号消息的集合 例如:
X={x1,x2,…,xn}
它们的概率分别为 P={p(x1),p(x2),…,p(xn)} p(xi)称为符号xi的先验概率。 把他们写到一起就是概率空间:
X x1 P p( x1)
x2
n
...xn
xiyi 所包含的不确定度在数值上也等于它们的自信息量。
4.条件自信息量:当二者不独立 在给定y条件下,随机事件x所包含的不确定度在数值 上与条件自信息量相同,但两者含义不同。
第 2 章 信源与信息熵
一般情况下,信源在不同时刻发出的符号之间是相 互依赖的,即信源输出的平稳随机序列 X 中,各随机变 量 X l 之间是有依赖的。
例如在汉字组成的中文消息中,前后文字的出现是 有依赖的,不能认为是彼此不相关的,放在L维随机矢 量的联合概率分布中,就必然要引入条件概率分布来说 明它们之间的关联。这种信源即有记忆信源。
第 2 章 信源与信息熵
2.1 信源的描述与分类 2.2 离散信源熵和互信息 2.3 离散序列信源的熵 2.4 连续信源的熵和互信息 2.5 冗余度
概率论基础
无条件概率、条件概率、联合概率的性质和关系
(1) 0 ≤ p( x i ), p( y j ), p( y j | x i ), p( x i | y j ), p( x i y j )≤1
设信源输出的L维随机序列(随机矢量)为
序列中的随机变量 X l ∈ A ( l =1, 2, …, L ) 信源的概率空间:
??
?
2010-3-30
例:
∵ 序列无记忆
若为平稳随机序列,则
L l=1
这种由信源 X 输出的 L 长随机序列 X 所描述的信 源叫做离散无记忆信源 X 的 L 次扩展信源。
(2)
n
m
n
i
=
p
1
(
x
i
)
=
1
,
∑
j=
p
1
(
y
j
)
=
1
,
∑p
i=1
(
x
i
|
y
j
)
第2章.信源与信息熵
P中第i行元素对应于从某一个状态si 转移到所有状态s j ( s j S )的 第j列元素对应于从所有状态si ( si S )转移到同一个状态s j的转移 概率,列元素之和不一定为1。
29
转移概率。矩阵中的每一行元素都是非负的,且每行之和均为1。
2.1.3 马尔可夫信源
切普曼· 柯尔莫郭洛夫方程 ( k步转移概率pijk )与l (l k )步和k - l步转移概率之间有所谓
表述的复杂度将随着序列长度的增加而增加。 然而实际上信源发出的符号往往只与前若干个符号有较 强的依赖关系,随着长度的增加依赖关系越来越弱,因 此可以根据信源的特征和处理时的需要限制记忆的长度, 使分析简化。
18
2.1.3 马尔可夫信源
马尔可夫信源 当信源的记忆长度为m+1时,该时该发出的符号与前m 个符号有关联性,而与更前面的符号无关。这种有记忆 信源叫做m阶马尔可夫信源,可以用马尔可夫链来描述。
30
2.1.3 马尔可夫信源
切普曼· 柯尔莫郭洛夫方程 由前递推关系式可知,对于齐次马尔可夫链,一步转移 概率完全决定了k步转移概率。 为了确定无条件概率,引入初始概率,令:
第2章 -1信源与信息熵1【单符号离散信源】
1. 离散信源熵 (平均自信息量/无条件熵)
[定义] 自信息量的数学期望为信源的平均信息量,记为:H(X)。
H(X)=E[I(xi)]= –∑p(xi)log2 p(xi)
——平均不确定度的度量、体现: 总体平均
[单位]
二进制:bit/(信源)符号,或bit/(信源)序列 [含义]信息熵具有以下三方面物理含义: ⑴ 表示信源输出前,信源的平均不确定性 ⑵ 表示信源输出后,每个符号所携带的平均信息量 ⑶ 表示信源的的随机性(不同的信源有不同的统计特性) 信息熵的意义: 信源的信息熵是从整个信源的统计特性来考虑的。它是从 平均意义上来表征信源的总体特性的。对于某特定的信源, 其信息熵只有一个。不同的信源因统计特性不同,其信息熵 也不同。
√
(后续章节)
一、概述
⒈ 信息的一般概念 一个人获得消息→消除不确定性→获得信息。 ⒉ 信息度量的定性分析 事件发生的概率越大,不确定性越小,该事件 包含的信息量越小; 事件发生的概率越小,不确定性越大,该事件 包含的信息量越大; 如果一个事件发生的概率为1,那么它包含的 信息量为0; 两个相互独立事件所提供的信息量应等于它们 各自提供的信息量之和。
2.2.1
自信息量
1.自信息量 [定义] 若信源发出符号xi,由于信道无干扰,收到的就
第2章_信源与信息熵
其状态变量S=(00,01,10,11)。 其状态变量S=(00,01,10,11)。 求: S=(00
信息论基础C
18
2.2离散信源熵与互信息
信息量
自信息量 联合自信息量 条件自信息量
单符号离散信源熵
符号熵 条件熵 联合熵
信息论基础C
19
2.2.1 自信息量
信息论基础C
20
2.2.1 自信息量
信息论基础C
7
离散无记忆序列信源-布袋实验( ) 离散无记忆序列信源-布袋实验(2)
布袋摸球的实验:若每次取出两个球, 布袋摸球的实验:若每次取出两个球,由两个球的颜色组 成的消息就是符号序列。例如,先取出一个球, 成的消息就是符号序列。例如,先取出一个球,记下颜色后放 回布袋,再取另一个球。 回布袋,再取另一个球。 由于两次取球时布袋中的红球、白球个数没有变化, 由于两次取球时布袋中的红球、白球个数没有变化,第二 个球取什么色与第一个球的颜色无关,是独立的, 个球取什么色与第一个球的颜色无关,是独立的,因而该信源 是无记忆的,叫做发出符号序列的无记忆信源。 是无记忆的,叫做发出符号序列的无记忆信源。
信息论基础C
26
2.2.2 离散信源熵
信息论基础C
27
离散信源熵的引入:
例: 一个布袋内放100个球,其中80个球为红色, 20球为白色。若随机摸取一个球,猜测其颜色。共进行 n次摸取。求平均摸取一次所获得的(自)信息量。 解:x1:表示摸出的球为红球;
信息论基础C
21
自信息量: 自信息量:
对于给定的离散概率空间表示的信源,x=ai事件 所对应的(自)信息为:
1 I ( x i = a i ) = − log p ( x i ) = log p( x i )
第2章信源与信息熵
1. 非负性 2. 对称性
n
pi 1,
i 1
pi 0
(i 1, 2,..., n)
3. 确定性
4. 连续性
5. 扩展性
6. 最大熵定理
7. 条件熵小于无条件熵
熵函数的非负性
H ( X ) H ( p1, p2 , , pn ) 0
0 pi 1, log pi 0
pi log pi 0
i
熵的物理意义
H(X)表示信源发出任何一个消息状态所携带的平均信 息量
也等于在无噪声条件下,接收者收到一个消息状态所获 得的平均信息量
熵的本意为热力学中表示分子状态的紊乱程度 信息论中熵表示信源中消息状态的不确定度 信源熵与信息量有不同的意义
H(X)表示信源X每一个状态所能提供的平均信息量 H(X)表示信源X在没有发出符号以前,接收者对信源的
第2章 信源与信息熵
主要内容 1. 信源的分类与描述 2. 离散信源的信息熵和互信息 3. 离散序列信源的熵 4. 连续信源的熵与互信息 5. 冗余度
2.1 信源的分类与描述
信源的定义
产生消息(符号)、消息序列和连续消息的来源。
信源的基本特性是具有随机不确定性
分类
1. 时间
离散
2. 幅度
离散
3. 记忆
有
பைடு நூலகம்
连续 连续 无
介绍三类信源
➢ 单符号离散信源 ➢ 符号序列信源(有记忆和无记忆) ➢ 连续信源
单符号离散信源
单符号离散信源:用随机变量X来描述
X的概率空间
X p(xi
)
X
x1, p1,
X x2, p2 ,
, X xn
,
pn
信息论与编码 第二章 信源与信息熵
p( X1 , X 2 , X l , X L ) p( X l ) [ p( X )]L
l 1
L
2.1.2 有记忆信源
有记忆信源——在不同时刻发出的符号是相互依赖的。 发出符号序列的有记忆信源 ——每次发出1组含2个以上符号的符号序列来代表一 个消息的信源,且各符号之间是相互依赖的。
即当xi和yi相互独立时,有: I ( xi , y j ) I ( xi ) I ( y j )
2.2.1 自信息量
信源符号不确定度 定义:信源符号不确定度在数量上等于该信源符号的自信 息量。
不确定度与自信息量的区别:
两者的单位相同,但含义却不相同。 不确定度是信源符号固有的,不管符号是否发出; 而自信量是信源符号发出后给予收信者的。为了消除 该符号的不确定度,接收者需要获得信息量。
量化 -1
-2
-3
-4
-5
-6
2.1 信源的描述和分类
信源的分类
按照信源发出的消息在时间上和幅度上的分布情况可 将信源分成离散信源和连续信源两大类 : 离散信源: 文字、数据、电报
信源
{ 连续信源: 话音、图像
离散信源 指发出在时间和幅度上都是离散分布的离散消息的信源, 如文字、数字、数据等符号都是离散消息。 连续信源 指发出在时间和幅度上是连续分布的连续消息(模拟消 息)的信源,如语音、图像、图形等都是连续消息。
信源熵是一个非负量。
2.2.2 离散信源熵
例如有两个信源,其概率空间如下所示,分别求出这 两个信源的信源熵:
X x1 , x2 0 . 99 0 . 01 p ( x )
Y y1 , y2 0 . 5 0 . 5 p( y )
第二章信源及信源熵
p( xi | xi 2 xi 1 xi 1 xi 2 xi m x1 ) p( xi | xi 1 xi 2 xi m ) (i 1, 2, , N )
用概率空间来描述离散信源:
一个离散信源的数学模型就是离散型的概率空间:
X与Y相互独立,无法从Y中提取关于X的 信息。也可以看成信道噪声相当大,以至有
H(X/Y)=H(X) 。在这种情况下,能够传输的
平均信息量为0。称为全损离散信道。
一般情况下,X和Y既非互相独立,也不是一一对
应,那么从Y获得的X信息必在零与H(X)之间,即
常小于X的熵。
0 I ( X ;Y ) H ( X )
当 xi 和 y j 相互独立时,有 p( xi y j ) p( xi ) p( y j ) 于是有 I ( xi y j ) I ( xi ) I ( y j )
条件自信息量:当 xi 和 y j 相互联系时,在事件 y j 出现的条件下,xi 的自信息量称为条件自信息 量,定义为 :
j
/ xi )
H (Y / X ) p( xi ) p( y j | xi ) log p( y j | xi )
j 1 i 1 n
m
n
p( xi y j ) log p( y j | xi )
j 1 i 1
m
H ( X | Y ) - p ( xy ) log p ( x | y )
(2)当事件xi发生以后,表示事件xi所提供的信息量。
一点说明
自信息量的单位取决于对数的底;
底为2,单位为“比特(bit, binary unit)”; 底为e,单位为“奈特(nat, nature unit)”; 底为10,单位为“哈特(hat, Hartley)”或“det”; 根据换底公式得:
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二章信源与信息熵主要内容:(1)信源的描述与分类;(2)离散信源熵和互信息;(3)离散序列信源的熵;(4)连续信源的熵和互信息;(5)冗余度。
重点:离散/连续信源熵和互信息。
难点:离散序列有记忆信源熵。
说明:本章内容主要针对信源,但是很多基本概念却是整个信息论的基础,所以安排了较多课时。
由于求熵涉及一些概率论的基础知识,考虑到大四的同学可能对这部分知识已经遗忘,故适当复习部分概率论知识。
较难的 2.1.2节马尔可夫信源部分放置在本章最后讲,便于同学理解。
本章概念和定理较多,比较抽象,课堂教学时考虑多讲述一些例题,通过例题来巩固概念和消化定理。
作业:2.1—2.7,2.10,2.12。
课时分配:10课时。
板书及讲解要点:在信息论中,信源是发出消息的源,信源输出以符号形式出现的具体消息。
如果符号是确定的而且预先是知道的,那么该消息就无信息而言。
只有当符号的出现是随机的,预先无法确定,一旦出现某个符合就给观察者提供了信息。
因此应该用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息,这就是香农信息论的基本点。
2.1 信源的描述与分类在通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的,所以可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度——概率空间来描述信源。
信源:产生随机变量、随机序列和随机过程的源。
信源的基本特性:具有随机不确定性。
信源的分类离散信源:文字、数据、电报——随机序列连续信源:话音、图像——随机过程离散信源:输出在时间和幅度上都是离散分布的消息。
消息数是有限的或可数的,且每次只输出其中一个消息,即两两不相容。
发出单个符号的无记忆信源离散无记忆信源: 发出符号序列的无记忆信源离散信源离散有记忆信源: 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源概率论基础:无条件概率,条件概率和联合概率的性质和关系: (1) 非负性0()()(/)(/)()1i j j i i j i j p x p y p y x p x y p x y ≤≤,,,, (2) 完备性111111()1,()1,(/)1,(/)1,()1n m nijiji j i mm nji i j j j i p x p y p x y p yx p x y ===========∑∑∑∑∑∑11()(),()()n mijjijii j p x y p y p x y p x ====∑∑(3) 联合概率()()(/)()(/)()()()(/)()(/)()i j i j i j i j i j i j j i j i j i p x y p x p y x p y p x y X Y p x y p x p y p y x p y p x y p x =====当与相互独立时,,(4) 贝叶斯公式11()()(/)(/)()()i j i j i j j i nmijiji j p x y p x y p x y p y x p x y p x y ====∑∑,2.1.1 无记忆信源:例如扔骰子,每次试验结果必然是1~6点中的某一个面朝上。
可以用一个离散型随机变量X 来描述这个信源输出的消息。
⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6/1,6/1,6/1,6/1,6/1,6/1,,,,,)(654321x x x x x x x p X 并满足1)(61=∑=i ix P在实际情况中,存在着很多这样的信源、例如投硬币、书信文字、计算机的代码、电报符号、阿拉伯数字码等等。
这些信源输出的都是单个符号(或代码)的消息,它们符号集的取值是有限的或可数的。
我们可用一维离散型随机变量X 来描述这些信息的输出。
这样的信息称为离散信源。
其数学模型就是离散型的概率空间:⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)()()()(11n i n i x p x p x p x x x x p X ΛΛΛΛ, 0≤p (x i )≤1 1)(1=∑=ni ix pp(x i ):信源输出符号x i (i =1,2,…,n )的先验概率。
当信源给定,其相应的概率空间就已给定;反之,如果概率空间给定,这就表示相应的信源已给定。
所以概率空间能表征这离散信源的统计特性。
上式表示信源可能的消息(符号)数是有限的,只有n 个:x 1 ,x 2 ,… ,x n ,而且每次必定选取其中一个消息输出,满足完备集条件。
这是最基本的离散信源。
有的信源输出的消息也是单个符号,但消息的数量是无限的,如符号集A 的取值是介于a 和b 之间的连续值,或者取值为实数集R 等。
连续信源:输出在时间和幅度上都是连续分布的消息。
消息数是无限的或不可数的,且每次只输出其中一个消息。
我们可用一维的连续型随机变量X 来描述这些消息。
其数学模型是连续型的概率空间()⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)(,x p b a P X X 或⎥⎦⎤⎢⎣⎡)(x p R X , 并满足 ⎰=badx x p 1)(。
p(x)是随机变量X 的概率密度函数。
例如:随机取一干电池,测电压值作为输出符号,该信源每次输出一个符号,但符号的取值是在[0,1.5]之间的所有实数,每次测量值是随机的,可用连续型随机变最X 来描述。
在有些情况下,可将符号的连续幅度进行量化使其取值转换成有限的或可数的离散值.也就是把连续信源转换成离散信源来处理。
很多实际信源输出的消息是由一系列符号组成,这种用每次发出1组含2个以上符号的符号序列来代表一个消息的信源叫做发出符号序列的信源。
需要用随机序列(随机矢量) X =(X 1X 2…X l …X L )来描述信源输出的消息,用联合概率分布来表示信源特件。
例如扔骰子:⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡6/16/16/16/16/16/1101100011010001000)(x p X 符号序列信源是L 为3的情况,此时信源X =(X 1X 2X 3),X l 取={0,1} 离散随机序列X 的样值x 可表示为 x = (x 1…x 1…x L )x ∈ n L = n ×n ×…×n (共L 个),即每个随机变量取值有n 种,那么L 个随机变量组成的随机序列,其样值共有n L 种可能取值。
有时将这种由信源X 输出的L 长随机序列X 所描述的信源叫做离散无记忆信源X 的L 次扩展信源。
其对应的概率为:)|()|()|()()|()|()|()()()(11213121111231211--===L L l L L l x x p x x p x x p x p x x x p x x x p x x p x p x x x p x p ΛΛΛΛΛ 当信源无记忆时: p (x ) = p (x 1x 2…x L )= p (x 1) p (x 2)…p (x L ) =∏=Ll l x p 1)(扩展信源也满足完备性1)(1==∑=nLi ix X p2.1.2有记忆信源一般情况下,信源在不同时刻发出的符号之间是相互依赖的,也就是信源输出的平稳随机序列X 中,各随机变量X l 之间是有依赖的。
如在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相关的。
例如布袋中有100个球,80个红球,20个白球。
先取出一个球,记下颜色后不放回布袋,接着取另一个。
而在取第二个球时布袋中的红球、白球概率已与取第一个球时不同,此时的概率分布与第1个球的颜色有关:若第1个球为红色,则取第二个球时的概率p (a 1)=0.79,p (a 2)=0.2 若第1个球为白色,则取第二个球时的概率p (a 1)=0.8,p (a 2)=0.19即组成消息的两个球的颜色之间有关联件,是有记忆的信源,这种信源就叫做发出符号序列的有记忆信原。
例如由英文字母组成单词,字母间是有关联性的,不是任何字母的组合都能成为有意义的单词,同样不是任问单词的排列都能形成有意义的文章等。
这些都是有记忆信源。
此时的联合概率表示比较复杂,需要引入条件概率来反映信源发出符号序列内各个符号之间的记忆特征)|()|()|()(),,(1112312121x x x p x x x p x x p x p x x x p L L L ΛΛΛ-=表述的复杂度将随着序列长度的增加而增加。
实际上信源发出的符号往往只与前若干个符号有较强的依赖关系,随着长度的增加依赖关系越来越弱,因此可以根据信源的特性和处理时的需要限制记忆的长度,使分析和处理简化。
在实际应用中还有一些信源输出的消息不仅在幅度上是连续的,在时间上或频率上也是连续的,即所谓的模拟信号。
如话音信号、电视图像信号等都是时间连续、幅度连续的模拟信号。
某一时刻的取值是随机的通常用随机过程{x(t)}来描述。
为了与时间离散的连续信源相区别,有时也叫做随机波形信源。
这种信源处理起来就更复杂了。
就统计特性而言,随机过程可分为平稳随机过程和非平稳随机过程两大类,最常见的平稳随机过程为遍历过程。
一般认为,通信系统中的信号都是平稳遍历的随机过程。
虽然受衰落现象干扰的无线电信号属于非平稳随机过程,但在正常通信条件下都近似地当作平稳随机过程来处理。
因此一般用平稳遍历的随机过程来描述随机波形信源的输出。
对于确知的模拟信号可进行采样、量化,使其变换成时间和幅度都是离散的离散信号。
离散信源的统计特性:①离散消息是从有限个符号组成的符号集中选择排列组成的随机序列(组成离消息的信息源的符号个数是有限的)。
一篇汉文,尽管文章优美,词汇丰富,一般所用的词都是从常用 10 000个汉字里选出来的。
一本英文书,不管它有多厚,总是从26个英文字母选出来,按一定词汇结构,文法关系排列起来的。
②在形成消息时,从符号集中选择各个符号的概率不同。
对大量的由不同符号组成的消息进行统计,结果发现符号集中的每一个符号都是按一定的概率在消息中出现的。
例如在英文中,每一个英文字母都是按照一定概率出现的,符号“e”出现最多,“z”出现最少。
③组成消息的基本符号之间有一定的统计相关特性。
每一个基本符号在消息中,通常是按一定概率出现的。
但在具体的条件下还应作具体的分析。
如英文中出现字母h的概率约为 0.04305,这是指对大量文章统计后所得到的字母h出现的可能性;但是,h紧接在t后面的单词特别多,紧接在y后面的单词几乎没有。
也就是说,在不同的具体条件下,同一个基本符号出现的概率是不同的。
因此,做信源统计工作时,不仅需做每个独立的基本符号出现的概率,还须做前几个符号出现后下一个符号为某一基本符号的概率。
一般情况下,常常只考虑在前一个符号出现的条件下,下一个符号为某一基本符号的概率。
2.1.2 马尔可夫信源(马氏链)我们讨论一类相对简单的离散平稳信源,该信源在某一时刻发出字母的概率除与该字母有关外,只与此前发出的有限个字母有关。