信息论与编码第二章信源与信源熵831

合集下载

信息论与编码-第4讲-第2章信源及信息度量(修改最新)

信息论与编码-第4讲-第2章信源及信息度量(修改最新)

1) 如果二进制信源的输出是确定的(p=1),则该信源不提 供任何信息;
2) 当二进制信源符号0和1等概率发生时,信源的熵达到最

大值,等于1比特信息

3) 二元数字是二进制信源的输出。在具有等概率的二进制 信源输出的二进制数字序列中,每一个二元数字提供1比特 的信息量。如果符号不是等概率分布,则每一个二元数字 所提供的平均信息量总是小于1比特。这也进一步说明了 “二元数字”(计算机术语称“比特”)与信息量单位 “比特”的关系。


p(a1|b2)=0.75
p(a2|b1)=0.75

p(a2|b2)=0.25
根据条件熵的计算表达式可得
H(X|Y)=-p(a1,b1) logp(a1|b1)-p(a1,b2) logp(a1|b2) -p(a2,b1) logp(a2|b1)-p(a2,b2) logp(a2|b2) =0.406比特/符号
以熵H(X)≥0;

只有当随机变量是一确知量时,熵H(X)=0。 这种非负性对于离散信源的熵是合适的,但对连续信源来 说这一性质并不存在。
(2) 对称性
① 定义:当变量p(x1),p(x2),…,p(xn) 的顺序任意互换时,熵
函数的值不变,即
H[ p( x1 ), p( x2 ),, p( xn )] H[ p( xi1 ), p( xi2 ),, p( xin )] ,其中i1, i2 ,in 1,2,, n
H ( X ) E[log p (1xi ) ] p( xi ) log p (1xi )
i 1
r
为了求得整个信源所提供的平均信息量,首先
,我们应当了解数学中有关三种不同类型的平均方
法以及它们各自的计算公式。这三种平均方法分别

信息论与编码信源与信息熵

信息论与编码信源与信息熵
或 22 H (X1, X2) p(ai, aj )log p(ai, aj ) 2.41bit / 符号 i0 j0
• 联合熵H(X1,X2)表达平均每二个信源符号所携带 旳信息量。
• 我们用1/2H(X1,X2)作为二维平稳信源X旳信息熵 旳近似值。那么平均每一种信源符号携带旳信
息量近似为:
– 信源符号分布旳不均匀性。 • 等概率分布时信源熵最大。
log 2 n H0 (X ) H1(X ) H2 (X ) H (X )
26
冗余度
• 对于有记忆信源,极限熵为H∞(X)。 • 这就是说我们需要传送这一信源旳信息,理论
上只需要传送H∞(X)即可。但必须掌握信源全 部概率统计特征,这显然是不现实旳。
/
符号
11
• 例:有一离散平稳无记忆信源
求:二次扩展信源旳熵
X p(x)
x1 1
2
x2 1
4
x3 1 4
X2信源 旳元素
相应旳 消息序列
概率p(ai)
a1 a2 a3 a4 a5 a6 a7 a8 a9
x1x1 x1x2 x1x3 x2x1 x2x2 x2x3 x3x1 x3 x2 x3 x3 1/4 1/8 1/8 1/8 1/16 1/16 1/8 1/16 1/16
• 目前后符号无依存关系时,有下列推论:
H(X1X2) H(X1) H(X2)
H (X1 | X 2 ) H (X1), H (X 2 | X1) H (X 2 )
14
离散有记忆信源序列熵
• 信源旳联合熵(即前后两个符号(X1,X2)同步发生 旳不拟定度)等于信源发出前一种符号X1旳信息 熵加上前一种符号X1已知时信源发出下一种符号 X2旳条件熵。

信息论与编码_第2讲_信源及其信息量1_自信息与熵

信息论与编码_第2讲_信源及其信息量1_自信息与熵

某事件发生所含有的信息量应该是该事件发生的先验概率
的函数。
2021/2/9
第13页
2.1.1 离散变量的自信息量
2.1 (3) 自信息量
单 ① 自信息量 符
号 不确定性与发生概率
离 散
函数 f [p(xi)] 应满足以下 4 个条件:
信 源
▼ f [p(xi)] 应是 p(xi) 的单调递减函数:
2.1.1 离散变量的自信息量
2.1 (3) 自信息量
单 ① 自信息量 符
号 不确定性与发生概率
离 散
事件发生的概率越小,我们猜测它有没有发生的困难程度
信 就越大,不确定性就越大。
源 事件发生的概率越大,我们猜测这件事发生的可能性就越
大,不确定性就越小。
概率等于 1 的必然事件,就不存在不确定性。

p( y j ) p( xi / y j )
2021/2/9
第18页
概率复习
2.1 (5) 当X与Y 相互独立时:
单 符
p( y j / xi ) p( y j )
号 离 散
p( xi / y j ) p( xi ) p( xi y j ) p( xi )p( y j )


(6)
p( xi / y j )


1
I( xi / y j ) log2 p( xi / y j )
表示在特定条件下(yj已定)随机事件 xi 所带来的信息量
2021/2/9
第27页
2.1.1 离散变量的自信息量
2.1 (3) 自信息量
单 ③ 条件自信息量 符
号 同理,xi 已知时发生 yj 的条件自信息量为: 离

《信息论与编码》课件1第2章

《信息论与编码》课件1第2章
I(ai)是一个随机变量并不难理解。因为ai发生可以使收 信者获得大小为I(ai)的自信息,然而在信源未发出消息之 前,收信者不仅对ai是否发生具有不确定性,而且对于能 够获得多少自信息也是不确定的。因此,伴随着X=ai的随 机发生而发生的自信息I(ai)是一个随机变量,并且与随机 变量X具有相同的概率分布, 即自信息I(ai)是一个发生概率 为P(X=ai)
如果消息ai已发生,则该消息发生所含有的自信息定 义为
1
1
I (ai ) log P(ai ) log pi
(2.4)
第2章 离散无记忆信源与信息熵
可以很容易地证明, 自信息的定义满足上面提出的四个
(1) 此自信息的定义是根据消息发生的概率建立的一个 工程定义,而不是根据这个消息对人的实际意义而建立的 定义。这一纯粹技术性的定义仅仅抓住了“信息”一词在
(2) 自信息I(ai) 在消息ai发生之前,自信息I(ai)表示ai发生的不确定性; 在消息ai发生以后,自信息I(ai)表示ai所含有的(或提
第2章 离散无记忆信源与信息熵
(3) 在式(2.4)中关于对数的底未作明确规定。这是 因为对数的底仅仅影响到度量的单位,实际中可根据
如果取对数的底为2,则所得信息量的单位为比特 (bit, binary unit),此时logx用lbx
第2章 离散无记忆信源与信息熵
第2章 离散无记忆信源与信息熵
2.1 离散无记忆信源 2.2 自信息和熵 2.3 熵函数的性质 2.4 联合事件的熵及其关系 2.5 连续信源的信息测度 习题2
第2章 离散无记忆信源与信息熵
信息理论的研究对象是以各类信息的获取、表示、 传输和处理为目的的信息系统。图2-1给出了一个典型 的通信系统物理模型。在这样的通信系统中,一个贯 穿始终的、最基本的问题便是信息,即信源输出的是 信息,在系统中传输的是信息,接收者获得的也是信 息。可见,在信息理论的学习和研究中,首先需要对

信息论与编码第二章

信息论与编码第二章

i 1
qN
qq
H ( X N ) p(ai ) log p(ai ) ... p(ai1ai2 ...aiN ) log p(ai1ai2 ...aiN )
iq1 q
i11 iN 1
... p(ai1ai2 ...aiN ) log{p(ai1) p(ai2 )...p(aiN )}
2 p( 2 )
qN p( qN
)
a1a1 a1 p(a1a1 a1
)
a2 a1 a1 p(a2 a1 a1 )
a3a1 a1 p(a3a1 a1 )
aqaq aq p(aq aq aq )
• 离散(lísàn)无记忆N次扩展信源熵为:
• 证明: qN H ( X N ) H ( X 1 X 2 ...X N ) p( i ) log p( i ) NH ( X )
H Nk (X )
1 N k
H(X1 X N X Nk )
1
N k
H ( X 1 X N 1 ) H ( X N | X 1 X N 1 ) H ( X N k | X 1 X N k 1 )
i1 1 iN 1
H ( X 1 ) H ( X 2 | X 1 ) H ( X N | X 1 X 2 X N 1 )
N个分量统计关联的随机矢量 x [x1x2 xN ]的联合
(liáHn(Xh1 éX)熵N )
,等于起始时刻的无条件
熵与各阶条件熵之和,并不随时间的推移而
变化。 精品文档
log p(ai ) log p(b j ) I (ai ) I (b j )
精品文档
自信息(xìnxī)的表达I(a式i ) log[1/ p(ai )]

信息论与编码 第二章 信源与信息熵

信息论与编码 第二章 信源与信息熵
按照信源发出的消息在时间上和幅度上的分布情况可 将信源分成离散信源和连续信源两大类 : 离散信源: 文字、数据、电报
信源
{ 连续信源: 话音、图像
2~3 1~2 0~1 2 1 0
电 压 5~6 4~5 范围 量化 5 4
3~4
3
电 压 -1~0 -2~-1 -3~-2 -4~-3 -5~-4 -6~-5 范围
散无记忆信源。可用一个离散型随机变量X来描述这
个信源输出的消息。
2.1.1 无记忆信源
发出单个符号的离散无记忆信源
可用一个离散型随机变量X来描述这个信源输出的消息。 随机变量X的样本空间就是符号集:
A {a1 , a2 ,, an }
X的概率分布为:
P { p(a1 ), p(a2 ),, p(an )}
2.2.2 离散信源熵
信源熵
——信源的平均不确定度。
H ( X ) E[ I ( X )] p( xi )log p( xi )
i
单位为bit/符号
信源熵是在平均意义上来表征信源的统计特性,它是信源X的函数。
当信源给定,各符号的概率空间就给定,信源熵就是一个确定的值。
不同的信源因概率空间不同而具有不同的信源熵。
无记忆信源
{ 发出符号序列的无记忆信源
发出单个符号的无记忆信源
{
离散 连续
2.1.1 无记忆信源
发出符号序列的信源
——每次发出1组含L个(L≥2)符号的符号序列来代表一 个消息的信源。
需要用随机序列(或随机矢量) X =(X1, X2,…, Xl, …, XL)来描 述信源输出的消息,用联合概率分布p(X1, X2,…, Xl, …, XL)来表 示信源特性。 当L=2时,此时信源为X =(X1, X2) ,其概率空间为:

信息论与编码2-信源及信源熵1

信息论与编码2-信源及信源熵1
9
信息论与编码-信源及信源熵
又例如对离散化的平面图像来说,从 空间上来看是一系列离散的符号,而空间 每一点的符号(灰度)又都是随机的,由此 形成了不同的图像.所以我们可以把一般 信源输出的消息看作为时间或空间上离 散的一系列随机变量,即随机矢量.这样,信 源 描的述输,其出中可N可用为N维有随限机正矢整量数(或x1,可x2,数…的xN)无来 限值.
25
信息论与编码-信源及信源熵
2.2.2 离散信源熵
前面定义的自信息是指某一信源发出某一消 息所含有的信息量.所发出的消息不同,它们所含 有的信息量也就不同.所以自信息I(ai) 是一个 随机变量,不能用它来作为整个信源的信息测度.
我们定义自信息的数学期望为信源的平均信 息量,即
H ( X ) E [ I ( X ) ]p ( x i) I ( x i) p ( x i) lo p ( x i) g
7
信息论与编码-信源及信源熵
离散信源的数学模型就是离散型的概率空间:
X P
x1
p(x1)
x2
xn

p(x2) p(xn)
其中概率p(xi)(i=1,2,…,n)称为符号xi的先验概 率,应满足∑p(xi)=1
它表示信源可能取的消息(符号)只有n 个:x1,x2,…xn,而且每次必定取其中一个.
当xi和yj相互独立时,有p(xi,yj)=p(xi)p(yj) 于是有
I(xi,yj)= I(xi)+ I(yj)
24
信息论与编码-信源及信源熵
条件自信息量: 当xi和yj相互联系时,在事件yj 出现的条件下,xi 的
自信息量称为条件自信息量,定义为 I(xi|yj)=-logp(xi|yj)

信息论与编码_第2章

信息论与编码_第2章
14
2.1信源描述与分类

马尔可夫信源 更一般,经过n-m步后转移至sj的概率
pij (m, n) = P{S n = s j / S m = si } = P{s j / si } pij (m, n) ≥ 0 ∑ pij (m, n) = 1 j
15
2.1信源描述与分类
i
33
2.2离散信源熵与互信息

单符号离散信源熵 定义:对于给定离散概率空间表示的信源所定 义的随机变量I的数学期望为信源的信息熵, 单位为比特/符号
H ( X ) = E[ I ( x)] = −∑ p ( xi ) log p ( xi )
X = x1 x 2 0 . 8 0 . 2 P
32
2.2离散信源熵与互信息
I ( x1 ) = − log 2 p ( x1 ) = − log 2 0.8bit I ( x 2 ) = − log 2 p( x 2 ) = − log 2 0.2bit N次后所获得的信息量为 I = Np ( x1 ) I ( x1 ) + Np ( x 2 ) I ( x 2 ) = (−0.8 log 2 0.8 − 0.2 log 2 0.2) N 平均每次所获得的信息量为 I = p ( x1 ) I ( x1 ) + p ( x 2 ) I ( x 2 ) = ∑ p ( xi ) log p ( xi )
第2章 信源与信息熵

信源描述与分类 离散信源的信息熵和互信息 离散序列信源的熵 连续信源的熵与互信息 冗余度
1
2.1信源的描述与分类


信源是产生消息(符号)、消息序列和连续消 息的来源。从数学上,由于消息的不确定性, 因此,信源是产生随机变量、随机序列和随机 过程的源 信源的基本特性是具有随机不确定性

信息论与编码2-信源及信源熵

信息论与编码2-信源及信源熵
随机英文字母信源,其中每个英文字母出现的概率是固定的。
实例3
随机天气状况信源,其中晴天、雨天、雪天出现的概率分别是0.7、0.2、0.1。
实例1
随机二进制信源,其中每个二进制符号(0或1)出现的概率为0.5。
离散无记忆信源的实例
离散有记忆信源
03
离散有记忆信源是输出符号序列中符号与符号之间存在记忆关系的离散随机序列。
应用场景
广泛应用于网络通信、金融交易、军事通信等领域,保障信息安全和隐私。
加密通信
03
应用景
广泛应用于通信系统、数据存储等领域,如CD、DVD、硬盘等存储设备的纠错编码。
01
纠错原理
通过在数据中添加冗余信息,检测和纠正数据传输过程中的错误。
02
常见纠错编码
如奇偶校验码、海明码、循环冗余校验码等,这些编码利用数学原理对数据进行校验,确保数据的正确性。
纠错编码
THANKS
感谢观看
离散有记忆信源的输出符号之间存在统计依赖关系,这种关系会影响信息熵的计算。
定义
性质
离散有记忆信源的定义与性质
计算方法
条件熵
联合熵
离散有记忆信源熵的计算
离散有记忆信源熵是描述信源不确定性的度量,可以通过统计模型来计算。具体计算方法包括条件熵和联合熵等。
条件熵是在给定前一个或多个符号条件下,输出符号的熵。
应用场景
广泛应用于文件存储、网络传输、多媒体处理等领域,如JPEG图片压缩、MP3音频压缩等。
数据压缩原理
通过去除数据中的冗余信息,将数据压缩至更小的存储空间,提高存储和传输效率。
数据压缩
加密原理
通过特定的加密算法将明文转换为密文,确保信息在传输过程中的保密性。

信息论与编码ch连续信源及其熵

信息论与编码ch连续信源及其熵
log2(b-a)小于0,但两项相加还是正值,且一般还 是一个无限大量。因为连续信源的可能取值数有 无限多,若假定等概率,确知其输出值后所得信 息量也将为无限大; H表c连(X续)已信不源能输代出表的信信源息的量平。均不确定度,也不能代
2019/9/22
24
第二章 信源熵
连续信源熵的意义
这种定义可以与离散信源在形式上统一起来; 在实际问题中常常讨论的是熵之间的差值问题,如
2019/9/22
20
第二章 信源熵
这样连续变量x就可用取值为xi(i=1,2,…,n)的离散 变量近似。连续信源被量化成离散信源。
n
n
n
H ( X ) p(ai ) log2 p(ai ) p(ai ) log2 p(ai ) p(ai ) log2
i 1
i 1
i 1
当n , 0时,若极限存在,即得连续信源的熵为
n
n
lim H (X )
n 0

lim n 0
i 1
p(ai ) log2
p(ai
)

lim(log
n
2
0
)
i 1
p(ai )
b
b


a
p(x) log2
p(
x)dx

lim(log
2019/9/22
19
第二章 信源熵
设p(x)如图2.3.1所示。把连续随机变量X的取值分割成n个
小区间,各小区间等宽,即Δ=(b-a)/n。则变量落在第i个小
区间的概率为
ai
P(a (i 1) X a i) a(i1) p(x)dx p(ai )

信息论与编码第2章信源与熵

信息论与编码第2章信源与熵

三个信息单位比特bit、奈特nat、哈特Hart之间的 转换关系如下:
1 nat log 2 e 1.433 bit 1 Hart log 210 3.322 bit 1 bit 0.693 nat 1 bit 0.301 Hart
21
对数及常用公式
y log10 x x 10

描述信源消息或对信源建模,随机过程是一个有效的工具, 通过随机过程的特性来描述信源的特性。
3
信源输出的描述
信源
Xi为
X1, X2, X3, ……
{a1, a2, a3, …am}或(a,b)
信源发出消息,消息载荷信息,而消息又具有不确 定性,所以可用随机变量或随机序列(矢量)来描述 信源输出的消息,或者说用概率空间来描述信源。信 源的输出被抽象为一个随机变量序列(随机过程)。
12
混合信源


按信源输出时间和取值划分: 时间连续,取值连续或随机的,称之为随机波 形信源,表示为X(t)。 输出既有连续分量又有离散分量,称之为混合 信源。
重点研究离散信源产生消息的不确定性,不研 究信源的内部结构和消息的如何产生。
13
信源的分类
随机 变量 连续信源:可能输出的消息数是无限的或不可数的
19
自信息量定义

定义 2.1.1 任意随机事件的自信息量定义为该事 件发生概率的对数的负值。
1 I ( xi ) log log p( xi ) p( xi )

自信息量的单位取决于对数选取的底。 单位:比特bit、奈特nat、哈特Hart。

当对数的底取2时,单位为比特bit 当以自然数e为底时,单位为奈特nat 当以10为底时,单位为哈特hart

信息论与编码第二章答案

信息论与编码第二章答案

第二章 信息的度量2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。

2.2 平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数; 若信源给定,I(X;Y)是q(y|x)的下凸形函数。

2.3 熵是对信源什么物理量的度量?答:平均信息量2.4 设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:k k k xi q xi q X H ilog 1log 1)(log )()(=-=-=∑2.5 根据平均互信息量的链规则,写出I(X;YZ)的表达式。

答:)|;();();(Y Z X I Y X I YZ X I +=2.6 互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log);(xi q yj xi Q y x I =,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。

从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。

2.7 一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。

答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201======s x p s x p s x p s x p s x p s x p即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100=========s s p s s p s s p s s p s s p s s p s s p s s p s s p可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200=+++=+=+=s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210===s p s p s p=+-+-+-=)]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8 一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(====x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。

信息论与编码第二章(1、2节)

信息论与编码第二章(1、2节)

H(p)/bit 1.0
等概时( 等概时(p=0.5):
随机变量具有最大的 不确定性,
p=0,1时: 时
随机变量的不确定性 消失。
0
0.5 二元熵函数曲线
1.0
p
性质3:唯一性
定理2.2 设离散随机变量的概密矩阵为 定理
X P(x) = a1 a2 p1 p2 … … aN pN
函数 件
f ( p , p2,⋯ pn ) , 是随机变量不确定性的量度,若此函数满足条 1
理解:当随机变量相互独立时,其联合熵等于单个随机变量的熵之和, 理解:当随机变量相互独立时,其联合熵等于单个随机变量的熵之和,而条件熵等 于无条件熵。 于无条件熵。
联合熵、条件熵的关系:
一般情况下
H( X ) ≤ H( X) + H( ) Y Y H( X | Y) ≤ H( X) H( | X) ≤ H( ) Y Y
连续性 等概时单调增函数性 可加性 则此函数必为
o f ( p , p2,⋯ pn ) = −C∑pn l g pn , 1
n= 1
N
3、其他熵:(联合熵 条件熵)
H 条件熵: (Y / X) = ∑p(x , y )I(y / x ) = −∑p(x , y )lj i ij ij
联合熵、条件熵的关系:
H(XY) = H(X) + H(Y / X) = H(Y) + H(X / Y)
当X,Y相互独立时,有:
p(ak , bj ) = p(ak ) p(bj )
p a | bj ) = p a ) ( k ( k p bj | a ) = p bj ) ( ( k
于是有:
H( X ) = H( X) + H( ) Y Y H( X | Y) = H(X) H( Y | X) = H( ) Y

Information Theory & Coding信息论与编码(英文版)第二章 信源熵-习题答案

Information Theory & Coding信息论与编码(英文版)第二章 信源熵-习题答案

· 1 ·2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍? 解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量H(X 1) = log 2n = log 24 = 2 bit/symbol 八进制脉冲的平均信息量H(X 2) = log 2n = log 28 = 3 bit/symbol 二进制脉冲的平均信息量H(X 0) = log 2n = log 22 = 1 bit/symbol 所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。

2.2 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。

假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设随机变量X 代表女孩子学历X x 1(是大学生) x 2(不是大学生) P(X) 0.25 0.75设随机变量Y 代表女孩子身高Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 0.5 0.5已知:在女大学生中有75%是身高160厘米以上的 即:p(y 1/ x 1) = 0.75求:身高160厘米以上的某女孩是大学生的信息量 即:bit y p x y p x p y x p y x I 415.15.075.025.0log )()/()(log )/(log )/(2111121111=⎪⎭⎫⎝⎛⨯-=⎥⎦⎤⎢⎣⎡-=-=2.3 一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少?(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量? 解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:bit x p x I i i 581.225!52log )(log )(2==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:bit C x p x I C x p i i i 208.134log )(log )(4)(13521322135213=-=-==· 2 ·2.4 设离散无记忆信源⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202120130213001203210110321010021032011223210),求(1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少? 解:(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I 811.87log 2=-=(2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==2.5 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少? 解: 男士:sym bolbit x p x p X H bitx p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%93)( 837.307.0log )(log )(%7)(22222222=+-=-==-=-===-=-==∑女士:symbol bit x p x p X H ii i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2222=+-=-=∑2.6 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡17.016.017.018.019.02.0)(654321x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) >log6不满足信源熵的极值性。

信息论与编码 第2章 信源与信息熵

信息论与编码 第2章 信源与信息熵
设 B1 , B2 , … 是一列互不相容的事件(B i B j = 0),
且有B1∪B2∪…=Ω(样本空间);
P(Bi)>0,i=1,2…,则对任一事件A,有:
p( A) p( Bi ) p( A | Bi ) p( ABi )
i i
2013-8-19
5
相 关 知 识 复 习
4)贝叶斯(Bayes)公式: 设B1,B2 , … 是一列互不相容的事件(B i B j = 0), 且有B1∪B2∪… =Ω(样本空间); p(Bi)>0 ,i=1,2,…,则对任一事件 A,有:
p( X1, X 2 ,, X l , X L ) p( X1 ) p( X 2 ) p( X L )
2013-8-19
9
2.1信源特性与分类
离散有记忆序列信源 布袋摸球实验,每次取出两个球,由两
个球的颜色组成的消息就是符号序列。 若先取出一个球,记下颜色不放回布袋, 再取另一个球。
2.1信源描述与分类
马尔可夫信源 定义:若齐次马尔可夫链对一切I,j存在
不依赖于I的极限,则称其具有遍历性, pj称为平稳分布
lim p p j k p j 0
(k ) ij i 0
p j pi pij
2013-8-19
p
j
j
1
22
2.1信源描述与分类
马尔可夫信源 定理:设有一齐次马尔可夫链,其状态
2.1 马尔可夫信源的定义
3. 【特殊说明】
① n阶马尔可夫信源只与前面发 出的n个符号有关,即关联长 度为n+1。
② 当n=1时,即任何时刻信源符 号发生的概率只与前面一个符 号有关,则称为一阶马尔可夫 信源。

信息论与编码-第二课

信息论与编码-第二课

信息论与编码-信源及信源熵
实际上信源发出的符号往往只与前面几个符 号的依赖关系较强,而与更前面的符号依赖 关系就弱。 为此可以限制随机序列的记忆长度。 当记忆长度为 m+1 时,称这种有记忆信源 为m阶马尔可夫(Markov)信源。也就是信 源所发出的符号只与前m个符号有关,与更 前面的符号无关。
信息论与编码-信源及信源熵
这时描述符号之间依赖关系的条件概率为
p( xi | xi1, xi2 ,, xim ,) p( xi | xi1, xi2 ,, xim )
如果条件概率与时间起点j无关,即信源输出 的消息可看成为齐次(时齐)马尔可夫链, 则此信源称为齐次马尔可夫信源。
信息论与编码-信源及信源熵
两个消息 x i 、y j 同时出现的联合自信息量: 用联合概率 p( xi , y j ) 来表示,联合自信息量 为
I ( xi , y j ) log p( xi , y j )
当 x i 和 y j 相互独立时,有 p( xi , y j ) p( xi ) p( y j ) 于是有 I ( x , y ) I ( x ) I ( y )
信息论与编码-信源及信源熵
由(2-2-1)式表示的自信量I(ai)有两方面的含意: 信源X发符号ai以前,收信者对ai存在的先验不 确定性;信源X发符号ai后,ai所含有的(或能提 供的)全部信息量。 信息函数(2-2-1)式的导出,解决了信息的度量问 题,这是香农信息理论的一大功勋。由(2-2-1)式 可看出,只要测定先验概率p(ai) (香农信息理论 假定,p(ai)是先验可知,或事先可测定的),就 可计算符号ai的自信息量。
信息论与编码-信源及信源熵
不确定度与自信息量:随机事件的不确定度 在数量上等于它的自信息量,两者的单位相 同,但含义却不同。 即有某种概率分布的随机事件不管发生与否, 都存在不确定度,而自信息量是在该事件发 生后给予观察着的信息量。

信息论与编码信源及信源熵

信息论与编码信源及信源熵
14
信息论与编码-信源及信源熵
§2.2 离散信源的熵和互信息
2.2.1 自信息量 在讨论了信源的数学模型,即信源的数学描述问题后,
很自然接着会提出这样一个问题,即信源发出某一符号 xi(i=1,2,…,n) 后,它提供多少信息量?这就是要解决信 息的度量问题.
在通信的一般情况下,收信者所获取的信息量,在数 量上等于通信前后不确定性的消除(减少)的量.
2
信息论与编码-信源及信源熵
(一)信源的分类
信源的分类方法依信源特性而定,一般按照信源 发出的消息在时间上和幅度上的分布情况,把信源分 为:
1. 连续信源:发出在时间上和幅度上都是连续分布的 连续消息的信源;
2. 离散信源:发出在时间上和幅度上都是离散分布的 信源.
3.
离散信源又可以细分为:
3
信息论与编码-信源及信源熵
(1)离散无记忆信源:所发出的各个符号之间 是相互独立的,发出的符号序列中的各个符号 之间没有统计关联性,各个符号的出现概率是 它自身的先验概率.
(2)离散有记忆信源:发出的各个符号之间不 是相互独立的,各个符号出现的概率是有关联 的.
4
信息论与编码-信源及信源熵
也可以根据信源发出一个消息所用符号的多 少,将离散信源分为: 1. 发出单个符号的离散信源:信源每次只发出 一个符号代表一个消息; 2. 发出符号序列的离散信源:信源每次发出一 组含二个以上符号的符号序列代表一个消息. 将以上两种分类结合,就有四种离散信源:
信源就是离散无记忆信源.
12
信息论与编码-信源及信源熵
一般情况下,信源先后发出的符号之间是互相依赖的.例 如在中文字母组成的中文消息中,前后文字的出现是有依赖 的,不能认为是彼此不相关的,放在N维随机矢量的联合概率 分布中,就必然要引入条件概率分布来说明它们之间的关联. 这种信源即有记忆信源.
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Page 14
Here comes your footer
2.2 离散信源熵和互信息
1. 信息量 信息的定量表示。 2. 信息熵 物理熵:无序程度的度量。描述系统特征,如热力学熵。 信息熵:随机事件的不确定度,描述系统的统计特征。 信源熵:信源发出消息的不确定度。
Here comes your footer
Page 7
{
}
其中 a i ∈ I
Here comes your footer
马尔可夫过程---2 马尔可夫过程---2 ---
转移概率 称条件概率 P (m, m + n) = P X m+n = a j | X m = ai 为马氏链在 ij 时刻m处于状态 转移概率。
{
}
ai
条件下,在时刻m+n转移到状态
9 9 P( X i = 0) = , P( X i = 1) = 1 − 10 10
20 20
9 EX i = 0 × P( X i = 0) + 1× P( X i = 1) = 1 − 10
10
20
9 20 EX 故: = E[ X 1 + X 2 + L + X 10 ] = ∑ EX i = 101 − ≈ 8.784(次) i =1 10
马尔可夫过程: 马尔可夫过程:具有马尔可夫性的随机过程
Here comes your footer
Page 6
马尔可夫过程---2 马尔可夫过程---2 ---
马尔可夫概率分布 ①分布率描述 研究时间和状态都是离散的随机序列 {X n = X (n), n = 0,1,2, L} 状态空间为 I = {a1 , a2 , L},
= i , i ∈ I 为已知时,Xn+1所处的状态分布只与Xn+1有关,
而与时刻n以前所处的状态无关。 马尔可夫过程。 综上所述,该过程为一步转移的马尔可夫过程 马尔可夫过程
一步转移概率: 一步转移概率 Pij = P{X n +1 一步转移概率矩阵: 一步转移概率矩阵
p, j = i = j | X n = i} = q, j ≠ i
Here comes your footer
Page 12
d) 分类
发出单个符号的无记忆信源 离散无记忆信源 发出符号序列的无记忆信源 离散信源 发出符号序列的有记忆信源 离散有记忆信源 发出符号序列的马尔可夫信源
Here comes your footer
Page 13
e) 先验概率
符号发送前已经具有的概率,先验概率不受传输条件影响。 举例:袋子中有10个红球,20个白球,从袋子中拿出红 球的概率为10/(10+20)=1/3
联合概率
定义:多个事件拥有共同样本空间的概率 记作:以事件A与B为例,联合概率为p(AB) 性质:①数量上等于A、B交集的概率 ②当A、B相互独立时,p(AB)=p(A)p(B)
Here comes your footer
Page 18
联合自信息量
定义:联合概率对数的负值 定义 事件 xi , y j 的联合密度为 p ( xi , y j ) ,联合自信息量 联合自信息量为 联合自信息量
1
2
n
其中X0为第一级输入,Xn为第n+1级输入(n≥1) 设一个单位时间传输一级,每级的传真率为p,误码率为q=1-p
Here comes your footer
Page 10
分析:
{X
n
, n = 0 ,1 , 2 , L
} 是一随机过程 随机过程
状态空间为 I = 状态空间 且当 X
n
{0 ,1 }
Pij (n) = P{X m + n = a j | X m = ai }
称 : Pij (n)为n步转移概率 P(n) = (Pij (n))为n步转移概率矩阵
Here comes your footer Page 9
举例
只传输数0,1的串联系统(0-1传输系统),如下图所示
X0 X1 X2 Xn-1 Xn
Page 20
2.2.2离散信源熵 离散信源熵
1. 数学期望与方差 a) 数学期望(期望):可看作样本的加权均值
离散型随机变量X 离散型随机变量X 连续型随机变量X 连续型随机变量X
分布律
P ( X = xk ) = p k , k = 1,2, L n
概率密度
+∞
f (x)
条件
∑x
k =1
+∞
k
解:
0, Xi = 1, 在第 i站没有人下车 在第 i站有人下车 i = 1,2, L10
X = X 1 + X 2 + L + X 10
Here comes your footer Page 23
1
2
3
4
5
6
7
8
9
10
由题意,任一旅客在第i站不下车的概率9/10; 因此,20位旅客都不在第i站下车的概率为(9/10)20 ; 第i站有人下车的概率为1- (9/10)20 ;
aj

∑ P (m, m + n) = 1,
j =1 ij

i = 1,2,L
Here comes your footer
Page 8
平稳性
P 当转移概率 ij (m, m + n)
只与i,j及时间间距n有关时
称转移概率具有平稳性,同时也称此链是齐次的或时齐的。 此时,记 Pij (m, m + n) = Pij (n)
设离散信源发出的消息(符号表示)的集合为 X = {x1 , x2 , L, xn }
各符号发生的概率分别为 P = {p ( x1 ), p ( x2 ),L , p ( xn )} ,则 称 p( xi ) 为先验概率。符号及其先验概率构成的矢量称为概率 空间。记作
x2 L xn X x1 P = p( x ) p( x ) L p( x ) 1 n 2
pk 绝对收敛

条件

-∞
xf ( x) dx绝对收敛
+∞ -∞
数学期望
Here comes your footer
E(X) = m = ∑ xk pk
k =1
Page 21
数学期望
E[ X ] = m = ∫ xf ( x)dx
b) 数学期望的性质 设X,Y是随机变量,a、b、c是常数 ⅰE[aX+bY+c]=aE[X]+bE[Y]+c ⅱ设X≥0,则E[X] ≥0 ⅲ设a≤X ≤b,则a≤E[X] ≤b ⅳ设X、Y是两个相互独立的随机变量,则 E[ XY ] = E [ X ] E[Y ]
非负值
Here comes your footer
Page 19
条件自信息量
定义:条件概率对数的负值 事件 xi 以事件 y j 的发生为条件,其条件密度为 p ( xi | y j ) , 则其条件自信息量为
I ( xi | y j ) = − log p ( xi | y j )
性质:非负值
Here comes your footer
Here comes your footer
Page 16
不确定度
a) 表征随机事件发生的不确定程度 b) 随机事件的不确定度与自信息量的关系
两者数值相同
不确定度表征事件的本身性质
单位相同
自信息量表Here comes your footer
Page 17
2 平均不确定度
a) 定义:表征信源总体的多个符号的平均不确定性 b) 公式:参考数学期望的性质用各符号的自信息量的加权平均 表示总体的不确定性。
H ( X ) = E [I ( X )] = ∑ p( xi ) I ( xi ) = −∑ p ( xi ) log p( xi )
i i
c) 单位:比特/符号 or 比特/符号序列 d) 性质:①非负;②H(X)被定义为信源熵; 特殊情况
Here comes your footer Page 5
III. 马尔可夫过程---1 马尔可夫过程--- ---1
随机过程:随机过程是随机函数的集合。若一随机系统的 随机过程 样本点是随机函数,则称此函数为样本函数 样本函数,这一随机系统 样本函数 全部样本函数的集合是一个随机过程 一个随机过程。实际应用中,样本函 一个随机过程 数的一般定义在时间域或者空间域,用 {X (t ), t ∈ Y } 表示。
信息论与编码
Information Theory & Coding
沈阳工业大学 吕瑞宏
2.1 信源的描述和分类
1. 信源描述 离散信源:离散消息的信源 离散消息:时间上、幅度上都是离散分布的消息 连续信源:连续消息的信源 连续消息:时间上、幅度上都是连续分布的消息
Here comes your footer
Page 15
2.2.1自信息量 自信息量
I ( xi ) = − log p ( xi )
自 信 息 量
1. 定义:概率对数的负数 2. 性质:
3.

对数 bit (nat) (det) e 10
对数
信息 质



1nat=log2e=lbe≈1.433bit 1det=log210=lb10≈3.322bit
ai ∈ R
对任意的正整数 n, r和0 ≤ t1 < t 2 < L < t r < m,
ti , m, n + m ∈ Ti
相关文档
最新文档