第三章离散信源及离散熵

合集下载

离散信源的信息熵

离散信源的信息熵

信息熵
(1) 信息熵 ③信息熵与平均获得的信息量 • 信息熵是信源的平均不确定性的描述。在一般
情况下它并不等于平均获得的信息量。 • 只有在无噪情况下,接收者才能正确无误地接
收到信源所发出的消息,消除 H(X) 大小的平均 不确定性,所以获得的平均信息量就等于 H(X)。 • 在一般情况下获得的信息量是两熵之差,并不 是信源熵本身。
1
1
1
I ( xi y j ) log2 p( xi ) p( y j ) log2 p( xi ) log2 p( y j )
I( xi ) I( y j )
• 两个随机事件相互独立时,同时发生得到的信息量,等于 各自自信息量之和。
17/20
自信息
3)条件自信息
• 设 yj 条件下,发生 xi 的条件概率为 p(xi /yj),那么它的条件自信 息量 I(xi/yj) 定义为:
I ( xi
/
y j ) log2
1 p( xi /
yj)
• 表示在特定条件下(yj已定)随机事件 xi 所带来的信息量 • 同理,xi 已知时发生 yj 的条件自信息量为:
1 I ( y j / xi ) log2 p( y j / xi )
18/20
自信息
3) 条件自信息
• 自信息量、条件自信息量和联合自信息量之间的 关系
❖ 信源 Y 比信源 X 的平均不确定性大;
信息熵
❖ 本例结论(续)
❖ 信息熵反映的就是信源输出前平均不确定程度的大小。 ❖ 变量 Y 取 y1 和 y2 是等概率的,所以其随机性大。而变
量 X 取 x1 的概率比取 x2 的概率大很多,这时变量 X 的 随机性就小。 ❖ 因此 H(X) 反映了变量的随机性。

2.2 离散信源的熵

2.2 离散信源的熵

第 二 章 基 本 信 息 论
§2.2 离散信源的熵
二、基本性质
4. 扩展性 limH( p1 , p2 ,⋯, pi − ε , ⋯, pN ,ε ) = H( p1 , p2 ,⋯, pN ) .
ε →0
说明虽然小概率事件的信息量很大, 说明虽然小概率事件的信息量很大,但由于该事件几乎 不会出现,故熵几乎不变。反映了熵的总体平均性。 不会出现,故熵几乎不变。反映了熵的总体平均性。 证
H( X) = H( p1 , p2 ,⋯, pN ) = 0.
表明确定性的信源不含有任何信息量, 表明确定性的信源不含有任何信息量,其信源熵必为 0。 。 证 (1) 若 pl = 1 , pk = 0 ( k ≠ l ) , ⇒
N i =1
N
H ( X ) = − ∑ pi log pi = 0 .
轻松一下吧 ……
11
i =1
(2) 若 H ( X ) = − ∑ pi log pi = 0 , 由于 pi log pi ≤ 0 (∀i ) , ⇒ 又由于 pi log pi = 0 (∀i ) , ⇒ pi = 0 或 pi = 1 (∀i ) ,
∑ pi = 1 ,
i =1
N
故 { pk }中只有一个为 1,其余的为 0。 , 。 6
§2.2 离散信源的熵
二、基本性质
1. 非负性
H( X) = H( p1 , p2 ,⋯, pN ) ≥ 0.
证 由 0 ≤ pi ≤ 1 ⇒ log pi ≤ 0 ,
N

i =1
pi log pi ≤ 0 ,

H ( X ) = − ∑ pi log pi ≥ 0 .
2. 对称性

第3章 离散信源

第3章  离散信源

离散有记忆信源

离散有记忆信源:信源先后发出的消息符号之间彼此 依存、互不独立的。 - 这类信源的数学表示比较困难; - 现实存在的信源多是离散有记忆信源; - 离散有记忆信源又可分为:有限记忆信源(马尔可 夫信源)和无限记忆信源。
信源分类小结
离散无记忆信源
单符号的无记忆离散信源 符号序列的无记忆离散信源 符号序列的有限记忆信源 符号序列的无限记忆信源
编码器 消息 信号 信 道 干扰 干扰器 译码器 消息 信 宿
信 源
在实际通信中最常见的信源有话音、文字、图像、数据等。
离散信源的数学模型

离散信源的数学模型
• •
信源可以输出多个符号,每个符号以一定的概率出现。 因此可以用概率来描述信源。
X x1 P p( x ) 1
则信源的熵为
x2 1 4
x3 1 4
1 1 1 1 H ( X ) p( xi ) logp( xi ) log 2 log 1.5 2 2 4 4 i 1
比特/符号
3
3.3.2 离散无记忆信源的扩展信源及其熵

可以一个符号一个符号的来研究信源,但有时这样不能满 足实际应用的需要。 • 汉语:更多地考察的是句子,而不是汉字。 • 英语:更多地考察的是单词,而不是字母。 • 图像:更多地考察的是整幅图像,而不是单个像素。 所以,有必要研究N次扩展信源。
我 们、要、的、把、看、… 碗、机、水、书、框、…
• •
p(们)=0.01,p(碗)=0.01 p(们|我)=0.05, p(碗|我)=0.001
有限记忆信源和无限记忆信源

离散有记忆信源分为 • 有限记忆信源 • 无限记忆信源 有限记忆信源 • 当记忆长度为m时称这种记忆信源为m阶马尔可夫信源, 即信源每次发出的符号与前m个符号有关,与更前面的 符号无关。

第3章 离散信源

第3章 离散信源

时间长度为bi,则该信源的时间熵定义为:Ht(X)=H(X)/b. 其中b为信源符号的
平均时间长度。
M
b p( xi ) bi
i 1
s / 符号
离散信源的时间熵(续)
K重符号序列离散无记忆信源的时间熵:
K K Ht (X ) H(X ) / B
bit / s 其中B Kb
为K重符号序列消息的平均时间长度。由于信源无记忆,上式也可以写成:
bit / s
由于信源有记忆,所以有:
K ( H t X ) KH ( X ) (Kb) KH ( X ) /(Kb) H ( X ) / b
bit / s
有记忆信源与无记忆信源相比,对外提供信息量的速度下降了。
离散信源的时间熵(续)
马尔可夫信源的时间熵: 若信源从状态Si转移到状态Sj,发出的符号是xij,它的时间长度设为bij,则 信源从状态Si发生转移并发出一个符号时,符号的平均长度为:
信源分类
若离散信源输出符号彼此间相互独立,而且所有符号服从同一种概率分布,则称之 为简单无记忆信源;
若输出符号间彼此相关,且每个符号只与它前面的一个符号相关,而这种相关性可 以用符号间的转移概率来描述,则称之为马尔可夫信源。
离散信源的熵
单符号离散无记忆信源熵: 若信源X含有M个符号,而且每个符号相互独立,则当信源每次发送一个 符号代表一条消息时,其信源熵可以表示为:
H(X ) 100% H ( X )max
信源符号的相关性越大,信源效率越低,要提高信源效率,要设法降 低符号之间的相关性。
信源的效率与冗余度(续)
(2)信源冗余度:
H ( X )max H ( X ) H(X ) R 1 1 100% H ( X )max H ( X )max

信息论与纠错编码题库 (1)

信息论与纠错编码题库 (1)

第三章 离散信源无失真编码3.2离散无记忆信源,熵为H[x],对信源的L 长序列进行等长编码,码字是长为n 的D 进制符号串,问:(1)满足什么条件,可实现无失真编码。

(2)L 增大,编码效率 也会增大吗? 解:(1)当log ()n D LH X ≥时,可实现无失真编码;(2)等长编码时,从总的趋势来说,增加L 可提高编码效率,且当L →∞时,1η→。

但不一定L 的每次增加都一定会使编码效率提高。

3.3变长编码定理指明,对信源进行变长编码,总可以找到一种惟一可译码,使码长n 满足D X H log )(≤n <D X H log )(+L 1,试问在n >D X H log )(+L1时,能否也找到惟一可译码? 解:在n >D X H log )(+L1时,不能找到惟一可译码。

证明:假设在n >D X H log )(+L1时,能否也找到惟一可译码,则由变长编码定理当n 满足D X H log )(≤n <D X H log )(+L 1,总可以找到一种惟一可译码知:在n ≥DX H log )( ① 时,总可以找到一种惟一可译码。

由①式有:Ln ≥L X H )(logD ② 对于离散无记忆信源,有H(x)=LX H )( 代入式②得:n L≥ D x H log )(即在nL≥Dx H log )(时,总可以找到一种惟一可译码;而由定理给定熵H (X )及有D 个元素的码符号集,构成惟一可译码,其平均码长满足D X H log )(≤n L <DX H log )(+1 两者矛盾,故假设不存在。

所以,在n >D X H log )(+L1时,不能找到惟一可译码。

3.7对一信源提供6种不同的编码方案:码1~码6,如表3-10所示信源消息 消息概率 码1 码2 码3 码4 码5 码6 u1 1/4 0 001 1 1 00 000 u2 1/4 10 010 10 01 01 001 U3 1/8 00 011 100 001 100 011 u4 1/8 11 100 1000 0001 101 100 u5 1/8 01 101 10000 00001 110 101 u6 1/16 001 110 100000 000001 1110 1110 u71/161111111000000000000111111111(1) 这些码中哪些是惟一可译码? (2) 这些码中哪些是即时码?(3) 对所有唯一可译码求出其平均码长。

高等教育《信息论》第3章离散信源

高等教育《信息论》第3章离散信源

X
P
x1
px1
x2
px2
xq
p
xq
(3.5)8
信源输出信息量的度量
定义 3.2.2 设信源 X 中,事件 xi 发生的概率为 pxi ,
则所含有的自信息量定义为
de f
I xi log pxi
(3.6)
定义 3.2.2 给出的自信息量的函数形式有如下性质:
① 信源中信息的量度与输出符号发生的概率有关。
000, 001, 011, 111,100,110, 010,101
5
3.1.2 信源的分类 无记忆信源
① 离散无记忆信源 信源发出的消息符号彼此是统计独立的,并且具有
相同的概率分布,其 N 维随机矢量的联合概率分布为
N
N
p X p X k aik pik
k 1
k 1
i 1, 2, , q
其中 N 可为有限正整数或可数无穷值。通常,总限定 N 是有限的,故只限于讨论“有限离散信源”。若在这随机
矢量中的每个随机变量Xk , k 1, 2, , N 都是离散的,则可 用N重离散概率空间的数学模型来描述这类信源。
X
P
a1
pa1
a2
pa2
aqN p aqN
(3.4)
其中
9
自信息量 I xi 是指某一信源发出某一消息符号 xi 所含
有的信息量,所发出的信息符号不同,它们含有的信息量
也就各不相同,故自信息量 I xi 是一个随机变量,不能用
它来作为整个信源输出信息的信息测度。为此,需要引入 平均自信息量,即信息熵来作为信源输出信息的信息测度。
定义 3.2.3 信源输出的各消息的自信息量的数学期望为 信源的平均自信息量,或称为信源的信息熵。

第3章-离散信源(1)题与答案

第3章-离散信源(1)题与答案

3.1 设有一离散无记忆信源,其概率空间为⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X 该信源发出的信息序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210)。

求:(1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解: (1)此消息总共有14个0、13个1、12个2、6个3,因此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I 811.87log =-=(2)此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==3.2 某一无记忆信源的符号集为{0, 1},已知信源的概率空间为⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡4/34/110)(X P X(1) 求信息符号的平均熵;(2) 由100个符号构成的序列,求某一特定序列(例如有m 个“0”和(100 - m )个“1”)的自信息量的表达式; (3) 计算(2)中序列的熵。

解: (1)bit x p x p X H ii i 811.043log 4341log 41)(log )()(=⎪⎭⎫ ⎝⎛+-=-=∑(2)bit m x p x I x p mi i m mm i 585.15.4143log)(log )(434341)(100100100100100+=-=-==⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=---(3)bit X H X H 1.81811.0100)(100)(100=⨯==3.5 某信源的消息符号集的概率分布和二进制代码如题表3.2所列。

题表 3.2(1) (2) 求每个消息符号所需要的平均二进制码的个数或平均代码长度。

进而用这一结果求码序列中的一个二进制码的熵;(3) 当消息是由符号序列组成时,各符号之间若相互独立,求其对应的二进制码序列中出现0和1的无条件概率0p 和1p ,求相邻码间的条件概率1/0p 、0/1p 、1/1p 、0/0p 。

第3章_信源及信源熵_修改

第3章_信源及信源熵_修改

第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
4. 马尔可夫信源
(1) 定义 (2) 熵率
(3) 马尔可夫信源
(4) 马尔可夫链
马尔可夫链
第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
4. 马尔可夫信源(续1)
(1) 定义
实际的有记忆信源,符号间的相关性可以追溯到很远,使 得熵率的计算比较复杂。
离散多符号信源可以用随机矢量/随机变量序列来描述, 即

一般来说,信源的统计特性随着时间的推移而有所变化。 为了便于研究,我们常常假定在一个较短的时间段内, 信源是平稳信源。
第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
1. 预备知识(续1)
定义1:对于离散随机变量序列 ,若任意两个不同 时刻i和j (大于1的任意整数) 信源发出消息的概率分布完全相 同,即对于任意的 , 和 具有相同的概率分布。也就是
怎样确定信源产生的信息量、产生信息的速率 √
信源编码
(第五章)
根据信源输出消息在时间和取值上是离散或连续分类:
时间 (空间) 离散 取值 信源种类 举例 消息的数学描述
离散
离散信源 (数字信源)
文字、数据 、 离散化图象
离散随机变量序列
离散 连续
连续 连续
连续信源 波形信源 (模拟信源) 语音、音乐 、热噪声、 图形、图象 不常见
第三章:信源及信源熵
一:信源的分类及其数学模型
1. 预备知识 二:离散单符号信源 2. 离散平稳无记忆信源 三:离散多符号信源 3. 离散平稳有记忆信源 4. 马尔可夫信源 5. 信源的相关性和剩余度

第三章:信源、熵率及冗余度

第三章:信源、熵率及冗余度

2)信源的主要特性
信源的最基本的特性是具有统计不确定性,它可用概 率统计特性来描述。
信源特性与分类
信源的描述与分类
单消息(符号)信源:
离散信源 连续变量信源
平稳信源 无/有记忆信源 马尔可夫信源 随机波形信源
实际信源
信源特性与分类
单消息(符号)信源
它是最简单也是最基本的信源,是组成实际信源 的基本单元。它可以用信源取值随机变量的范围 U 和 对 应 概 率 分 布 P(u) 共 同 组 成 的 二 元 序 对 [U,P(u)]来表示。 当信源给定,其相应的概率空间就已给定;反之, 如果概率空间给定,这就表示相应的信源已给定。 所以,概率空间能表征这离散信源的统计特性, 因此有时也把这个概率空间称为信源空间。
单消息(符号)信源--连续变 量信源
对于连续变量信源
U (a, b) = P p(u)
p(u)为 续 量 的 率 度 连 变 u 概 密
其中:
u ∈U = R1 = [0, ∞)
平稳信源
很多实际信源输出的消息往往是由一系列符号序列所组成的。可以把这种信源 输出的消息看做时间上或空间上离散的一系列随机变量,即为随机矢量。这时, 信源的输出可用N维随机矢量 随机矢量X=(X1,X2…XN)来描述,其中N可为有限正整 随机矢量 数或可数的无限值。这N维随机矢量X有时也称为随机序列。 一般来说,信源输出的随机序列的统计特性比较复杂,分析起来也比较困难。 为了便于分析,我们假设信源输出的是平稳的随机序列,也就是序列的统计性 质与时间的推移无关。很多实际信源也满足这个假设。 若信源输出的随机序列X=(X1,X2,…,XN)中,每个随机变量 Xi (i=1,2,…,N)都是取值离散的离散型随机变量,即每个随机变量Xi的可能取值是 有限的或可数的。而且随机矢量X的各维概率分布都与时间起点无关,也就是 在任意两个不同时刻随机矢量X的各维概率分布都相同。这样的信源称为离散 平稳信源。如中文自然语言文字,离散化平面灰度图像都是这种离散型平稳信 源。

第3章离散信源习题与答案

第3章离散信源习题与答案

3.1 设有一离散无记忆信源,其概率空间为⎭⎬⎫⎩⎨⎧=====⎥⎦⎤⎢⎣⎡8/14/1324/18/310)(4321x x x x X P X 该信源发出的信息序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210)。

求:(1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解: (1)此消息总共有14个0、13个1、12个2、6个3,因此消息发出的概率是:62514814183⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=p此消息的信息量是:bit p I 811.87log =-=(2)此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==3.2 某一无记忆信源的符号集为{0, 1},已知信源的概率空间为⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡4/34/110)(X P X(1) 求信息符号的平均熵;(2) 由100个符号构成的序列,求某一特定序列(例如有m 个“0”和(100 - m )个“1”)的自信息量的表达式; (3) 计算(2)中序列的熵。

解: (1)bit x p x p X H ii i 811.043log 4341log 41)(log )()(=⎪⎭⎫ ⎝⎛+-=-=∑(2)bit m x p x I x p mi i m mm i 585.15.4143log)(log )(434341)(100100100100100+=-=-==⎪⎭⎫ ⎝⎛⨯⎪⎭⎫ ⎝⎛=---(3)bit X H X H 1.81811.0100)(100)(100=⨯==3.5 某信源的消息符号集的概率分布和二进制代码如题表3.2所列。

题表 3.2(1) (2) 求每个消息符号所需要的平均二进制码的个数或平均代码长度。

进而用这一结果求码序列中的一个二进制码的熵;(3) 当消息是由符号序列组成时,各符号之间若相互独立,求其对应的二进制码序列中出现0和1的无条件概率0p 和1p ,求相邻码间的条件概率1/0p 、0/1p 、1/1p 、0/0p 。

信息论离散信源的熵

信息论离散信源的熵
j 1
(i 1,2,...n)
2020/3/20
26
⑵转移矩阵描述
矩阵[P]称为转移矩阵或信道矩阵;表示为:
y1
y2
x1 p(y1/x1) p(y2/x1)…
… [P]= x2 p(y1/x2) p(y2/x2)
……


xn p(y1/xn) p(y2/xn) …

ym p(ym/x1) p(ym/x2) … p(ym/xn)
⑵离散信源空间:
信源的符号(状态)随机地取值于一个离散
集 合 [X]= ( x1,x2,…xn ) 中 , 一 个 离 散 信 源
可以用一个离散随机变量的概率空间表示。
[P]=(p1,p2,…pn) 这种表示称为离散无记忆信源的信源空间。
信源空间必为一个完备空间, n
即其概率和为1。
pi 1
i1
i 1
n
n
pi log pi [ pi 1]
i 1
i 1
2020/3/20
13
Hmax(X)=H(1/n, 1/n,……,1/n)=logn
这个结果称为离散信源得最大熵定理。它 表明,在所有符号数相同,而概率分布不 同的离散信源中,当先验概率相等时得到 的熵最大。最大熵的值取决于符号状态数 ,状态数越多,熵越大。
当X,Y独立时,有p(x,y)=p(x)p(y)。
m
m
p( xi ) p( xi , y j ) p( y j ) p( xi / y j )
j 1
j 1
n
n
p( y j ) p( xi , y j ) p( xi ) p( y j / xi )
i1
i1
nm

信息论基础第3章

信息论基础第3章


则该信源称为离散平稳信源。 对于平稳信源来说,其条件概率也与时间起点 无关。
12
3.3 离散平稳信源

(m+1)维离散平稳信源

如果离散平稳信源某时刻发出什么符号只与 前面发出的m个符号有关联,而与更早些时 刻发出的符号无关联,则该信源称为(m+1) 维离散平稳信源。
P (x i +m | x 1 x i +m-1 ) = P (x i +m | x i x i +m-1 )
信息论基础
第3章 离散信源和熵
通信与信息工程学院 雷维嘉
本章内容

3.1 3.2 3.3 3.4 3.5
离散信源的分类 离散信源的N次扩展信源 离散平稳信源 马尔可夫信源 信源的相关性和剩余度
2
3.1 离散信源的分类


按照离散信源输出的是一个消息符号还是消息 符号序列,可分为单符号离散信源和多符号离 散信源。 按输出符号之间依赖关系分类,多符号离散信 源可分为无记忆信源和有记忆信源。 按照信源输出的符号序列的统计特性是否随时 间变化,多符号离散信源可分为平稳信源和非 平稳信源。
P (x 1 = 1) = 1/ 2, P (x 1 = 2) = 1/ 4, P (x 1 = 3) = 1/ 4
信源输出符号只与前一个符号有关,其条件概率 P (xl +1 | xl ) (l = 1,2, )具有时间推移不变性,如下表 所示。试问该信源是否为二维离散平稳信源?
xl xl+1 1 2 3
3.2 离散信源的N次扩展信源
6

N次扩展信源的数学模型

设单符号离散信源的数学模型为
é X ù é a ù a a 1 2 q ê ú=ê ú êP (x )ú êP (a ) P (a ) P (a )ú 1 2 q ú êë úû êë û

离散和连续信源熵正负

离散和连续信源熵正负

离散和连续信源熵的正负1. 介绍在信息论中,信源熵是衡量一个随机信源的不确定性的度量。

离散和连续信源是两种常见的信源类型,它们在计算熵时存在一些差异。

本文将详细介绍离散和连续信源熵的正负以及相关概念。

2. 离散信源熵的正负2.1 离散信源熵的定义离散信源是指输出符号有限且可数的信源。

假设我们有一个离散信源X,其输出符号集合为{a1, a2, …, an},每个符号ai发生的概率为pi。

离散信源熵H(X)定义为:H(X) = -Σ(pi * log2(pi))其中log2表示以2为底的对数运算。

2.2 离散信源熵的正负根据熵的定义可以发现,离散信源熵始终为非负值。

这是因为概率pi大于等于0且小于等于1,log2(pi)小于等于0,所以对每个pi求积后取负数得到的结果都是非负值。

当所有输出符号发生概率相等时,即pi = 1/n,其中n为输出符号的个数,离散信源达到最大不确定性,熵达到最大值log2(n)。

当某些输出符号的概率接近0时,离散信源趋向于确定性,熵趋向于0。

3. 连续信源熵的正负3.1 连续信源熵的定义连续信源是指输出符号是连续变量的信源。

在处理连续信源时,我们需要使用概率密度函数(probability density function, PDF)来描述随机变量X的概率分布。

假设X的概率密度函数为f(x),则连续信源熵H(X)定义为:H(X) = -∫(f(x) * log2(f(x)))dx其中∫表示积分运算。

3.2 连续信源熵的正负与离散信源不同,连续信源熵可以是正值、零或负值。

这是因为在连续情况下,概率密度函数f(x)可以超过1。

当概率密度函数f(x)集中在某个区域时,连续信源趋向于确定性,熵趋向于0甚至成为负值。

当概率密度函数均匀分布在整个定义域上时,连续信源达到最大不确定性,熵达到正无穷大。

需要注意的是,连续信源熵的计算需要对概率密度函数进行积分运算,这对于复杂的连续信源可能会很困难。

离散信源的分类和数学模型离散无记忆信源的熵

离散信源的分类和数学模型离散无记忆信源的熵

离散信源的分类和数学模型离散⽆记忆信源的熵1.离散信源的分类和数学模型 在离散时间发出离散符号的信源称为离散信源。

如果信源符号集为有限集,则称为有限离散信源。

如果信源符号集为⽆限可数集,则称为⽆限离散信源。

离散⽆记忆信源的N次拓展源:设信源为X,则由X构成的N维随机⽮量集合X N = X1X2X3...X N(其中X i与X同分布),称为信源X的N次扩展源。

2.离散⽆记忆信源的熵 2.1离散平稳信源若具有有限符号集A={a1,a2,a3,...,a n}的信源X产⽣的随机序列{x i},i=...1,2...且满⾜:对所有的i1,i2,...i n,h,j1,j2,...,j n及x i ε X,有p(x i1=a j1,x i2=a j2,x i3=a j3,...x i N=a jN) = p(x i1+h=a j1,x i2+h=a j2,...,x in+h=a jn)则称信源为离散平稳信源,所产⽣的序列为平稳序列。

平稳序列的统计特性与时间的推移⽆关,即序列中符号的额任意维联合概率分布与时间起点⽆关。

2.2离散平稳有记忆信源的熵设X为离散平稳有记忆信源,X的N次扩展源记为X N, X N=X1X2X3...X N. 根据熵的可加性,有H(X N)=H(X1X2X3...X N)=H(X1)+H(X2|X1)+...+H(X N|X1...X N-1) 定理1:对任意离散平稳信源,若H1(X)<∞,有以下结论:(1)H(X N|X1...X N-1)不随N⽽增加;(2)H N(X)≥H(X N|X1...X N-1); (3) H N(X)不随N⽽增加;(4)H∞(X)存在,且H∞(X)=limH(X N|X1...X N-1); 式(4)表明,有记忆信源的符号熵也可以通过计算极限条件熵得到。

3.有限状态马尔可夫链 3.1马⽒链的基本概念 设信源的符号集为{a1,a2,..,a q},信源的输出序列为x1,x2,...,x N,如果其中每个随机变量x n仅通过最接近的变量x n-1依赖于过去的随机变量x n-1,x n-2,...,即对所有的i,j,k,...有p(x n=j|x n-1=i,x n-2=k,...,x0=m ) = p(x n=j|x n-1=i) 则称{x n,n≥0}为马尔可夫链,简称马⽒链。

离散序列信源的熵

离散序列信源的熵
8
❖ 若信源输出一个L长序列,则信源的序列熵为
• 平均每个符号的熵为: • 若当信源退化为无记忆时:
若进一步又满足平稳性时
9
• 例2.11已知离散有记忆信源中各符号的 概率空间为:
• 设发出的符号只与前一个符号有关,这两个符号的概率关联性用条件概 率p(aj|ai)表示,如表
• 求离散信源的序列熵和平均每个符号的熵?
信源符号分布的不均匀性。 ❖等概率分布时信源熵最大。
27。
❖ 这就是说我们需要传送这一信源的信息,理论 上只需要传送H∞(X)即可。但必须掌握信源全 部概率统计特性,这显然是不现实的。
❖ 实际上,只能算出Hm(X)。那么与理论极限值相 比,就要多传送Hm(X)-H∞(X)。
2.3.1 离散无记忆信源的序列熵
离散无记忆信源
{ 离散
信源
{
{ 离散有记忆信源
发出单个符号的无记忆信源 发出符号序列的无记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源
❖ 发出单个符号的信源
指信源每次只发出一个符号代表一个消息;
❖ 发出符号序列的信源
指信源每次发出一组含二个以上符号的符号序 1 列代表一个消息。
• 当信源符号之间无依赖性时,信源X的信息熵为 • 当考虑符号之间有依赖性时,计算得条件熵
H(X2| X1)<H(X) 信源的条件熵比无依 赖时的熵H(X)减少了 0.671 比 特 , 这 正 是 因 为符号之间有依赖性 所造成的结果。
11
• 发二重符号序列的熵
❖ 联合熵H(X1,X2)表示平均每二个信源符号所携 带的信息量。
离散无记忆信源的序列熵
• 设信源输出的随机序列为 X =(X1X2…Xl…XL)

第3章_离散信源2

第3章_离散信源2
第三章 离散信源
1
本章内容提要
➢ 离散信源的分类及其描述 ➢ 离散信源的熵 ➢ 信源的冗余度 ➢ 信源符号序列分组定理 ➢ 平稳离散信源及其性质
2
第3章 离散信源
➢ 通信系统的任务是将信源的消息有效可靠地传送到信宿。 ➢ 信源消息是多种多样的。 ➢ 本章将重点讨论信源的数学模型以及如何度量信源消息中的信息。
14
3.1 离散信源的分类及其描述
➢ 可以用符号的联3合.概1.率2或条自件然概语率信来源描述自然语信源的关
联性。
✓ 对于英文,可以将包含K个字母的单词看成是具有K个字母 的符号序列,或称为K重符号序列,将其作为一个整体消
息,其联合概率就已考虑了字母与字母间的关联性了。 ✓ 也可以把由汉字组成的中文词汇作为符号序列。 ✓ 还可以将句子、段落甚至整篇文章分别作为符号序列来考
信源等,其中文本信源和语音信源都是针对人类 语言、文字、声乐等感知的,又通称为自然语信 源。
5
3.1 离散信源的分类及其描述
➢ 信源的分类方法3.可1.以1 有信多源种的,分但类本质上主要基于 两方面的考虑:
✓ 一是信源消息取值的集合以及消息取值时刻的集 合,由此可分为离散信源、连续信源或数字信源、 模拟信源等;

后者分为发出符号序列的离散有记忆信源
和发出符号序列的马尔可夫信源两种。
➢ 离散无记忆信源发出的各个消息符号是相互独立的

发出单个符号的离散无记忆信源:每次只发出一个
பைடு நூலகம்
符号且每个符号代表一个消息

发出符号序列的离散无记忆信源:每次发出一组不
少于两个的符号序列来代表一个消息。
7
3.1 离散信源的分类及其描述

第三章 信源及信息熵

第三章  信源及信息熵
无记忆 N
H(X )
N
H(X
l 1
平稳 l
) NH ( X )
序列中平均每个符号的熵为:(单位为bit/ 符号)
HN (X )
N
H(X N
l 1
N
1
N
N
) H (X )
1 N
15
熵率
H lim H
N
(X
N
) lim
N
N H ( X ) H ( X )
a5 x2 x2
1/16
a6 x2x3
1/16
a7
a8
a9 x3 x3
x3 x1 x3 x2
1/8
1/16 1/16

二次扩展信源的熵
9 2
H (Χ) H ( X ) p(ai ) log p(ai ) 3bit / 二个符号
i 1

单符号离散信源熵和熵率分别为:
H ( X ) p( xi ) log p( xi ) 1.5bit / 符号
特殊地,二进制信源,当N=2时
X (a1 , a1 ) P p (a1 , a1 ) (a1 , a2 ) p (a1 , a2 ) ( a2 , a1 ) p (a2 , a1 ) ( a2 , a2 ) p ( a2 , a2 )

i,j=1
2
p (ai , a j )=1,其中, a1 , a2 )表示随机序列,p( a1 , a2 ) (
H lim H
N N
(X
N
) lim
1 N
N
N H ( X ) H ( X )
H ( X ) p( xi , xi , , xi ) log p( xi , xi , , xi )
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

电子科技大学
H(X) = −∑p(xi )lbp(xi )
i =1
4
1 1 1 1 1 1 = − lb − lb − lb × 2 2 2 4 4 8 8
2011-3-13
1 1 1 1 1 1 = lb2 + lb4 + lb8 = + × 2 + × 3 2 4 4 2 4 4 bol = 1.75(bit / sym )
2011-3-13
1、离散平稳信源及其数学模型 对于多符号离散信源发出的符号序列 X1X2 L 如果任意两个不同时刻k …, 如果任意两个不同时刻k和l,k=1,2, …, l=1,2, …,其概率分布相同,即 …,其概率分布相同, P(Xk ) = P(Xl ) 则称该多符号离散信源为一维离散平稳 信源。 信源。
该信源的离散熵
2011-3-13
H(X1X2 ) = −∑p(ai )lbp(ai )
= −∑∑p(xi1 xi 2 )lbp(xi1 xi 2 )
i1 =1i 2 =1 n n n n
n2
电子科技大学
i =1
= −∑∑p(xi1 xi 2 )lbp(xi1 )p(xi 2 / xi1 )
i1 =1i 2 =1
电子科技大学
H(X) = −∑p(i)lbp(i)
i =1
6
1 1 bol = − lb × 6 = lb6 = 2.585(bit / sym ) 6 6
2011-3-13
例2,求某一天简单的天气气象这一信源 的离散熵。 的离散熵。 该信源的数学模型为: 解: 该信源的数学模型为:
) ) ) 雨 x1(晴 x2(阴 x3( ) x4(雪 X 1 1 1 P(X) = 1 2 4 8 8
2011-3-13
离散熵则既反映了信源输出X 离散熵则既反映了信源输出X所包含的平 均自信息量, 均自信息量,是消除信源不确定度所需 要的信息的度量, 要的信息的度量,同时又描述了信源的 平均不确定度。 平均不确定度。 换句话说, 换句话说,平均自信息量只有在信源输 出时才有意义, 出时才有意义,而离散熵则不管信源输 出与否都有意义。 出与否都有意义。
2011-3-13
与此相对应,将该信源的离散熵H(X 与此相对应,将该信源的离散熵H(X1X2) 称为联合熵,信源符号的离散熵H(X 称为联合熵,信源符号的离散熵H(X1)、 H(X2)称为无条件熵。 称为无条件熵。
Qp(xi 2 ) = ∑p(xi1 xi 2 ) = ∑p(xi1 )p(xi 2 / xi1 )
n n i =1 i =1
电子科技大学
H(X) = E[I(xi )] = ∑p(xi )I(xi ) = −∑p(xi )lbp(xi )
离散熵的单位是比特/符号(bit/symbol)。 离散熵的单位是比特/符号(bit/symbol)。
2011-3-13
电子科技大学
离散熵是从整体出发对一个离散信源信 息量的度量。 息量的度量。 需要注意, 需要注意,平均自信息量和离散熵虽然 在数值上相同,但在含义上却有区别: 在数值上相同,但在含义上却有区别: 平均自信息量所反映的仅仅是信源输出X 平均自信息量所反映的仅仅是信源输出X 所包含的平均自信息量, 所包含的平均自信息量,是消除信源不 确定度所需要的信息的度量; 确定度所需要的信息的度量;
λ
λ
电子科技大学
1 1 H(X)max = −∑p(xi )lbp(xi ) = −∑ lb = lbn n i =1 i =1 n
n
n
H(X) ≤ lbn 2011-3-13
例1,求掷骰子这一信源的离散熵。 求掷骰子这一信源的离散熵。 解:该信源的数学模型为
1 2 L 6 X P(X) = 1 1 L 1 6 6 6
, 其中ai = xi1 xi 2 Lxi N , i1, i2 ,L, iN ∈{1,2,L,n}
p(ai ) = p(xi1 xi 2 Lxi N ) = p(xi1 )p(xi 2 / xi1 )Lp(xi N / xi1 xi 2 Lxi N−1 )
2011-3-13
且 p(ai ) = 1 ∑
X1X2 LXN
2011-3-13
电子科技大学
其联合概率分布为 P(X1X2 LXN ) N维离散平稳信源的数学模型: 维离散平稳信源的数学模型:
a2 L anN X1X2 LXN a1 P(X X LX ) = p(a ) p(a ) L p(a ) 2 1 2 N nN 1
i1 =1i 2 =1
n
n
= −∑p(xi1 )lbp(xi1 ) − ∑∑p(xi1 xi 2 )lbp(xi 2 / xi1 )
i1 =1 i1 =1i 2 =1
n
n
n
= H(X1 ) + H(X2 / X1 )
式中, 称为条件熵, 式中,H(X2/X1 )称为条件熵,是条件信 息量在联合概率上的数学期望。 息量在联合概率上的数学期望。
1 X 0 例3,已知信源 = p 1 − p P(X)
电子科技大学
求离散熵并作出p H(p)曲线 求离散熵并作出p-H(p)曲线。 曲线。 解:H(X) = −∑p(i)lbp(i)
i =0 1
= −[plbp + (1 − p)lb(1 − p)] = H(p)
2011-3-13
电子科技大学
P(Xk ) = P(Xl ) P(XkXk+1 ) = P(Xl Xl +1 )
电子科技大学
L P(XkXk+1LXk+N−1 ) = P(Xl Xl +1LXl +N−1 ) 则称该多符号离散信源为N 则称该多符号离散信源为N维离散平稳信 源。 一般,可将N 一般,可将N维离散平稳信源发出的符号 序列看成长度为N的一段段符号序列, 序列看成长度为N的一段段符号序列,即
2011-3-13
将信源分为无记忆信源(memoryless 将信源分为无记忆信源(memoryless source)和有记忆信源 source)和有记忆信源(memory source)。 和有记忆信源(memory source)。 本章主要讨论离散无记忆信源。 本章主要讨论离散无记忆信源。 从一个离散信源的整体出发, 从一个离散信源的整体出发,它的信息 量应该如何度量? 量应该如何度量?
电子科技大学
实际上,信源每次发出的消息是符号序 实际上, 列的情况更为普遍。 列的情况更为普遍。 如果信源每次发出的消息都是有限或可 数的符号序列, 数的符号序列,而这些符号都取值于同 一个有限或可数的集合, 一个有限或可数的集合,则称这种信源 为多符号离散信源。 为多符号离散信源。 多符号离散信源的例子有电报、文字等。 多符号离散信源的例子有电报、文字等。
2011-3-13
H(X)在 p(xi ) = 1 限制下的条件极值 ∑
i =1
n
电子科技大学
∂ {H(X) + λ[∑p(xi ) − 1]} = 0 令 ∂p(xk ) i =1
n
k = 1,2,L,n
n n ∂ {−∑p(xi )lbp(xi ) + λ[∑p(xi ) − 1]} 即 ∂p(xk ) i =1 i =1
, 其中0 ≤ p(xi ) ≤ 1, i = 1,2,L,n且 p(xi ) = 1 ∑
n
如果说自信息量反映的是一个随机事件 出现各种结果所包含着的信息量, 出现各种结果所包含着的信息量,那么
2011-3-13
i =1
自信息量的数学期望( 自信息量的数学期望(概率加权的统计平 均值) 均值)所反映的是该随机事件出现所包含 的平均自信息量。 的平均自信息量。 2、单符号离散信源的离散熵 如果将离散信源所有自信息量的数学期 望用H(X)来表示并称其为信源的离散熵 来表示并称其为信源的离散熵, 望用H(X)来表示并称其为信源的离散熵, 也叫香农熵,离散熵的定义为: 也叫香农熵,离散熵的定义为:
n n
= −∑∑p(xi1 xi 2 )lbp(xi1 )
i1 =1i 2 =1 n
− ∑∑p(xi1 xi 2 )lbp(xi 2 / xi1 )
2011-3-13i =1 i1 =1 2
n
= −∑lbp(xi1 )∑p(xi1 xi 2 )
i1 =1 i 2 =1
n
n
电子科技大学
− ∑∑p(xi1 xi 2 )lbp(xi 2 / xi1 )
第3章 离散信源及离散熵
电子科技大学
信源消息是多种多样的:如计算机网络 信源消息是多种多样的: 节点输出的是二进制数据, 节点输出的是二进制数据,模拟电视输 出的是连续视频图像和伴音;又如抽牌, 出的是连续视频图像和伴音;又如抽牌, 可以抽出后放回去再抽, 可以抽出后放回去再抽,也可以抽出后 不放回去再抽。 不放回去再抽。 信源的分类方法可以很多,但从本质上 信源的分类方法可以很多, 考虑, 考虑,一方面将信源分为离散信源和连 续信源(continuous source), 续信源(continuous source),另一方面
2011-3-13
电子科技大学
将多符号离散信源发出的符号序列记为 X1X2 L 并设序列中任一符号都取值于集合 Xk ∈{x1, x2 ,L, xn }, k = 1,2,L 一般情况下, 一般情况下,信源在不同时刻发出符号 的概率分布是不同的, 的概率分布是不同的,即 P(Xk ) ≠ P(Xl ), k = 1,2,L, l = 1,2,L 这种情况分析起来比较困难,不作讨论。 这种情况分析起来比较困难,不作讨论。
i1 =1 i1 =1 n n
电子科技大学
≥ p(xi 2 / xi1 )
相关文档
最新文档