信息论课件 2-1.3马尔科夫信源

合集下载

信息论基础ppt

信息论基础ppt

X q(X
)
x 1 q(x
1
)
x2 q(x 2 )
xm q(x m )
x为各种长为N的符号序列,x = x1 x2 … xN ,xi { a1 , a2 , … , ak },1 i N,序列集X = {a1a1… a1 , a1a1… a2 , … , akak… ak },共有kN种序列,x X。
X q(
X
)
x1 q(
x1
)
x2 q(x2 )
xI q(xI )
q(xi ):信源输出符号消息xi的先验概率; I 满足:0 q(xi) 1,1 i I q(xi ) 1 i 1
1.3.2 离散无记忆的扩展信源
实际情况下,信源输出的消息往往不是单个符号,而是由
许多不同时刻发出的符号所组成的符号序列。设序列由N个 符号组成,若这N个符号取自同一符号集{ a1 , a2 , … , ak}, 并且先后发出的符号彼此间统计独立,我们将这样的信源称 作离散无记忆的N维扩展信源。其数学模型为N维概率空间:
P
p( p(
y1 y1
x1 ) x2 )
p( y1 xI )
p( y2 x1 ) p(y2 x2 )
p( y2 xI )
p( y J p( yJ
x1 x2
) )
p( yJ xI )
p (yjxi )对应为已知输入符号为xi,当输出符号为yj时的信道
转移概率,满足0 p (yjxi ) 1,且
波形信道 信道的输入和输出都是时间上连续, 并且取值也连续的随机信号。 根据统计特性,即转移概率p (yx )的不同,信道又可分类为:
无记忆信源 X的各时刻取值相互独立。
有记忆信源 X的各时刻取值互相有关联。

马尔科夫信源课件

马尔科夫信源课件

马尔科夫信源在物联网中的应用前景
1 2
物联网通信
探讨马尔科夫信源在物联网通信中的应用前景, 分析其在物联网通信中的优势和局限性。
低功耗设计
研究如何在保证性能的同时降低马尔科夫信源的 功耗,以满足物联网设备低功耗的需求。
3
跨领域应用
探讨马尔科夫信源在其他领域的应用前景,如生 物信息学、医学影像处理等,分析其在这些领域 的适用性和优势。
进行计算。
应用
03
状态转移概率是马尔科夫信源的重要参数,用于描述信源的动
态特性,是进行信息编码和数据压缩的重要依据。
平稳状态分布
01
定义
平稳状态分布是指马尔科夫信源在无限长时间内的状态概率分布。
02
计算方法
平稳状态分布可以通过迭代计算得到,也可以通过数学模型进行推导。
03
应用
平稳状态分布是马尔科夫信源的重要参数,用于描述信源的统计特性,
如果马尔科夫链的状态转移是稳定的,那么信源的统计特性就可以被视为具有长期一致性,从而在编 码时可以利用这些信息来提高压缩效率。相反,如果状态转移是不稳定的,那么信源的统计特性就可 能具有较大的波动,需要采用不同的编码策略来处理。
03 马尔科夫信源的编码与解码
CHAPTER
编码原理
统计特性
马尔科夫信源的编码原理基于信源的统计特性,通过对概率较大符号的压缩,以及对概率较小符号的冗余编码,实现 数据压缩。
计算复杂度
编码与解码过程中的计算复杂度也是衡量效率的重要因素,计算复 杂度越低,表示实现越简单,效率越高。
04 马尔科夫信源的应用场景
CHAPTER
自然语言处理
语言模型
马尔科夫链蒙特卡洛方法可以用于构 建语言模型,通过训练大量文本数据 ,预测给定前一个词的情况下下一个 词的概率分布。

信息论与编码第2章信源与信息熵PPT课件

信息论与编码第2章信源与信息熵PPT课件
pji(l)p(ul Si |ul1Sj)
p(Si |Sj)
pji表示从第(l-1)时刻到第l时刻的状态 转移概率,称为一步状态转移概率。 此时,信源的随机状态序列服从马尔
四、 马尔可夫信源的状态转移图
【补充】 马尔可夫信源的状态序列在数学模型上 可以用马尔可夫链的状态转移图来描述 信源。
状态转移图也可称为香农线图。
2. 数学条件
② 信源某一时刻(l)所处的状态只由当前 输出的符号和前一时刻(l-1)信源的状 态唯一确定。 即:
p(ul Si | xl ak,ul1 Sj ) p(Si | ak,Sj )
(Si,Sj S; ak A)
三、 n阶马尔可夫信源的条件
3. 状态转移概率
设信源在第(l-1)时刻处于状态Sj时, 下一时刻转移到Si的状态概率为:
四、 马尔可夫信源的状态转移图
状态转移图的元素
① 每个圆圈代表一个状态。
② 状态之间的有向线段代表某一状态向 另一状态的转移。
③ 有向线的一侧标注发出的某符号ak和 条件概率p(ak|Sj)。 ak:p(ak|Sj)
S1
S2
【例2.5】
设一个二元一阶马尔可夫信源,信 源符号集为A={0,1},条件概率为 p(0|0)=0.25,p(0|1)=0.50, p(1|0)=0.75,p(1|1)=0.50。 试画出该信源的状态转移图。 【课本P64 例3.5.2】
假设信源发出的消息x用二进码011表示接收到每个二进制码元后得到有关2012128492222符号符号符号2012128502222平均互信息量其中2012128512222熵的性质对称性确定性香农辅助定理最大熵定理条件熵小于无条件熵20121285222222012128532222对称性信息熵相同2012128542222确定性香农辅助定理loglog2012128552222最大熵定理条件熵小于无条件熵2012128562222平均互信息的性质互易性与熵和条件熵及联合熵关系极值性凸性函数性质信息不增性原理2012128572222同理2012128582222互易性2012128592222平均互信息与熵的关系2012128602222互信息量与熵的关系2012128612222极值性2012128622222凸性函数当条件概率分布给定时平均互信息量是输入概率分布的上凸函数当集合x的概率分布保持不变时平均互信息量是条件概率分布的下凸函数2012128632222信息不增性条件下假设在2012128642323离散无记忆信源的序列熵离散有记忆信源的序列熵2012128652323离散无记忆信源的序列熵ililil2012128662323离散无记忆信源的序列熵平均每个符号熵消息熵2012128672323离散有记忆信源的序列熵和消息熵2012128682323eg求信源的序列熵和平均符号熵361191118211342918792012128692323离散有记忆信源的序列熵和消息熵结论1是l的单调非增函数结论3是l的单调非增函数2012128702323马氏链极限熵左边遍历马氏链对于齐次2012128712323右边2012128722323eg求马氏链平均符号熵三个状态2012128732424幅度连续的单个符号信源熵loglimloglim2012128742424幅度连续的单个符号信源熵互信息条件熵联合熵相对熵2012128752424波形信源熵随机波形信源取条件熵相对熵2012128762424最大熵定理具有最大熵当它是均匀分布时变量对于定义域有限的随机限峰功率最大熵定理dxdxdxdxdxdxdxdxdxdxdxdxdxdxdx2012128772424最大熵定理限平均功率最大熵定理

马尔可夫信源和剩余度

马尔可夫信源和剩余度

BUPT Press
举例
BUPT Press
BUPT Press
BUPT Press
信源熵的相对率

H H0
信源的剩余度(冗余度)
1 1
H H0 1 H log q
英文的冗余度
1
1.4 0.71 4.76
信息变差
BUPT Press
BUPT Press
BUPT Press
BUPT Press

3.3.3
马尔可夫信源
马尔可夫信源是一类相对简单的有记忆信源,信源在 某一时刻发出某一符号的概率除与该符号有关外,只 与此前发出的有限个符号有关。
BUPT Press
3.3.3
马尔可夫信源
我们把前面若干个符号看作 一个状态,可以认为信源在 某一时刻发出某一符号的概 率除了与该符号有关外,只 与该时刻信源所处的状态有 关,而与过去的状态无关。 信源发出一个符号后,信源 所处的状态即发生改变,这 些状态的变化组成了马氏链。
BUPT Press
BUPT Press
BUPT Press
BUPT Press
BUPT Press

BUPT Press
BUPT Press
BUPT Press
一步转移概率矩阵
BUPT Press
BUPT Press
m阶马尔可夫信源的条件概率
m阶马尔可夫信源的极限熵
BUPT Press
BUPT Press
BUPT Press
BUPT Press
例3.5 设有一个二元2阶马尔可夫信源,其信源符号集为
BUPT Press
解得 计算极限熵
BUPT Press

信息论之马尔可夫信源

信息论之马尔可夫信源
k =1
q
( k, k −1 = 1, 2K, q )
其马尔科夫链的状态空间也为 得 P ( ak | Ei ) = P ( ak | ak −1 )( k , = 1, 2K, q; i = k −1 = 1, 2,K, q )
而状态极限概率Q ( Ei ) = Q ( ak −1 )( i = k −1 = 1,2,K, q ) 因此,一阶马尔科夫信源的信息熵
对q元m阶马尔可夫信源来说只有状态极限概率j12?q离散平稳信源m阶马尔可夫信源一阶马尔可夫信源实际信源离散无记忆信散无记忆信源1关于离散信源熵实际信源可能是非平稳离散有记忆随机序列信源其信息熵不一定存在
第二章 离散信源及其信息测度
2.7 马尔可夫信源 2.8 信源剩余度与自然语言的熵 *2.9 信息意义和加权熵
∑ K∑ ∑ Q( a Ka )P( a
q q q km =1 km+1 =1 k1 km
km+1
| ak1 Kakm log P akm+1 | ak1 Kakm
)
(
)
= H ( Xm+1 | X1 X2 KXm )
由此得时齐、遍历的m阶马尔可夫信源的熵等于有限记忆长度为 m的条件熵。但必须注意它不同于有限记忆长度为m的离散平稳 信源。时齐、遍历的m阶马尔可夫信源并非是记忆长度为m的离 散平稳信源。只有当时间N足够长以后,信源所处的状态链达到 稳定,这时由m个符号组成的各种可能的状态达到一种稳定分布 后,才可将时齐、遍历的m阶马尔可夫信源作为记忆长度为m的 离散平稳信源。
P (1| 00 ) = P ( 0 |11) = 0.2
根据给定的条件概率,可以求得状态 之间的转移概率 ( 一步转移概率 ) 为 P ( E1 | E1 ) = P ( E4 | E4 ) = 0.8

第二篇基本信息论4_马尔可夫信源

第二篇基本信息论4_马尔可夫信源
p( X t xk / St ej , X t1 xk1, St1 ei ,...) pt (xk / ej ) 若信源时齐,则pt ( xk / ei ) p( xk / ei ) 不论何时,在状态ei下发生符号xk的概率不变。
2)信源某时刻 t 所处的状态,由当前的输出符号 和前一时刻 (t-1) 信源所处的状态唯一确定。
态一步转移概率矩
阵,可写出:
e2 01
0: 0.8
00 e1
0: 0.5
0: 0.5 1: 0.5
10 e3
1: 0.5 当信源处于状态e1 00时:
0: 0.2
11 e4
1: 0.8
p(0 / 00) p( x1 / e1) p(e1 / e1) 0.8
p(1/ 00) p( x2 / e1) p(e2 / e1) 0.2
2.4 马尔可夫信源
一、马尔可夫链
设信源所处的状态为:S e1,e2,...,enm
信源每一状态下可能输出的符号:X x1, x2,..., xn
每一时刻信源发出一个符号后,所处的状态发生 转移
信源输出的随机符号序列为: X1, X 2 ,..., X t1, X t ,... 信源所处的状态序列为: S1, S2 ,..., St1, St ,...
若马尔可夫信源的状态数为m, 则称为m阶马尔可夫信源
m阶马尔可夫信源的熵:
H
lim
N
H
(
X
N
/
X1X 2...X N1)
Hm1 H ( X m1 / X1 X 2...X m )
nn
n
...
p( xk1 xk2 ...xkm1 ) lb p( xkm1 / xk1 xk2 ...xkm )

信息论各种熵之间的关系 PPT

信息论各种熵之间的关系 PPT
H(X2 X1) H(X2) H(X ) H(X1) H(X2) 2H(X ) 一般地
H(X ) H(X1) H(X2 X1) H(X1) H(X2)

原始信源:
x11
x2 4
x3 11

4 9 36
x x x X1X2
1
2
3
x1
7 9
2 9
关系式
图示
H (Y X ) H (Y X ) H ( XY ) H ( X )
H (Y ) I ( X ;Y )



H(X Y)
H (X Y ) H (XY ) H (Y ) H(X ) I(X;Y)
XY XY
名称 符号
关系式
图示

H (XY) H (X ) H (Y X )
)
x2 p(x2
)
二次扩展信源的数学模型为
X2 P( X 2
)


a1 p(a1
)
a2 p(a2 )
a3
a4
p(a3 ) p(a4 )

其中,X2表示二次扩展信源。这里,a1=00,a2=01,a3=10,a4=11。
且有
p(ai ) p(xi1 ) p(xi2 ), i1, i2 {1,2}
H(XN)=H(X1 X2 …XN)= H(X1)+H(X2)+H(X3)+…+ H(XN)=NH(X)

单符号信源如下,求二次扩展信源熵
扩展信源:
X P( X
)


x1, x2 1,1 24
, ,

信息论汇总马尔科夫信源ppt培训课件

信息论汇总马尔科夫信源ppt培训课件
字母有关外,只与此前发出的有限个字母有 关
• m阶马尔可夫信源:
– 信源输出某一符号的概率仅与以前的m个符 号有关,而与更前面的符号无关。
• 条件概率 p ( x L |x L 1 , x 1 ) p ( x L |x L 1 , x L m )
4
马氏链的基本概念
• 一阶马尔可夫信源:
p(0|0)=0.25, p(0|1)=0.5, p(1|0)=0.75, p(1|1)=0.5 求状态转移概率,画出状态转移图。
q2,m1,qm2
s10;s21 p(s1|s1)0.25,p(s1|s2)0.5;p(s2|s1)0.75,p(s2|s2)0.5
1 0.5 0 0.25

0
1:0.75
1

0:0.5
12
• 例3 设有一个二元二阶马尔科夫信源,其信源 符号集X={0,1},信源输出符号的条件概率为
P(0|00)=p(1|11)=0.8, p(1|00)=0.2
p(0|01)=p(0|10)=p(1|01)=p(1|10)=0.5 求状态转移概率矩阵,画出状态转移图
• 引入状态变量的好处:使得高阶马尔科夫过程 可以转化为一阶马尔科夫过程处理。
5
马氏链的基本概念
• 令si = (xi1, xi2, …xim) xi1,,xi2, …xim ∈(a1, a2, …an) • 状态集S ={ s1,s2,…,sQ} Q = nm • 信源输出的随机符号序列为:x1, x2,…xi-1, xi … • 信源所处的随机状态序列为:s1, s2,…si-1 , si … • 例:二元序列为…01011100… • 考虑m = 2,Q = nm =22= 4

信息论马尔科夫信源

信息论马尔科夫信源

p( s j ) 0, p( s j ) 1
i 1
的唯一解。

二阶马尔可夫信源{00 01 10 11},求状态转移概 率和极限熵。
p(e1/e1)= p(x1/e1)=p(0/00)=0.8
p(e2/e1)= p(x2/e1)=p(1/00)=0.2 p(e3/e2)= p(x1/e2)=p(0/01)=0.5 p(e4/e2)= p(x2/e2)=p(1/01)=0.5 p(e1/e3)= p(x1/e3)=p(0/10)=0.5 p(e2/e3)= p(x2/e3)=p(1/10)=0.5
3、m阶马尔可夫信源
(1)定义 在任何时刻l,符号发出的概率只与前面m个符号有关,把m个 符号看做信源在l时刻的状态。因为原始信源符号集共有n个符 号,则有记忆信源可以有nm个不同的状态,分别对应于nm个
长度为m的序列。这时,信源输出依赖长度为m+1的随机序列
就转化为对应的状态序列,而这种状态序列符合马尔可夫链的 性质,称为m阶马尔可夫信源。 n—信源符号集 nm—信源不同的状态数
2.2.3 马尔可夫信源
1、定义 在实际问题中,试图限制记忆长度,就是说任何时刻信源发 出符号的概率只与前面已经发出的m个符号有关,而与更前 面发出的符号无关,即马尔可夫信源。 以信源输出符号序列内各符号间条件概率来反映记忆特性 的一类信源。
输出符号序列:X 1 X 2 X l 1 X l
m+1—信源输出依赖长度;
(2)数学模型
x1 x2 xn X P( X m1 xkm1 ) p( ) X1 X m xk1 xkm

k1 , k2 ,, km1 ,2,, n 1

第2章-信息论基本概念3

第2章-信息论基本概念3

lim
l
pl (E j
/
Ei )

p(Ej )
( j 1, 2, , qm )
这种马尔可夫链是各态遍历的。其极限概率是方程组
qm
p(E j ) p(Ei ) p(E j / Ei ) i 1
满足条件
( j 1, 2, , qm )
p(E j ) 0, 的唯一解。
qm
p(Ej ) 1
(1)某一时刻信源符号的输出只与此刻信源所处的状态有关, 而与以前的状态和输出符号都无关,即:
p(xl ak / sl Ei , xl1 ak1 , sl1 E j , ) p(xl ak / sl Ei ) 当具有时齐性时,有:
p(xl ak / sl Ei ) p(ak / Ei ) 及 p(ak / Ei ) 1 ak A
例:设某信源符号X∈A={a1,a2,a3},信源所处的状态
S∈E={E1,E2,E3,E4,E5}。各状态之间的转移情况如下
图所示,请判断这是否是一个马尔可夫信源?
解:(1)信源在Ei状态下输出符号ak的条件概率p(ak/Ei)用矩阵 表示为:
1 1 1

2
4
4


0

p(ak
(2)信源某l时刻所处的状态由当前的输出符号和前一时刻信源 的状态唯一决定,即:
p(sl

Ej
/ xl

ak,sl 1

Ei )

0 1
【注】上述条件表明,若信源处于某一状态Ei, 当它发出一个符号后,所处的状态就变了。状态 的转移依赖于所发出的信源符号,因此任何时刻 信源处在什么状态完全由前一时刻的状态和发出 的符号决定。又因条件概率p(ak/Ei)已给定,所以 状态之间的转移有一定的概率分布,并可求出状 态的一步转移概率p(Ej/Ei)。

信息论2章1,23节(上课用)

信息论2章1,23节(上课用)
i 1 j 1
q
m
P( xy)logP( xy)
XY
联合熵的性质:
通信与信息基础教学部
33
信息论课件
平均互信息量
定义:
两个离散随机事件集合X和Y,若 其任意两事件间的互信息量为I(xi;yj), 则其联合概率加权的统计平均值,称为 两集合的平均互信息量,用I(X;Y)表示。
M N M
通信与信息基础教学部
16
信息论课件
联合自信息量
定义:若有两个消息
xi,xj同时出现, 可用联合概率P(xi,xj)来表示,这时的自 信息量定义为
I ( xi , y j ) log p( xi , y j )
通信与信息基础教学部
17
信息论课件
当xi和xj相互独立时,有P(xi, xj)= P(xi)P(xj),那么就有I(xi, xj)= I(xi)+ I(xj)
XY XY
通信与信息基础教学部
30
信息论课件
条件熵
物理含义:
称:H(X/Y)为信道疑义度。
称:H(Y/X)为信道噪声熵或散步度。
通信与信息基础教学部
31
信息论课件
举例:已知信源 X、Y 0, 概率为
1 p(a1 0,b1 0) p(a2 1,b2 1) 8
信息论课件
信息论 Information Theory
蒋青
jiangq@ TEL:62460517
通信与信息基础教学部
1
信息论课件
2 离散信源及其信息测度
2.1 信源的数字模型及分类 2.2 离散信源的信息量和信息熵 2.3 信息熵的基本性质 2.4信息熵的唯一性定理 2.5 离散无记忆的扩展信源 2.6 离散平稳信源 2.7马尔可夫信源 2.8信源剩余度与自然语言的熵

信息论

信息论

1一个马尔可夫信源有3个符号,转移概率为:,,,,,,,,,画出状态图并求出各符号稳态概率。

解:状态图如下状态转移矩阵为:1/21/201/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭设状态u1,u2,u3稳定后的概率分别为W1,W2、W3由1231WP W W W W =⎧⎨++=⎩得1112331223231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1025925625W W W ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩2-14 .在一个二进制信道中,信源消息X{0,1} (1)P(ij)=P(i/j)=(2) 方法1: =方法2:2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。

画出状态图,并计算各状态的稳态概率。

解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p ==(0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p ==(1|00)(01|00)0.2p p ==(1|01)(11|01)0.5p p ==u 1u2u31/21/21/32/32/31/3(1|11)(11|11)0.8p p ==(1|10)(01|10)0.5p p ==于是可以列出转移概率矩阵:0.80.200000.50.50.50.500000.20.8p ⎛⎫ ⎪⎪= ⎪ ⎪⎝⎭状态图为:设各状态00,01,10,11的稳态分布概率为W1,W2,W3,W4 有411i i WP WW ==⎧⎪⎨=⎪⎩∑ 得 0.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到5141717514W W W W ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩3 两个实验X 和Y ,X={x1 x2 x3},Y={y1 y2 y3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r ⎛⎫⎛⎫⎪ ⎪= ⎪ ⎪⎪ ⎪⎝⎭⎝⎭如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少?如果有人告诉你Y 的实验结果,你得到的平均信息量是多少?在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少? 解:联合概率(,)i j p x y 为 1(,)(,)log (,)724112log 4log 24log 4247244H X Y p x y p x y ==⨯+⨯+∑ =2.3bit/符号21()3log 3 1.583H Y =⨯=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是2.32 一阶马尔可夫信源的状态图如图2-13所示,信源X的符号集为(0,1,2)。

马尔可夫信源

马尔可夫信源

从而得到马尔可夫信源状态空间
e1
e2
...
enm
p ej / ei
13
HUST --- Information and Coding Theory
马尔可夫信源与马尔可夫链
其状态e由(x
i
i1
,
xi2
,
L
, xim)唯一确定,
因此p(xkm1 xkm ,L , xk1 ) p(xkm1 ei ) 信源发出xkm1 ,状态变为ej ,
其意义是: 系统在现在时刻n 1处于状态Sin 1,那么将来时刻n的状态Sin 与过去时刻n 2, n 3,...,1的状态Sin 2,..., Si1无关, 仅与现在时刻n 1的状态Sin 1有关。 即,已知系统的现在,那么系统的将来与过去无关。 这种特性称为马尔可夫特性。
2
HUST --- Information and Coding Theory
基本(一步)转移概率
当n m 1时,pij(m, m 1)即为一步转移概率。 一般, 把pij(m, m 1)记为pij(m),m 0, 称为基本转移概率。
pij(m)=P X m1 j | X m i i, j S
pij(m)中m表示基本转移概率与时刻m有关。
4
HUST --- Information and Coding Theory
18
HUST --- Information and Coding Theory
马尔可夫信源-例题
例 设有一个二进制二阶马尔可夫信源, 信源符号集为{0,1},条件概率为 p(0 00) p(111) 0.8, p(1 00) p(0 11) 0.2, p(0 01) p(0 10) p(1 01) p(110) 0.5 试求其平稳分布和极限熵。

信息论与编码马尔可夫信源

信息论与编码马尔可夫信源
2.2.4 马尔可夫信源
(1) 马尔可夫信源的定义 (2) m阶马尔可夫信源 (3) 举例
(1) 马尔可夫信源的定义
① 信源的状态和符号集 ② 马尔可夫信源定义 ③ 举例
① 信源的状态和符号集
有一类信源, 有一类信源,输出的符号序列中符号之间的依赖关系 是有限的, 是有限的,即任何时刻信源符号发生的概率只与前面 已经发出的若干个符号有关, 已经发出的若干个符号有关,而与更前面发出的符号 无关。 无关。 设符号集为X和状态为S 设符号集为X和状态为S。信源输出的信息符号还与 信源所处的状态有关。 信源所处的状态有关。 状态S ,…,e 状态S∈{e1,e2,…,ej} 符号X …,x 符号X∈{x1,x2, …,xn} 每一时刻信源发出一个符号后, 每一时刻信源发出一个符号后,所处的状态将发生 转移。 转移。 …,X 信源输出的随机符号序列为 X1,X2, …,Xl-1,Xl, … 信源所处的随机状态序列为 S1,S2, …,Sl-1,Sl, … …,S
k m+1
)
(或写成 。
p ( xkm+1 / xk1 xk 2 L xkm ) = p ( xk / ei ) = p (e j / ei )
nm nm i =1 j =1
H ∞ = H m +1 = −∑∑ p (ei ) p(e j / ei ) log 2 p(e j / ei )
其中p )(i=1,2,…,n 其中p(ei)(i=1,2,…,nm)是m阶马尔可夫信源稳定后的状 阶马尔可夫信源稳定后 稳定后的状 态极限概率, 是一步转移概率。 态极限概率, p(ej /ei)是一步转移概率。
② m阶马尔可夫信源的极限 熵
m阶马尔可夫信源的极限熵
H ∞ = lim H ( X N / X 1 X 2 … X N −1 )
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

x3:1/2 s3
相通
s4
x2:1/2 x3:1/2
x4:1 x5:1
s2 x2:1/2
非周期性的:对于 pii(k)>0的所有k值, 其最大公约数为1。
x2:1/2 x1:1/4
过渡态
s1
s6
x6:1
x6:1/4
吸收态
x4:1/4
s5
周期性的:在常返态中, 有些状态仅当k能被某整
数d>1整除时才有pii(k)>16 0, 图中的周期为2;
0.3W1 0.7W1
0.2W2 0.8W2
W0 W1
W2
W0 W1 W2 1
W0 0.3571, W1 0.1429, W2 0.5
0/0.4
1/0.6
so
1/0.2
s1
0/0.3 1/0.7
s2
0/0.8
0.6 0.4 0 p(sj | si ) 0.3 0 0.7
0.2 0 0.8
21
1
1
W
W
21
23
W 1
1
3
W
W p i ij
W j
i
4 1
1W
W 43 1W
W 2
W
32
54
3
2 W
32
4W 54
W 4
W W W W 1
1
2
3
4
• 稳态分布概率
W1
3 35
,
W2
6 35
,
W3
6 35
,
W4
4 7
• 稳态后的符号概率分布
p(a1)
i
p(a1
|
si
)
p(si
)
1 2
3、吸收态:一个只能从自身返回到自身而不能到 达其他任何状态的状态;
4、常返态:经有限步后迟早要返回的状态; 5、周期性的:在常返态中,有些状态仅当k能被 某整数d>1整除时才有pii(k)>0; 6、非周期性的:对于pii(k)>0的所有k值,其最大 公约数为1。
15
常返态:经有限 步后迟早要返回 的状态,
s1 s2 s3
s1 1/ 2 1/ 2 0
p(s
j
|
si
)
s2 s3 s4
0
1/ 4
0
0 3/4
0
1/ 3 0 1/ 5
(0)1/2
(1)1/2
s2 01
00 s1
(0)1/4
(0)1/3 (1)3/4
10 s3
(1)2/3
s4 0 2 / 3 0 4 / 5
11 (0)1/5 s4
(1)4/5
0:0.5 1:0.5
0:0.5 0:0.2
1:0.2
14
齐次马尔可夫链中的状态可以根据其性质进行
分类: 1、如状态si经若干步后总能到达状态sj,即存在k,
使pij(k)>0,则称si可到达sj; 若两个状态相互可到达, 则称此二状态相通;
2、过渡态:一个状态经过若干步以后总能到达某 一其他状态,但不能从其他状态返回;
1:0.75


1 0.5 0 0.25
0:0.5
12
• 例3 设有一个二元二阶马尔科夫信源,其信源 符号集X={0,1},信源输出符号的条件概率为
P(0|00)=p(1|11)=0.8, p(1|00)=0.2
p(0|01)=p(0|10)=p(1|01)=p(1|10)=0.5 求状态转移概率矩阵,画出状态转移图
4
马氏链的基本概念
• 一阶马尔可夫信源:
p(x1, x2, x3,xL ) p(x1) p(x2 | x1) p(xL1 | xL2 ) p(xL | xL1)
• 若把有限个字母记作一个状态S,则信源发出 某一字母的概率除与该字母有关外,只与该时 刻信源所处的状态有关。
• 信源将来的状态及其送出的字母将只与信源现 在的状态有关,而与信源过去的状态无关。
p(0|0)=0.25, p(0|1)=0.5, p(1|0)=0.75, p(1|1)=0.5 求状态转移概率,画出状态转移图。
q 2,m 1,qm 2 s1 0; s2 1 p(s1 | s1) 0.25, p(s1 | s2) 0.5; p(s2 | s1) 0.75, p(s2 | s2) 0.5
• pij(m):基本转移概率(一步转移概率)
• 若pij(m)与m 的取值无关,则称为齐次马尔可夫链
pij= p{Sm+1=sj| Sm= si}= p{S2=sj| S1= si} • pij具有下列性质:
pij≥0
pij 1
j
7
• 若处信 状源 态处 就于 变某 了一,任状何态时s候i ,当信它源发处出于一什个么符状号态后完,全所 由前一时刻的状态和发出符号决定。
00 s3
01 s4
10 s5 11 s6
25
• 信源发完第2个符号后再发第3个及以后的符号。 • 从第3单位时间以后信源必处在s3 s4 s5 s6四种状态
之一。在i≥3后,信源的状发状态出态0转转、移1移变概化率可相相用同同,下图表示:
• 状态s1和s5功能是完全相同
• 状态s2和s6功能是完全相同
s5
• 可将二图合并成
10
(0)0.5
(0)0.3 s3
(0)0.4
00
• s0是过渡状态 • s3 s4 s5 s6组成一个不
可约闭集,并且具有 遍历性。
(1)0.7
s0
(0)0.4 (0)0.2
(1)0.6
(1)0.5 11
01
(1)0.6
s6 (1)0.8
s4
26
• 由题意,此马尔可夫信源的状态必然会进入这个 不可约闭集,所以我们计算信源熵时可以不考虑 过渡状态及过渡过程。
xL2 )
3
2.1.3 马尔可夫信源
• 马尔可夫信源
–一类相对简单的离散平稳有记忆信源 –该信源在某一时刻发出字母的概率除与该
字母有关外,只与此前发出的有限个字母有 关
• m阶马尔可夫信源:
– 信源输出某一符号的概率仅与以前的m个符 号有关,而与更前面的符号无关。
• 条件概率
p(xL | xL1,x1) p(xL | xL1,xLm )
解: q 2, m 2, qm 4
s1 00; s2 01; s3 10; s4 11
由于信源只可能发出0或者1,所以信源下一时刻只
可能转移到其中的两种状态之一。如目前所处状态
为00,那么下一时刻信源只可转移到00或者01。而不
会转到10或者11状态。
13
p(s1 | s1) p(s4 | s4) 0.8,
马尔可夫信源
• 遍历状态:
– 非周期的、常返的状态,如图中的状态s2和s3
• 闭集:
–状态空间中的某一子集中的任何一状态都不 能到达子集以外的任何状态
• 不可约的:
–闭集中除自身全体外再没有其他闭集
特殊结论
17
马尔可夫信源
• 一个不可约的、非周期的、状态有限的马尔可
夫链其k步转移概率pij(k)在k→∞时趋于一个和 初始状态无关的极限概率Wj,它是满足方程组
p(x2|x1)
x2
x1
0
1
0
0.3
0.4
1
0.7
0.6
再下一单位时间:输出随机变量X3与X2X1有依赖关系
p(x3|x1x2) x3
00
x1 x2 01 10
11
0 0.4 0.2 0.3 0.4
1 0.6 0.8 0.7 0.6
23
• 从第四单位时间开始,随机变量Xi只与前面二 个单位时间的随机变量Xi-2Xi-1有依赖关系:
第二章
信源与信息熵
1
信源分类
1、连续信源
{ 2、离散 离散无记忆信源
{ { 信源 离散有记忆信源
发出单个符号的无记忆信源 发出符号序列的无记忆信源 发出符号序列的有记忆信源
发出符号序列的马尔可夫信源
2
• 表述有记忆信源需在N维随机矢量的联合概率 分布中,引入条件概率分布来说明它们之间的 关联。
p(x1, x2 , x3, xL ) p(xL | xL1, x1) p(x1, x2 , xL1) p(xL | xL1, x1) p(xL1 | xL2 , x1) p(x1, x2 ,
• s1 = 00 s2 = 01 s3 = 10 s4 = 11 • 变换成对应的状态序列为
…s2 s3 s2 s4 s4 s3 s1…
6
马尔可夫信源
• 设信源在时刻m处于si状态,它在下一时刻(m+1)状 态转移到sj的转移概率为:
pij(m) = p{Sm+1=sj| Sm= si}=p{sj | si}
• 系中统 的在 任任 意一 一时 个刻状可态处,状于态状转态移空时间,转S移={概s率1,s2矩,…阵,sQ}
P
p(s j
|
si )
p11
p1Q
pQ1 pQQ
• 符号条件概率矩阵
p11 p1n
P
p( x j
|
si )
pQ1 pQn
区 别
8
马尔可夫信源
• 状态转移图
• 得稳态分布概率
p(s3 )
1 9
p(s4 )
2 9
p(s5 )
2 9
p(马尔可夫信源达到稳定后,符号0和符号1的
概率分布:
• 由 p(s3 ) 0.4 p(s3 ) 0.3 p(s5 )
Wj=p(sj) p(s4 ) 0.6 p(s3 ) 0.7 p(s5 ) p(s5 ) 0.2 p(s4 ) 0.4 p(s6 )
相关文档
最新文档