信息论与编码03-多符号离散信源
电子科大信息论与编码第3章_离散信源及信息熵
其条件概率分布P(X2/X1)
求该信源的联合熵和平均符号熵。
解: H(X1 ) p(xi1 ) log p(xi1 )
3
H(X 2 / X1 ) p(x i1 xi2 )log p(xi 2 / log log log 4 4 9 9 36 36 1.542(bit / symbol)
1 H 2 ( X1 X 2 ) H ( X 1 X 2 ) H ( X1 ) 2
例1,已知二维离散平稳信源的符号 X1 , X 2 {x1 , x 2 , x 3 } ,其概率分布P(X1)
x2 x3 X1 x 1 P ( X ) 1 / 4 4 / 9 11 / 36 1
P( X k ) P( X l )
P( X k X k 1 ) P( X l X l 1 )
则称该多符号离散信源为二维离散平稳信源。 同理,如果除概率分布相同外,直到N维的各 维联合概率分布也都相同,也都与时间起点 无关,即
P( X k ) P( X l )
P( X k X k 1 ) P( X l X l 1 ) P( X k X k 1 X k N 1 ) P( X l X l 1 X l N 1 )
将多符号离散信源发出的符号序列记为
X1X 2 X 3
并设序列中任一符号都取值于同一集合
Xk {x1 , x 2 ,, xn }, k 1,2,
一般情况下,信源在不同时刻发出符号 的概率分布是不同的,即 P( Xk ) P( Xl ), k 1,2,, l 1,2, 这种情况分析起来比较困难,不作讨论。
log e p(xi1 xi2 )ln
信息论-第3章多符号离散信源与信道
N维平稳 XX 信 1X2 源 XN共可以 rN种 发 不 出 同的
rN
0p(i)p(ai1ai2 aiN )1 p(i)1 i 1 6
3.1 离散平稳信源的数学模型
数学模型
信源空间
X Pp (11)
2 p(2)
p (rN rN)
r
0p (a i)1(i1 ,2 , ,r) p (a i)1 i 1
则 X 称为离散无记忆信源。
9
3.2 离散平稳无记忆信源的信息熵
若N维离散平稳信源 XX1X2 XN 中,各时刻 随机变量 Xk(k1,2, ,N)之间相互统计独立,则 我们将 XX1X2 XN称为N维离散平稳无记忆信源。 对N维离散平稳无记忆信源 XX1X2 XN,有
11
3.2 离散平稳无记忆信源的信息熵
二 离散无记忆信源的信息熵
1. 最简单离散信源 用一维随机变量X描述,其数学模型为
pX (x)p(aa 11)
a2 p(a2)
aq p(aq)
q
且
p(ai)1, p(ai)0,i1,2, ,q
i1
特点:
消 息 符 号 彼 此 统 计 独 立 消 息 符 号 具 有 相 同 概 率 分 布
第3章 多符号离散信源与信道
• 内容提要 3.1 离散平稳信源的数学模型 3.2 离散平稳无记忆信源的信息熵 3.3 离散平稳有记忆信源的信息熵 3.4 离散平稳有记忆信源的极限熵 3.5 马尔可夫信源的极限熵 3.6 信源的剩余度和结构信息
1
3.1 离散平稳信源的数学模型
1. 基本概念
2. 多符号离散信源:由多个符号组成的时间(或空间) 序列
信息论与编码实验一离散信源信息量的计算
信息论与编码实验一离散信源信息量的计算【实用版】目录一、信息论与编码实验一概述二、离散信源的定义与分类三、离散信源信息量的计算方法四、实验过程及结果分析五、总结正文一、信息论与编码实验一概述信息论与编码实验一是一门关于信息论的基本概念和方法的实验课程。
信息论是研究信息传输、存储、处理和控制的科学,其目的是为了提高通信系统的效率和可靠性。
实验一的主要目的是让学生了解离散信源的定义、性质和计算方法,并掌握如何使用 Matlab 软件进行离散信源信息量的计算。
二、离散信源的定义与分类离散信源是指其输出信号为离散信号的信源,常见的离散信源有伯努利信源、马尔可夫信源等。
根据信源的性质和特点,离散信源可以分为离散无记忆信源和离散有记忆信源。
离散无记忆信源是指信源的输出信号只与当前输入信号有关,而与过去的输入信号无关;离散有记忆信源是指信源的输出信号与过去的输入信号有关。
三、离散信源信息量的计算方法离散信源的信息量是指信源输出的符号所包含的信息量,通常用比特(bit)来表示。
离散信源的信息量的计算方法主要有两种:一种是基于概率的计算方法,另一种是基于熵的计算方法。
基于概率的计算方法是通过计算信源输出符号的概率来计算信息量;基于熵的计算方法是通过计算信源的熵来计算信息量。
熵是信息论中用于度量信息量的一个重要概念,它表示信息的不确定性。
四、实验过程及结果分析在实验过程中,学生需要首先了解离散信源的定义和性质,然后通过Matlab 软件计算离散信源的熵,并根据熵的计算结果分析信源的信息量。
在实验中,学生需要编写 Matlab 程序,计算离散信源的熵,并绘制熵的图像。
通过实验,学生可以加深对离散信源的理解和掌握离散信源信息量的计算方法。
五、总结信息论与编码实验一是一门关于信息论的基本概念和方法的实验课程。
通过实验,学生可以了解离散信源的定义和性质,掌握离散信源信息量的计算方法,并熟练使用 Matlab 软件进行离散信源信息量的计算。
03-多符号离散信源
X的数学模型
a2 ,,an 2 X a1 , P( X ) p(a ), p(a ), , p(a ) 2 1 n2 并且
p(a ) p( x
i 1 i i1 1 i2 1
n2
n
n
i1
) p( xi2 / xi1 ) p( xi1 ) p( xi2 / xi1 ) 1
2013-7-25
电信学院 江小平
16/24
马尔可夫信源
2013-7-25
电信学院 江小平
17/24
信源的状态和符号集
有一类信源(马尔可夫信源),输出的符号序列中符号之间 的依赖关系是有限的,即任何时刻信源符号发生的概率只 与前面已经发出的若干个符号有关,而与更前面发出的符 号无关。 设符号集为X和状态为S。信源输出的信息符号还与信源 所处的状态有关。 状态S∈{e1,e2,…,ej} 符号X∈{x1,x2, …,xn} 每一时刻信源发出一个符号后,所处的状态将发生转移。 信源输出的随机符号序列为 X1,X2, …,Xl-1,Xl, … 信源所处的随机状态序列为 S1,S2, …,Sl-1,Sl, …
电信学院 江小平
2013-7-25
18/24
马尔可夫信源定义
马尔可夫信源:信源输出的符号和所处的状态满足下列
两个条件。 某一时刻信源符号的输出只与此刻信源所处的状态有关, 与以前的状态和以前的输出符号都无关。即 P(Xl=xk /Sl=ei , Xl-1=xk-1 , Sl-1=ej ,…) =pl(xk /ei) 当具有时齐性时有 pl(xk /ei)= p(xk /ei) 信源某l时刻所处的状态由当前的输出符号和前一时刻(l-1) 信源的状态惟一确定。即
信息论第三章离散信源无失真编码讲解
在一组码字集合C中的所有码字cm (m = 1,2, …,M),其码 长都相同,则称这组码C为等长码。
3.变长码
若码字集合C中的所有码字cm (m = 1,2, …,M),其码长不 都相同,称码C为变长码。
4.奇异码
对奇异码来说,从信源消息到码 字的影射不是一一对应的。奇异码 不具备惟一可译性。
变长码分为即时码和延长码,为保证即时译码,要求变长 惟一可译码采用即时码。
对于变长码,要求整个码集的平均码长力求最小,此 时编码效率最高。
对于给定信源,使平均码长达到最小的编码方法,称 为最佳编码,得到的码集称为最佳码。
3.3.2 克拉夫特不等式
定理3.2
D进制码字集合C ={c1, c2,…, cM },码集中
码C中每个码字cm( m = 1, 2, …,M)其码长的概率加权平均值为
M
n
nm p(c m )
(3-1)
m 1
式中nm是码字cm所对应的码字的长度,p ( cm )是码字cm出现的 概率。
对于等长码,由于码集C中的每个码字的码长都相同,平
均码长就等于每个码字的码长
n nm p(c m ) n p(c m ) n
信源编码包括两个功能: (1) 将信源符号变换成适合信道传输的符号; (2) 压缩信源冗余度,提高传输效率。
一般来说,信源编码可归纳为如图3-1所示的模型。
消息
信源
ui = ui1 ui2 … uiL
信源编码器
码字ci = ci1 ci2 … cin
信源符号 {a1,a2, …, aK}
图3-1
信道符号(码符号){b1, b2, …, bD} 信源编码器模型
{a1, a2, …, aK}为信源符号集,序列中每一个符号uml都 取自信源符号集。
信息论与编码姜丹第三版答案
信息论与编码习题参考答案 第一章单符号离散信源信息论与编码作业是 74页,1.1的(1)(5),1.3,1.4,1.6,1.13,1.14 还有证明熵函数的 连续性、扩展性、可加性1.1同时掷一对均匀的子,试求:(1) “2和6同时出现”这一事件的自信息量; (2) “两个5同时出现”这一事件的自信息量; (3) 两个点数的各种组合的熵; ⑷两个点数之和的熵;(5) “两个点数中至少有一个是 1”的自信息量。
解:样本空间:N =c ;c ; =6 X6 =36n 12(1) R =—”1(a) =—log R =log18=4.17bitN 36 n 2 1(2) F 2 N =36 I (a) = -log F 2 =log36 =5.17bit (3) 信源空间:2 36 1.H(x)=15 log 6 log 36 = 4.32bit36 2 36(4)log 36+ — l og 36 — log 36 — log 迸36 2 36 3 36 4 log 塑 + — log 36 =3.71bit5 36 6 (5) F 3 =匹 二11. 1(a) - Tog F 3 -log 36 =1.17bit N 36 111.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它2H(r.卫36们的坐标分别为(Xa,Ya) , (Xb,Yb),但A,B不能同时落入同一方格内。
(1)若仅有质点A,求A落入任一方格的平均信息量;(2)若已知A已落入,求B落入的平均信息量;(3)若A,B是可辨认的,求A,B落入的平均信息量。
解:1(1) 幕A落入任一格的概率:P(a i) I (aj =-log P(aJ = log 484848.H(a) - P(a j)log P(aJ = log 48 =5.58biti 41(2) ;在已知A落入任一格的情况下,B落入任一格的概率是:P(bJ = —47.I(b) - -logP(b i) =log4748.H(b) = -' P(b i)log P(b i) =log47 =5.55biti -11 1(3) AB同时落入某两格的概率是P(ABJ二一一48 47.I(ABJ =-log P(AB i)48 47H(AB」-八P(ABJIog P(ABJ =log(48 47)=11.14biti 二1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
第三章 多符号离散信源与信道
极限熵的求取
• 例3.3 m=2 , r=2。因此状态有rm = 4个: S1 ~ S4 测得一步转移概率为: 写成矩阵形式:
各态遍历性的判定
方法1:
香农线图(有限状态机)
各态遍历的判定
• 方法2:不可约闭集,且非周期性 (1)不可约:闭集中不存在闭集
(2)非周期性: 所有出发状态回到该状态所需的步数不存 在公因子
第6节 信源的剩余度
第7节 离散无记忆信道容量
作业
• 本章作业:3.7, 3.10
• 在本人研究领域中,需找一篇利用马尔科 夫链进行研究的文献,理解并制作5-10页 PPT,在课堂上介绍5-10分钟。时间:第18 周中。
规律影响后续时刻的取值 • 平稳性:不同时刻的联合概率相等
离散平稳有记忆信源的数学模型
• 联合概率求取:
• 完备集证明:式(3.24~3.26)
• 二维离散平稳信源的例子:式(3.27~3.42)
二维离散平稳信源的熵
• 无记忆 • 有记忆(3.27-3.32)
• 有记忆/无记忆信源熵的比较(3.33-3.42): • 定义平均符号熵:HN(X)
奇数步转移概率:
偶数步转移概率:
极限熵的求取
1)求状态极限概率
的约束下
的唯一解。
例3.3中的极限概率方程组:
2)极限状态概率和转移概率求极限熵
例3.4 二 维 M 信 源 状 态 稳 定 过 程
例3.4(看图计算)
1)写出一步转移矩阵; 2)画出状态转移图;
3)判断各态遍历性;
4)列出方程组,求解极限概率; 5)求极限熵。
第三章 多符号离散信源与信道
第1~5节
第一节 多符号离散平稳信源 的数学模型
PPT信息论与编码-第2章 离散信源资料
3 有记忆信源
p( X) p( X i aki ), ki 1,2,
i 1
N
,q
信源先后发出的符号是互相依赖的,如中文序列; 需要引入条件概率分布说明它们之间的关联性; 实际上信源发出符号只与前若干个符号(记忆长 度)有较强的依赖关系.
2018年11月23日星期五 3(-10:55),4(-11:50) 12
2018年11月23日星期五
3(-10:55),4(-11:50)
3
2.1 信源的数学模型及分类
研究对象: 通过消息(信息载荷者)研究信源; 研究范围:
不研究信源的内部结构、产生消息原因和方法; 研究信源输出可能消息的数目和不确定性;
描述方法: 用一个样本空间X及其概率测度
P——概率空间[X,P]描述信源;
f [ pi ] log pi
2018年11月23日星期五 3(-10:55),4(-11:50) 19
2.2.1 自信息
4 自信息的两个含义
当事件ai发生以前, 表示事件ai发生的不确定性;
当事件ai发生以后, 表示事件ai所含有(或所提供) 的信息量.
在无噪信道中, 事件ai发生后, 能正确无误地传输到 收信者, 所以可代表接收到消息ai后所获得的信息 量.这是因为消除了I(ai)大小的不确定性, 才获得这 么大的信息量。
2018年11月23日星期五 3(-10:55),4(-11:50) 4
2.1 信源的数学模型及分类
分类方法:
根据消息的不同随机性质进行分类;
随机变量
随机矢量
信源可能输出的消息数:
离散信源
连续信源.
2018年11月23日星期五
2020年信息论与编码期末考试题
信息论与编码期末考试题(一)一、判断题. 当随机变量和相互独立时,条件熵等于信源熵. ()由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ()一般情况下,用变长编码得到的平均码长比定长编码大得多. ()只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ()各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ()连续信源和离散信源的熵都具有非负性. ()信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 汉明码是一种线性分组码. ()率失真函数的最小值是. () 1.必然事件和不可能事件的自信息量都是. ()二、填空题 1、码的检、纠错能力取决于 . 2、信源编码的目的是;信道编码的目的是 . 3、把信息组原封不动地搬到码字前位的码就叫做. 4、香农信息论中的三大极限定理是、、 . 5、设信道的输入与输出随机序列分别为和,则成立的条件 .. 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . 7、某二元信源,其失真矩阵,则该信源的=.三、计算题. 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为. (1)计算接收端的平均不确定度;(2)计算由于噪声产生的不确定度;(3)计算信道容量以及最佳入口分布. 2、一阶马尔可夫信源的状态转移图如右图所示,信源的符号集为. (1)求信源平稳后的概率分布;(2)求此信源的熵;(3)近似地认为此信源为无记忆时,符号的概率分布为平稳分布.求近似信源的熵并与进行比较. 3、设码符号为,信源空间为试构造一种三元紧致码. 4、设二元线性分组码的生成矩阵为. (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;(2)若接收矢量,试计算出其对应的伴随式并按照最小距离译码准则试着对其译码. (二)一、填空题 1、信源编码的主要目的是,信道编码的主要目的是。
信息论与编码基础离散信源联合熵
j 1
H (Y ) log2 30 4.91 bit / pixel
亮度和色彩度是独立同时出现的,每个象素含有的信息量为
H (XY ) H (X ) H (Y ) 8.23 bit / pixel 在每帧所用象素数和每秒传送帧数相同时,信息率之比为
R2 H ( XY ) log2 300 2.5 R1 H ( X ) log2 10
信息论与编码基础
离散信源
一、信源的数学模型及分类 二、离散信源的信息熵及其性质 三、离散无记忆的扩展信源
四、离散平稳信源 五、信源的剩余度
信息论与编码基础
离散信源
1、概念 2、二维平稳信源 3、一般离散平稳信源
信息论与编码基础
离散信源
X P(
x)
a1 P(a1
)
a2 P(a2 )
)
xi
)
i 1
i 1
H(X1X2) H(X1) H(X2 | X1) 2H2(X )
H(X2 | X1) H2(X ) H(X ) H(X1X2)
信息论与编码基础
离散信源
[例] 设二维离散信源X=X1X2的原始信源X的信源模型为
X P( X
)
x1
2
(
1 4
)
4 9
log
2
(
4 9
)
11 36
log
2
(
11 36
)
1.542
(比特
/
符号)
i 1
由上表的条件概率确定条件熵
33
H (X 2 / X1)
信息论 多符号离散信道及其平均互信息
N
N
M
M
M
H(Y1Y2 Yn ) H(Y1Y2 Yn / X1X 2 X n )
I(X1X 2 X n ; Y1Y2 Yn ) P( x i1 x i 2 x i n , y j1 y j2 y jn ) log
i1 1 i 2 1 N N i n 1 j1 1 j2 1 N M M jn 1 M N N N M M M
I( x i1 x i 2 x i n ; y j1 y j2 y jn ) I( y j1 y j2 y jn ) I( y j1 y j2 y jn / x i1 x i 2 x i n ) log P( y j1 y j2 y jn ) log P( y j1 y j2 y jn / x i1 x i 2 x i n ) log P( y j1 y j2 y jn ) P( y j1 y j2 y jn / x i1 x i 2 x i n )
1、多符号离散信道及其模型 (1)多符号离散信道
信道传输(转移)多符号离散信源为多符号离散信宿
(2)多符号离散信道的模型
n维离散型随机变量序列 Y1Y2…Yn/X1X2…Xn~P(Y1Y2…Yn/X1X2…Xn)
P( y1 y1 y 2 / x1x1 x1 ) P( y1 y1 y1 / x1x1 x1 ) P( y y y / x x x ) P( y1 y1 y 2 / x1x1 x 2 ) 1 1 1 1 1 2 P(Y1Y2 Yn / X1X 2 X n ) P( y1 y1 y1 / x N x N x N ) P( y1 y1 y 2 / x N x N x N ) P( y M y M y M / x1x1 x1 ) P( y M y M y M / x1x1 x 2 ) P( y M y M y M / x N x N x N )
第三章 多符号离散信源与信道
第三章 多符号离散信源与信道3.1设X =X 1X 2…X N 是平稳离散有记忆信源,试证明:H(X 1X 2…X N )=H(X 1)+ H(X 2/ X 1)+H(X 3/ X 1 X 2)+…+H(X N / X 1 X 2…X N -1)。
(证明详见p161-p162)3.2试证明:logr ≥H(X) ≥H(X 2/ X 1) ≥H(X 3/ X 1 X 2) ≥…≥H(X N / X 1 X 2…X N -1)。
证明:)/()/()/()(log )(log log )()/()/()/()(:)/( )/(log )( )/(log )( )/(log )( )/(log )/()()/()/()/(:12121312121213122211111122111211111122111211111132112111111321121111212211132----==----==-=---==--=-==--=------≥≥≥≥∴≥≥≥≥=-=-=-=⎥⎦⎤⎢⎣⎡-≤∴=∑∑∑∑∑∑∑∑∑∑∑N N N N k k ri rik ik i i ik ik i i r i rik rik ik i i ik ik ik i i ri r ik ik i i ik rik ik ik i i ri rik ik i i ik r ik ik i i ik ik i k k ik i i ik ik i i ik X X X X H X X X H X X H X H r X H r r X H X X X X H X X X H X X H X H X X X X H a a a a p a aa p a a a a p a a a a p a a a a p a a a a p a a a a p a a a a p a a p X X X X H a a a a p a a a a p,即达到最大,又仅当输入均匀分布时重复应用上面式子可得条件概率的平稳性有由离散平稳有记忆信源3.3试证明离散平稳信源的极限熵:)/(lim 121-∞→∞=N N n X X X X H H(证明详见p165-p167)3.4设随机变量序列(XYZ)是马氏链,且X :{a 1, a 2,…, a r },Y :{b 1,b 2, …,bs},Z:{c 1,c 2, …,cL}。
3.3 多符号离散信道
因为信道无记忆,所以
P(b j1 / ai1 ) P(b j2 / ai2 P( b jN / aiN ) P( b jk / aik )
P(b j / ai ) P (b j1 b j2 b jN / ai1ai2 aiN )
k 1
N
式(3.3.14)说明,离散无记忆信道的N次扩展信道, 如果信源也是离散无记忆信源的N次扩展信源,则信道 总的平均互信息是单符号离散无记忆信道的平均互信 息的N倍。
3. N次扩展信道的信道容量
因为
I ( X N ; Y N ) I ( X k ; Yk )
k 1
N
N
所以 C N max I ( X N ; Y N ) max I ( X k ; Yk ) N N
k 1 N
(3.3.3)
证明见书85页
且 H (Y N ) H (Y1Y2 YN )
I ( X N ; Y N ) H (Y N ) H (Y N / X N )
H (Y1 ) H (Y2 / Y1 ) H (Y3 / YY2 ) H (YN / YY2 YN 1 ) 1 1
p(b1 / a1 ) p(b / a ) 2 2 1 2 p(Y / X ) p(b / a ) 1 3 p(b1 / a4 ) p(b2 / a1 ) p(b3 / a1 ) p(b4 / a1 ) p 2 pp pp p 2 p(b2 / a2 ) p(b3 / a2 ) p(b4 / a2 ) p(b2 / a3 ) p(b3 / a3 ) p(b4 / a3 ) pp p 2 2 p(b2 / a4 ) p(b3 / a4 ) p(b4 / a4 ) p pp
信息论与编码实验一离散信源信息量的计算
信息论与编码实验一离散信源信息量的计算摘要:I.引言- 信息论与编码实验一的主题- 离散信源信息量的计算的重要性II.离散信源的定义- 离散信源的定义- 离散信源的特点III.信息量的计算- 信息量的定义- 离散信源信息量的计算方法- 计算实例IV.信息熵的定义- 信息熵的定义- 信息熵的性质- 计算实例V.编码与解码- 编码的过程- 解码的过程- 编码与解码的实例VI.总结- 离散信源信息量的计算的重要性- 对信息论与编码实验一的回顾正文:I.引言信息论与编码是通信工程中的重要内容,它旨在研究如何在传输过程中有效地传输信息。
在信息论与编码实验一中,我们主要关注离散信源的信息量的计算。
离散信源是我们日常生活中最常见的信源类型,例如文字、声音、图像等。
因此,了解离散信源信息量的计算方法对于理解和应用信息论与编码理论具有重要意义。
II.离散信源的定义离散信源是指信息以离散的方式存在的信源。
离散信源的特点是信息符号是离散的、不连续的,且每个符号的出现是相互独立的。
离散信源可以分为无记忆离散信源和有记忆离散信源。
无记忆离散信源是指信源发出的每个符号的概率分布与过去符号无关,而有记忆离散信源则与过去符号有关。
III.信息量的计算信息量是衡量信息的一个重要指标,它表示了接收者在接收到符号后所获得的信息。
对于离散信源,信息量的计算公式为:I(X) = -∑P(x) * log2(P(x)),其中X 表示离散信源,P(x) 表示符号x 出现的概率。
通过计算信息量,我们可以了解信源的信息程度,从而为后续的编码和解码提供依据。
IV.信息熵的定义信息熵是信息论中的一个重要概念,它表示了信源的平均信息量。
信息熵的定义为:H(X) = -∑P(x) * log2(P(x)),其中X 表示离散信源,P(x) 表示符号x 出现的概率。
信息熵具有以下性质:1)信息熵是信息量的期望;2)信息熵的值是有限的,且在0 到比特数之间;3)当信源的每个符号出现的概率相同时,信息熵最大。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
电信学院 汪汉新
11/28
2.2.2离散平稳信源
如果各维联合概率分布均与时间起点无关, 如果各维联合概率分布均与时间起点无关,即对两个不同 的时刻i和 , 的时刻 和j,有 P(Xi)=P(Xj) P(XiXi+1)= P(XjXj+1) P(XiXi+1Xi+2)= P(XjXj+1Xj+2) … P(XiXi+1…Xi+N)= P(XjXj+1…Xj+N) 这种各维联合概率均与时间起点无关的完全平稳信源称为 离散平稳信源。 离散平稳信源。
i1 =1 i2 =1源自nn2012-4-14
电信学院 汪汉新
14/28
二维平稳信源的信源熵
根据信源熵的定义
H ( X ) = H ( X 1 X 2 ) = ∑∑ p ( xi1 xi2 ) log 2
i1 =1 i2 =1 n n n n 1 p ( xi1 xi2 )
= ∑∑ p ( xi1 xi2 ) log 2
2012-4-14
电信学院 汪汉新
i1 , i2 , L , i N ∈ {1, 2, L n}
8/28
离散平稳无记忆信源的熵
因为是无记忆的/统计独立
根据信息熵的定义, 次扩展信源的熵 根据信息熵的定义,N次扩展信源的熵
H ( X ) = H ( X N ) = −∑ P( X ) log P( X ) = −∑ p (ai ) log p (ai )
信源X的 次扩展信源用 表示,它是具有n 个元素( 次扩展信源用X 信源 的N次扩展信源用 N表示,它是具有 N个元素(消息 序列)的离散信源, 序列)的离散信源,其数学模型为
a2 , …, ai ,…, aq X N a1 , = p(a ), p (a ),…, p(a ),…, p (a ) 1 2 i q P( X )
∑
3
i =1
p ( xi ) = 1
求这个离散无记忆信源的二次扩展信源,扩展信源的每个符号是信源 求这个离散无记忆信源的二次扩展信源,扩展信源的每个符号是信源X 的输出长度为2的符号序列 的符号序列。 的输出长度为 的符号序列。 因为信源X共有 个不同符号,所以由信源X中每两个符号组成的不同 共有3个不同符号 因为信源 共有 个不同符号,所以由信源 中每两个符号组成的不同 排列共有3 种 得二次扩展信源共有9个不同的符号 个不同的符号。 排列共有 2=9种,得二次扩展信源共有 个不同的符号。 因为信源X是无记忆的 是无记忆的, 因为信源 是无记忆的,则有 p(ai ) = p( xi ) p( xi ) (i1,i2 = 1,2,3; i = 1,2,…9)
∑ p( x
i2 =1
n
i1 i2
x ) = p ( xi1 )
2012-4-14
电信学院 汪汉新
15/28
结论:两个有相互依赖关系的随机变量X 结论:两个有相互依赖关系的随机变量 1和X2所
的联合熵H( 等于第一 组成的随机矢量X=X1X2的联合熵 X),等于第一 个随机变量的熵H(X1)与第一个随机变量 1已知的 个随机变量的熵 与第一个随机变量X 与第一个随机变量 前提下,第二个随机变量X 的条件熵H(X2/X1)之 前提下,第二个随机变量 2的条件熵 之 和。 H(X) = H(X1)+ H(X2/X1)
2.2 多符号离散信源
2012-4-14
电信学院 汪汉新
1/28
本章节教学内容、基本要求、 本章节教学内容、基本要求、重点与难点
1. 教学内容: 教学内容: 多符号离散序列信源熵。 多符号离散序列信源熵。 信息的冗余度。 信息的冗余度。
2. 教学基本要求: 教学基本要求: 掌握多符号离散序列信源熵的定义、性质。 掌握多符号离散序列信源熵的定义、性质。 掌握马尔可夫信源的模型及熵的计算。 掌握马尔可夫信源的模型及熵的计算。 掌握信息的冗余度的含义。 掌握信息的冗余度的含义。
3. 重点与难点: 重点与难点: 多符号离散序列信源熵的含义。 多符号离散序列信源熵的含义。 信息冗余度的含义。 信息冗余度的含义。
2012-4-14
电信学院 汪汉新
2/28
多符号离散信源
实际的信源输出的消息是时间或空间上离散 的一系列随机变量。 的一系列随机变量。这类信源每次输出的不是一 个单个的符号,而是一个符号序列。 个单个的符号,而是一个符号序列。在信源输出 的序列中,每一位出现哪个符号都是随机的, 的序列中,每一位出现哪个符号都是随机的,而 且一般前后符号的出现是有统计依赖关系的。 且一般前后符号的出现是有统计依赖关系的。这 种信源称为多符号离散信源。 种信源称为多符号离散信源。
是由N个 所组成的序列, 号ai是由 个xi所组成的序列,并且序列中前后符号是统计 独立的。现已知每个信源符号x 含有的平均信息量为H(X), 独立的。现已知每个信源符号 i含有的平均信息量为 , 那么, 个 那么,N个xi组成的无记忆序列平均含有的信息量就为 NH(X)(根据熵的可加性性质:H(XY)=H(X)+H(Y/X)或 (根据熵的可加性性质: 或 H(XY)=H(Y)+H(X/Y) )。因此信源 N每个输出符号含有的 )。因此信源 因此信源X 平均信息量为NH(X)。 。 平均信息量为
2012-4-14
电信学院 汪汉新
16/28
离散平稳信源的信源熵
将二维离散平稳有记忆信源推广到N维的情况 将二维离散平稳有记忆信源推广到 维的情况
H(X)= H(X1X2…XN-1XN) = H(X1)+ H(X2/X1)+ H(X3/X1X2)+…+ H(XN/X1X2…XN-1) [证明 :见下页 证明]: 证明
10/28
可以算得 H(X)=1.5 比特 符号(此处的符号是指 信源的输出符号 i) 比特/符号 此处的符号是指X信源的输出符号 信源的输出符号x H(X)=H(X2)=3 比特 符号(此处的符号是指扩展信源的输出符号 比特/符号
ai ,它是由二个 i符号组成) 它是由二个x 符号组成)
所以
H(X)=2H(X) 对上述结论的解释:因为扩展信源 N的每一个输出符 对上述结论的解释:因为扩展信源X
• •
其中q=nN,每个符号 i是对应于某一个由 个xi组成的序列 每个符号a 是对应于某一个由N个 其中 ai的概率 i)是对应的 个xi组成的序列的概率 的概率p(a 是对应的 是对应的N个
因为信源是无记忆的, 因为信源是无记忆的,所以消息序列
a i = ( xi1 , xi2 , L , xi N )的概率为 p ( a i ) = p ( xi1 ) p ( xi2 ) L p ( xi N ),
2012-4-14
电信学院 汪汉新
12/28
二维平稳信源的数学模型
最简单的离散平稳信源:二维平稳信源 X=X1X2 最简单的离散平稳信源: 每两个符号看做一组, 的一个消息; 每两个符号看做一组,每组代表信源X=X1X2的一个消息; 每组中的后一个符号和前一个符号有统计关联, 每组中的后一个符号和前一个符号有统计关联,这种概 率性的关系与时间起点无关; 率性的关系与时间起点无关; 假定符号序列的组与组之间是统计独立的。 假定符号序列的组与组之间是统计独立的。
1 2
X2 信源的符号
a1
a2
a3
a4
a5
a6
a7
a8
a9
对应的消息序列 x1 x1 x1 x2 x1 x3 x2 x1 x2 x2 x2 x3 x3 x1 x3 x2 x3 x3 概率 p(ai) 1/4 1/8 1/8 1/8 1/16 1/16 1/8 1/16 1/16
2012-4-14
电信学院 汪汉新
2012-4-14
电信学院 汪汉新
4/28
多符号离散平稳信源
为了便于研究,假定随机矢量X中随机变量 为了便于研究, 不随时间的推移变化。 的各维联合概率分布均不随时间的推移变化 的各维联合概率分布均不随时间的推移变化。或 者说, 者说,信源所发符号序列的概率分布与时间的起 点无关,这种信源称为多符号离散平稳信源 多符号离散平稳信源。 点无关,这种信源称为多符号离散平稳信源。
i1 =1 i2 =1 n n
1 p ( xi1 ) p ( xi2 / xi1 )
= ∑∑ p ( xi1 xi2 ) log 2
i1 =1 i2 =1
1 p ( xi1 )
+ ∑∑ p ( xi1 xi2 ) log 2
i1 =1 i2 =1
n
n
1 p ( xi2 / xi1 )
= H ( X1) + H ( X 2 / X1) 其中
电信学院 汪汉新
6/28
2.2.1离散无记忆信源的数学模型
离散无记忆信源X={ x1,x2,…,xn},对它的输出消息序列, 离散无记忆信源 ,对它的输出消息序列, 可以用一组组长度为N的序列来表示它 的序列来表示它。 可以用一组组长度为 的序列来表示它。这时它就等效成 了一个新信源; 了一个新信源; 新信源输出的符号是N长的消息序列 长的消息序列, 新信源输出的符号是 长的消息序列,用N维离散随机矢 维离散随机矢 量来描述。 量来描述。 ai=(xi1,xi2,…,xiN) i=1,2, …,n 都是随机变量 每个分量xik (k=1,2,…,N)都是随机变量,都取值于同一信源 ,并且 都是随机变量,都取值于同一信源X,
XN XN
可以证明:离散无记忆信源 的 次扩展信源的熵等于离 可以证明:离散无记忆信源X的N次扩展信源的熵等于离 散信源X的熵的 倍,即 散信源 的熵的N倍 的熵的
H(X)=H(XN)=NH(X)
2012-4-14
电信学院 汪汉新