信息论第五讲

合集下载

信息论第五讲

信息论第五讲

(3)性质 • 条件熵H(XN|X1X2…XN-1)随着N的增加而递减 证明: H(XN|X1X2…XN-1)≤H(XN|X2…XN-1)(条件熵小于等于无条件熵) = H(XN-1|X1X2…XN-2)(序列的平稳性)
• 若N一定,则平均符号熵大于等于条件熵 HN(X)≥H(XN|X1X2…XN-1) 证明: NHN(X)=H(X1X2…XN) =H(X1)+H(X2|X1)+…+H(XN|X1X2…XN-1) . = H(XN)+H(XN|XN-1)+…+H(XN|X1X2…XN-1) (序列平稳性) ≥NH(XN|X1X2…XN-1) (条件熵小于等于无条件熵) 所以 HN(X)≥H(XN|X1X2…XN-1) • 平均符号熵也随N的增加而递减 证明: NHN(X)= H(X1X2…XN)= H(XN|X1X2…XN-1)+ H(X1X2…XN-1) = H(XN|X1X2…XN-1)+(N-1) HN-1(X)≤HN(X)+ (N-1) HN-1(X) 所以HN(X)≤HN-1(X), 即序列的统计约束关系增加时,由于符号间的相关性,平均每 个符号所携带的信息量减少。
X x1 x1 , x1 x2 ,, x1 xn ;; xn x1 , xn x2 ,, xn xn
ai xi1 xi2
i1 , i2 1,2,, n
a2 ai an2 X a1 p ( a ) p ( a ) p ( a ) p ( a ) 2 i n2 P ( X ) 1
i1 1 i2 1
3
3
1 0.870(比特 / 符号) p( xi2 / xi1 )
H(X1X2)= H(X1)+ H(X2/X1)=1.542+0.870=2.412(比特/符号)

5--第5章信息论课件共47页PPT资料

5--第5章信息论课件共47页PPT资料

信 源 编
码字:码符号序列Y=(Y1Y2…Yk…Yki)称为码字。
码长/码字长度: ki称为码字长度或简称码长。

编码就是从信源符号到码符号的一种映射。若
要实现无失真编码,这种映射必须是一一对应的,
可逆的。
2020/1/4
14
信息论与 编码
编码的定义
西北大学信息学院
一些码的定义
二元码:码符号集为X={0,1},所得码字都是一些二元序
西北大学信息学院
第5章
信源编码
2020/1/4
信息论与编码
1
信息论与
编码 CONTENT
西北大学信息学院

TEXT
TEXT


信 源
5.1
5.2
编 编码概念 等长码与

等长信源
编码定理
TEXT
TEXT
5.3 变长码
5.4 变长信源 编码定理
2020/1/4
2
信息论与 编码
第 五 章 信 源 编 码
但不能低于符号熵;
第 五
达到这目标的途径就是使概率与码长匹配。
章 统计匹配编码:
信 根据信源的不同概率分布而选用与之匹配的编码,以
源 编
达到在系统中传信速率最小。

2020/1/4
12
信息论与
编码 无失真信源编码器
信源
码字
第 五
S:{s1, s2,…, sq}

信源编码器
C:{w1, w2,…, wq}
2020/1/4
5
信息论与 编码
(2) 信源编码的概念
西北大学信息学院
第 信源编码定义:指定能够满足信道特性/适合于信道传

信息论PPt(叶中行)

信息论PPt(叶中行)

• 信道编码:是以提高信息传输的可靠性为目的的编 码。通常通过增加信源的冗余度来实现。采用的一 般方法是增大码率/带宽。与信源编码正好相反。
• 信源编码理论是信息论的一个重要分支,其理论基础 是信源编码的两个定理。 –无失真信源编码定理:是离散信源/数字信号编码 的基础; –限失真信源编码定理:是连续信源/模拟信号编码 的基础。 • 信源编码的分类:离散信源编码、连续信源编码和相 关信源编码三类 –离散信源编码:独立信源编码,可做到无失真编码; –连续信源编码:独立信源编码,只能做到限失真信 源编码; –相关信源编码:非独立信源编码。
*
3.5 通用信源编码
本节将主要介绍 • LZ算法, • 改进的LZ-Welcn 算法 • Kieffer-Yang算法, • LZ算法基于符号串匹配的算法,而LZWelcn 算法是基于字典的算法,它们都是 利用信源输出符号自身的信息来进行压缩 编码。Kieffer-Yang算法(简称YK算法)则 兼顾了字符串匹配和算术码结构的优点。
0 11 00 11
0 10 00 01
1 10 100 1000
1 01 001 0001
6 、同价码: 每个码字占相同的传输时间
7.码的N 次扩展: 若码C :{W1 , W2 ,..., Wq },B :{Bi (Wi1Wi 2 ...WiN )},则 码B称为码C的N 次扩展码
8、唯一可译码: 若码的任意一串有限长的码符号序列只能被唯一的译成 所对应的信源符号序列,则称此码为唯一可译码。 9、即时码(瞬时编码):没有一个码字是其他码字的前缀 的唯一可译码称为~。 10、码分类
信源
信源编码器
等效信源 等效信宿
信道编码器
等效干扰 信道
信 道

信息论5

信息论5
i1 =1
r
r
( )
( ) −∑ p ( a ) log p ( a )
r i2 =1 i2 i2
……
− ∑ p aiN log p aiN
iN =1
( )
( )
= H ( X1 ) + H ( X 2 ) + ⋯ + H ( X N )
= NH ( X )
例 有一离散无记忆信源
X a1 P(x ) = 1 2
概率 P(α i )
1 1 1 1 1 1 1 1 1 4 8 8 8 16 16 8 16 16
(比特/符号) (比特/符号)
H ( X ) = 1.5
H X
( )= 3
2
2.6 离散平稳信源
信源发出的消息 =(…,X1,X2,…,Xi, …),其中 i表示 发出的消息X= 其中X 发出的消息 其中 t=i时刻所发出的符号 若 时刻所发出的符号,若 时刻所发出的符号
3)
H ( X ) 2.1 × 10 N= = = 158037 H(X ) 13.288
N 6
作业:15,16
i1
a i2 ⋯ a i N
)
= ∑∑ ⋯ ∑ p ai1 p ai2 ⋯ p aiN = ∑ p ai1
i1 =1 r
( )( ) ( )
i2 iN iN
( )∑ p(a )⋯ ∑ p(a ) = 1
的熵 H(X N ) 是单符号离散信源 [ X ⋅ P ]
− ∑ p(α i ) log p(α i ) = NH ( X )

离散二维平稳信源
联合概率 P (a i a
X 0 = 11 P(x ) 36

《信息论》研究生课程讲义

《信息论》研究生课程讲义

《信息论》研究生课程讲义2-5 平均互信息量的特性平均交互信息量IX,Y在统计平均的意义上,描述了信源、信道、信宿组成的通信系统的信息传输特性。

这一节将进一步讨论IX,Y的数学特性,重点介绍其特性的结论和其物理意义。

2-5-1 IX,Y的非负性当x为大于0的实数时,底大于1的对数logx是x的严格上凸函数,可以证明若fx为上凸函数,则有:f∑pixi≥∑pifxi,如fxlogx,则有:log∑pixi≥∑pilogxi根据这个关系,考虑平均互信息量,IX,Y ∑∑pxi,yjlog[pxi,yj/pxipyj]则:-IX,Y ∑∑pxi,yjlog[pxipyj/pxi,yj]≤log∑∑pxi,yj[pxipyj/pxi,yj]log∑pxi ∑pyj0所以有:IX,Y ≥0只有当PX,YPXPY,即对于所有的i1,2,…n, j1,2,…m。

都有:pxi,yjpxipyj,才有:IX,Y0互信息量可能出现负值,但平均互信息量不可能出现负值。

接收者收到一个Y的符号,总能从中获取道关于信源X的信息量,只有当XY相互独立时,平均互信息量才为0。

由IX,YHX-HX/Y,可知,在信息传输过程中,后验熵不可能大于先验熵,这种特性称为后熵不增加原理。

当XY相互独立时,pxi,yjpxipyj可得:HX,YHX+HY当XY相互独立时,pyj/xipyj可得:HY/XHY当XY相互独立时,pxi/yjpxi可得:HX/YHX由互信息量的定义可知:IX,YHX+HY-HX,YHX-HX/YHY-HY/X02-5-2 平均互信息量的交互性由于pxi,yjpyj,xi则:IX,YIY,X交互性表明在Y中含有关于X的信息,IX,Y;在X中含有关于Y的信息,IY,X;而且两者相等。

实际上IX,Y和IY,X只是观察者的立足点不同,对信道的输入X 和输出Y的总体测度的两种表达形式。

两个园相交的部分为平均互信息量,可见,平均互信息量的大小体现了X和Y 的相关程度。

信息论第五讲优秀课件

信息论第五讲优秀课件

07.10.2020
2
I(Y;Z)=H(Y)-H(Y/Z)=H(Z)-H(Z/Y)=I(Z;Y)
H ( Z ) H ( Z /Y ) E lo p ( 1 z ) g E lo p ( z 1 /g y ) E lo p ( p z ( / z ) g y )
I(X ;Z ) I(X ,Y ;Z ) E lo p ( p z (g z /) x ) E lo p (z p g / (z x ) ,y ) Elogpp(z(z//x,xy))
x y z p(x,y,z)lopg p (z(z//x,xy ))
lo xg y z p(x,y,z)pp (z(z//x,xy ))
这是山农信息理论对通信系统模型的一个基本假设。
U
信源
X
编码器
Y
信道
译码器 V
07.10.2020
10
U
X
Y
V
信源
编码器
信道
译码器
这是山农信息理论对通信系统模型的一个基本假设。 根据数据处理定理可以得到:
I(X;V)I(X;Y) I(U;V)I(U;Y) I(U;V)I(X;V)
I(U;V)I(X;Y)
2) 解决的方法是假设其为离散平稳随机序列信源,
极限熵存在,但求解困难;
3) 进一步假设其为m阶Markov信源,其信源熵用极
限熵H m+1近似; 4) 再进一步假设为一阶Markov信源,用其极限熵
H1+1(X2/X1) 来近似; 5) 最简化的信源是离散无记忆信源,
1) 其熵为H(x)=H1 (X); 6) 最后可以假定为等概的离散无记忆信源,
X(X1,X2,...X.n.). V(V1,V2,...V.k.).

第二章信息论

第二章信息论
USERS, USE,TASK
For information science (including information retrieval): third, broadest interpretation necessary
2、信息的基本特征 客观性 知识性 共享性 传播性 时效性 价值性 无限性
译码是编码的逆过程,它把信道中传输过来
的信号转换成信息序列。
通信系统模型的应用
普适性 抽象性 描述了通信过程的各个环节
二、通信的可靠性
通信要求将信息准确无误的传给信宿,使之能够在信宿 端清晰的再现,也就是说要保证通信的可靠性,这主要 通过编码译码和抗噪声干扰两个环节实现。 1、正确的编码译码 通过编码译码原则来确保编码译码本身的可靠性:
基本理论:
把信息抽象为一个单纯的量,并用数学方法进行 量化的描述 抽象出了通信系统模型 初步解决了信息的提取、表达的问题
Claude Elwood Shannon (1916-2001)
信息的层次
统计信息/语法信息/客观信息 语义信息 价值信息
申农信息论的局限性
信息量的相等与接收者的主观方面有关 相同的信息对于不同的接收者价值不同 不能对模糊信息定量描述
α Actually, it states the problem – “unoperational” in information systems involves mental events only constructivists rejected it
Information manifestations (Buckland)
维纳从控制和通信的角度研究了信息问题,以自动 控制的观点解决了信号被噪声干扰时的处理问题,建立 了“维纳滤波理论”,从而扩大了信息论的研究范围。

信息论 总复习_new学习版.ppt

信息论 总复习_new学习版.ppt

最新.课件
14
Wuhan University
最大离散熵定理 (极值性) :离散无记忆信源输出 n 个不同的信息符号,当且仅当各个符号出现概 率相等时 (即p(xi)=1/n),熵最大。 H[p(x1),p(x2),…,p(xn)]≤logn
最新.课件
15
Wuhan University
二进制信源的熵函数 H(p) 为
23
离散无记忆信源的等长编码
无扰编码定理的含义 R>H(U)
Wuhan University
译码错误概率 pe
I(ak)的方差
信源序列中每个符号含 有信息量的算术平均值
I(ak)的数学期望
契比雪夫不等式的右边是理论上的误码率的上限, 必须小于给定的误码率才能保证到达编码性能要求
最新.课件
24
定长编码定理
游程编码和算术编码是非分组编码;游程编码是限 失真信源编码。本章介绍的都是离散信源变长编码。
优点:提高编码效率;
缺点:需要大量缓冲设备来存储这些变长码,然后 再以恒定的码率进行传送;如果出现了误码,容易引 起错误扩散,所以要求有优质的信道。
可靠: 要使信源发出的消息经过传输后,尽可能准确地、
不失真或限定失真地再现在接收端
有效: 用尽可能短的时间和尽可能少的设备来传输最大的
消息
最新.课件
4
第2章 信源熵
Wuhan University
单符号离散信源
自信息量
–用概率测度定义信息量,设离散信源 X,其
概率空间为
–如果知道事件 xi 已发生,则该事件所含有的
5 0.11011
8
a 729/65536
3367/4096=…

信息论第五讲2

信息论第五讲2
电信学院电子信息教研室
X
2.6 离散信源熵和互信息
2º 非负性(条件熵不大于无条件熵H(X) ≥ H(X|Y) )
17
I(X ; Y) = H(X) -H(X|Y)≥ 0 证明: H ( X | Y ) p( y j ) p( x i | y j ) log 2 p( x i | y j )
i j
[ p( x i ) log p( x i ) p( x i y j ) log p( x i | y j )]
i i j
因此
I(X ; Y)=H( X )-H( X|Y )
当X与Y无关时,H(X |Y )= H (X ),则I(X ; Y) =0;表示 无法从Y中获取X的信息。
i j i j
p( x i | y j ) p( x i )
平均互信息量单位 bit /消息
电信学院电子信息教研室
X
2.6 离散信源熵和互信息
当信宿收到某一具体符号yj后,从yj中获取关于输入符 号的平均信息量,显然应该是在条件概率空间中的统计平 均,可用I(X;yj)表示,有
14
I ( X;y j ) p( xi | y j ) I ( xi;y j ) p( xi | y j ) log 2
电信学院电子信息教研室
10
X
2.6 离散信源熵和互信息
x0 = 0 p(0|0) = 3/4 y0 = 0
11
p(0|1) = 1/5 p(1|0) = 1/4 x1 = 1 p(1|1) = 4/5 y1 = 1 1. 联合概率 p(x0 y0) = p(x0) p(y0 | x0 ) = 1/2 × 3/4 = 3/8 p(x0 y1) = p(x0) p(y1 | x0 ) = 1/2 × 1/4 = 1/8 p(x1 y0) = p(x1) p(y0 | x1 ) = 1/2 × 1/5 = 1/10 p(x1 y1) = p(x1) p(y1 | x1 ) = 1/2 × 4/5 = 4/10

最新信息论-第五章教学讲义ppt

最新信息论-第五章教学讲义ppt
当d(y,u(0)) min d(y,u)时, u跑遍所有码字
将输出 y译 值为码 u(0字 )。
2021/3/12
14
§5.1 离散信道编码问题
命题 最大似然概率准则等价于最小距离准则。 证明
pN(y|u)=P(Y1=y1|U1=u1)P(Y2=y2|U2=u2)…P(YN=yN|UN=uN) =(p/(D-1))d(1-p)N-d,
其中d是y与u的Hamming距离。 注意到p/(D-1)<(1-p)。所以 pN(y|u)达到最大,当且仅当y与u的Hamming距离达到最小。 得证。
2021/3/12
15
§5.1 离散信道编码问题
命题 如果每个码字是等概出现的,则最大后验概率准则等价 于最大似然概率准则。
证明
max b(u| y) max q(u)pN(y|u)
(4)过程 (Y1Y2…YN)→(U1’U2’…UN’)→(X1’X2’…XL’)
称为纠错译码。当(X1’X2’…XL’)=(X1X2…XL)时称为正 确译码(实际上就是正确接收)。
2021/3/12
8
§5.1 离散信道编码问题
(5)N比L大得越多,1/DN-L份额越小,码字的分布越 稀疏,信道传输错误不在这1/DN-L份额之内的可能 性越大,即信道传输错误越容易被检测到。但N比L 大得越多,信道传输的浪费越大。
简记率b。(u|y)=P((U1U2…UN)=u|(Y1Y2…YN)=y)。称b(u|y)为后验概 最大后验概率准则:
当b(u(0) | y) maxb(u| y)时, u跑遍所有码字
将输出 y译值为码 u(0)。 字
2021/3/12
10
§5.1 离散信道编码问题

信息论讲义-绪论

信息论讲义-绪论

第一章绪论主要内容:(1)信息论的形成和发展;(2)信息论研究的分类和信息的基本概念;(3)一般通信系统模型;(4)目前信息论的主要研究成果。

重点:信息的基本概念。

难点:消息、信号、信息的区别和联系。

说明:本堂课作为整本书的开篇,要交待清楚课程开设的目的,研究的内容,对学习的要求;在讲解过程中要注意结合一些具体的应用实例,避免空洞地叙述,以此激发同学的学习兴趣,适当地加入课堂提问,加强同学的学习主动性。

课时分配:2个课时。

板书及讲解要点:“信息”这个词相信大家不陌生,几乎每时每划都会接触到。

不仅在通信、电子行业,其他各个行业也都十分重视信息,所谓进入了“信息时代”。

信息不是静止的,它会产生也会消亡,人们需要获取它,并完成它的传输、交换、处理、检测、识别、存储、显示等功能。

研究这方面的科学就是信息科学,信息论是信息科学的主要理论基础之一。

它研究信息的基本理论(Information theory),主要研究可能性和存在性问题,为具体实现提供理论依据。

与之对应的是信息技术(Information Technology),主要研究如何实现、怎样实现的问题。

它不仅是现代信息科学大厦的一块重要基石,而且还广泛地渗透到生物学、医学、管理学、经济学等其他各个领域,对社会科学和自然科学的发展都有着深远的影响。

1.1 信息论的形成和发展信息论理论基础的建立,一般来说开始于香农(C.E.shannon)研究通信系统时所发表的论文。

随着研究的保深入与发展,信息论具有了较为宽广的内容。

信息在早些时期的定义是由奈奎斯持(Nyquist,H.)和哈特莱(Hartley,L.V.R.)在20世纪20年代提出来的。

1924年奈奎斯特解释了信号带宽和信息速率之间的关系;1928年哈特莱最早研究了通信系统传输信息的能力,给出了信息度量方法;1936年阿姆斯特朗(Armstrong)提出了增大带宽可以使抗干扰能力加强。

这些工作都给香农很大的影响,他在1941—1944年对通信和密码进行深入研究,用概率论的方法研究通信系统,揭示了通信系统传递的对象就是信息,并对信息给以科学的定量描述,提出了信息嫡的概念。

信息论讲义_第五讲

信息论讲义_第五讲


平均互信息和各类熵的关系
I ( X ; Y ) H ( X ) H ( X Y ) H (Y ) H (Y X )
I ( X ; Y ) H ( X ) H (Y ) H ( X , Y )
H(X)
H(X|Y)
I(X;Y)
H(Y|X)
H(Y) H(XY)
7
第三章 离散信源

p(ai ) P( X ai )
p(ai ) 0 i 1, 2,, q
i 1, 2,, q
p(a ) 1
i 1 i
q
通常q为有限正整数,也可为可数无穷大.
12
3.1.1 信源及其数学模型(续)
扩展的离散信源
实际上的离散信源输出一个随机矢量X。
信源
其中Xi是随机变量
说明: 将常用汉字看成符号集中的每个符号,假设 常用汉字约为10000个。根据出现频率的统计结果, 将这10000个汉字分为四类。
24
3.2 离散无记忆信源(续)
解:根据信源熵的定义
H ( X ) Pi log Pi
i 1 10000
Pi1 log Pi1 Pi2 log Pi2 Pi3 log Pi3 Pi4 log Pi4
def
3. 互信息量:
I(xi ; yj) log
def
p( xi | y j ) p( xi )
4.
条件互信息量:
I ( xi ; y j | zk ) log
1 1 log log p( xi ) p( xi | y j )
自信息量 条件信息量
3.1.1 信源及其数学模型 3.1.2 信源的分类 输出消息的联系 输出消息的时间

信息论基础详细ppt课件

信息论基础详细ppt课件

1928年,哈特莱(Hartley)首先提出了用对数度量信
息的概念。一个消息所含有的信息量用它的可能值
香农
的个数的对数来表示。
(香农)信息: 信息是事物运动状态或存在方式的不确定性的描述。 可运用研究随机事件的数学工具——概率来测度不确定性大小。 在信息论中,我们把消息用随机事件表示,而发出这些消息的信 源则用随机变量来表示。
2.1 自信息和互信息
2.1.1 自信息
随机事件的自信息量 I (xi ) 是该事件发生概率 p(xi ) 的函数,并且应该满 足以下公理化条件:
1. I (xi )是 p(xi )的严格递减函数。当 p(x1)p(x2) 时,I(x1)I(x2),概率 越小,事件发生的不确定性越大,事件发生后所包含的自信息量越大
事件 x i 的概率为p(xi ) ,则它的自信息定义为:
I(xi)d eflogp(xi)logp(1xi)
从图2.1种可以看到上述信息量的定义正 是满足上述公理性条件的函数形式。I (xi ) 代表两种含义:当事件发生以前,等于 事件发生的不确定性的大小;当事件发 生以后,表示事件所含有或所能提供的 信息量。
2.极限情况下当 p(xi )=0时,I(xi);当 p(xi ) =1时,I (xi ) =0。
3.另外,从直观概念上讲,由两个相对独立的不同的消息所提供的 信息量应等于它们分别提供的信息量之和。 可以证明,满足以上公理化条件的函数形式是对数形式。
定义2.1 随机事件的自信息量定义为该事件发生概率的对数的负值。
我们把某个消息 x i 出现的不确定性的大小,定义为自信息,用这
个消息出现的概率的对数的负值来表示:I(xi)lop(g xi)
自信息同时表示这个消息所包含的信息量,也就是最大能够给予 收信者的信息量。如果消息能够正确传送,收信者就能够获得这 么大小的信息量。

《信息论》(电子科大)复习资料

《信息论》(电子科大)复习资料

信息论导论参考资料作者 龙非池第一章 概论● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。

目前,信息论中主要研究语法信息● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。

信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。

第二章 离散信源及离散熵● 单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。

● 单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。

离散熵的性质和定理:H(X)的非负性;H(X)的上凸性; 最大离散熵定理:()H X lbn ≤● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===则称该多符号离散信源为N 维离散平稳信源。

信息论讲义-第五章(13讲)

信息论讲义-第五章(13讲)

信息理论基础第13讲北京航空航天大学201教研室陈杰21.编码器—信源符号集S =(s 1,s 2, …s q )—码符号集X =(x 1,x 2…x r )—代码组(Source Code ) C =(W 1, W 2,…W q )—码字(Codeword ) W i =(x l1,x l2,…x li )2. 分组码—奇异性(Non-singular )—唯一可译性(Uniquely decodable )—即时码(Instantaneous )All codesNon-singular codesUniquely decodable codesInstantaneous codesFigure 5.1. Classes of codes343. 定长编码3.1 唯一可译定长码编码速率编码效率log log L ql N r=≥log 1log q r +>log log L r R qN=≥()()log H S H S R qη=≤例:英文字符数q =27,且log 2q=4.754 bit 信源熵H (S )=4.03 bit ,取编码速率R=log 2q 则编码效率η=85%53. 定长编码3.2 定长码编码定理(1)正定理:(2)逆定理:log ()L rR H S Nε=≥+2[()]i E D I s p N ε≤log ()2L rR H S Nε=≤−12N E p ε−≥−0E p →1E p →63. 定长编码3.2 定长码编码定理根据正定理,令p E <δlog ()L rR H S Nε=≥+2[()]i E D I s p N δε≤<2[()]i D I s N εδ≥()H S Rη=()()H s H s ε≤+[]222()()(1)i D I s N H S ηηδ≥⋅−1()H s ηεη−=75.4 变长码•引入1. 变长码无需很长的码长就能实现高效率的无失真信源编码2.变长码必须是唯一可译码,才能实现无失真编码3.变长码是唯一可译码的充要条件:(1)非奇异码(2)任意有限次扩展码是非奇异码4. 变长码必须即时码85.4.1码的分类和主要编码方法信源编码方法:⑴匹配编码:概率大的信源符号,代码长度短;反之,代码长度长⑵变换编码:从一种空间变换成另一种空间,然后进行编码⑶识别编码:对有标准形状的文字、符号和数据进行编码9定理:设信源符号集为S=(s 1,s 2, …,s q,),码符号集为X=(x 1,x 2, …x r ),对信源进行编码,代码组C=(W 1,W 2, …W q ),相应码长分别l 1,l 2,…l q ,即时码存在(唯一可译码存在)的充要条件为:11≤∑=−qi l ir10释:(1)克拉夫特(Kraft)不等式为即时码存在充要条件(2)麦克米伦(McMilan )不等式为唯一可译码存在充要条件(3)该定理不能作为判别一种码是否为即时码(唯一可译码)的判据(4)当码字长度和码符号满足该不等式时,必可构造出即时码(唯一可译码)115.4.3 唯一可译码判别准则•唯一可译码:如果一个分组码对于任意有限的整数N ,其N 次扩展码均为非奇异码,则为唯一可译码•唯一可译码的充要条件:(见书上128页)121.码平均长度离散无记忆信源为编码后的码子码字的长度因为是唯一可译码,s i 和W i 一一对应则码字平均长度为[]1212()()()q q s s s S P p s p s p s ⎡⎤=⎢⎥⎣⎦""12,,,qW W W "ql l l ,,,21"()()i i p s p W =11()()q qi i i ii i L p W l p s l ====∑∑13释:(1)是每个信源符号编码需要的平均码符号个数;(2) 编码后,每个信源符号s i 平均用个码符号来表示,平均每个码符号携带的信息量是信道的信息传输率(3) 若传输一个码符号需要t 秒,则每秒传输率为故L L L s H X H R )()(==Ls H R t R t )(1==bit/码符号bit/秒L R t 信息传输率高2.紧致码定义:对于某一个信源和某一码符号集,若有一L个唯一可译码,其平均码长度小于所有其它唯一可译码的平均码长度,则称该码为紧致码(也称最佳码)•释:无失真信源编码核心问题是寻找紧致码14153.定理:(平均码长下界)设离散无记忆信源的信源熵为H (S ),用码符号集进行编码,则存在一种编码方式构成唯一可译码,平均码长满足[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""},,,{21q x x x X "=L rS H L r S H log )(1log )(+<≤16释:(1) 的极限值为,即下界;小于下界,则唯一可译码不存在(2) 当选择时,才能达到下界(3) 紧致码平均码长不一定达到下界(4) 达到下界的唯一可译码是紧致码(5) 紧致码最短码长L ()log H S r Llog ()log i i p s l r=−rS H L log )(=174 变长无失真信源编码定理(香农第一定理)定理:设离散无记忆信源其信源熵为H (S ),它的N 次扩展信源为[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""1212()()()N N qN q S P p p p αααααα⎡⎤⎡⎤=⎢⎥⎣⎦⎢⎥⎣⎦""18扩展信源熵为H (S N ),码符号集X =(x 1,x 2, …x r ),用X 对S N 编码,则总可以找到一种编码方法,构成唯一可译码,使信源S 中的每个信源符号所需要的码字平均长度满足或rS H N L N r S H N log )(1log )(≥>+)(1)(S H NL N S H r N r ≥>+19当时,则其中,是扩展信源中每个信源符号对应的平均码长式中,是对应的码字长度∞→N )(lim S H N L r N N =∞→rS H N L N N log )(lim =∞→N L i α1()Nq N i ii L p αλ==∑i λi α20释:对于平稳遍历的离散有记忆信源(如马尔可夫信源),有其中,为有记忆信源的极限熵N L N L 原始信源平均码长N次扩展信源编码后每原始信源符号的平均码长≥rH N L N N log lim ∞∞→=∞H5.4.4变长信源编码定理5.编码速率、编码效率、剩余度(1) 编码速率:变长编码的编码速率为 LN R= log r N (2) 编码效率:编码效率定义为H ( S ) NH r ( S ) NH ( S ) = = η= R LN LN log r(3) 剩余度:定长码的剩余度为NH r ( S ) γ = 1 −η = 1 − LN21例题 例5.2 设离散无记忆信源Ss2 ⎤ ⎡S ⎤ ⎡ s1 ⎢ P( S ) ⎥ = ⎢0.75 0.25⎥ ⎣ ⎦ ⎣ ⎦ 对信源S及其扩展信源进行二元变长编码, 求当信源扩展次数N=2,3,4时的平均码长和 编码效率。

信息论基础ppt课件

信息论基础ppt课件
计算:
(a) H ( X , Y ) , H ( X ) , H ( Y ) , H ( X |Y ) , H ( Y |X ) , I ( X ; Y ) ;
(b)如果q(x,y)p(x)p(y)为两个边际分布的乘积分布,计 算 D( p Pq) 和 D(q P p)。
解:
(a )
H (X ,Y ) 1 lo g 1 1 lo g 1 1 lo g 1 5 lo g 5 44441 21 21 21 2
1 p(X)
可见熵是自信息的概率加权平均值
引理 1.2.1 H(X) 0,且等号成立的充要条件是 X 有退化分布。
例题 1.2.1 设
1
X


0
依概率 p 依概率 1 p
则 H ( X ) p l o g p ( 1 p ) l o g ( 1 p ) h ( p ) 。
I (x) log 1 。 p(x)
1.2 熵、联合熵、条件熵
X 定义 1.2.1 离散随机变量 的熵定义为
H(X)p(x)logp(x) x
e 我们也用 H ( p ) 表示这个熵,有时也称它为概率分布 p 的熵,其中对
数函数以2为底时,熵的单位为比特(bit),若对数以 为底时,则熵的
图1.1 通信系统模型
第一章 随机变量的信息度量
1.1 自信息 1.2 熵、联合熵、条件熵 1.3 相对熵和互信息
1.1 自信息
定理1.1.1


定义 1.1.1
若自信息I ( x ) 满足一下5个条件:
( i ) 非复性:I(x) 0;
( i i ) 如 p(x) 0, 则 I(x) ;
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
p(v / x, y) p(v / y)
这是山农信息理论对通信系统模型的一个基本假设。
U
信源
X
编码器
Y
信道
V
译码器
2019/5/21
9
U
X
Y
V
信源
编码器
信道
译码器
这是山农信息理论对通信系统模型的一个基本假设。 根据数据处理定理可以得到:
I (X ;V ) I (X ;Y ) I (U ;V ) I (U ;Y ) I (U ;V ) I ( X ;V )
1) 实际信源一般是非平稳的、有记忆、随机序列信
源;其极限熵是不存在的;
2) 解决的方法是假设其为离散平稳随机序列信源,
极限熵存在,但求解困难;
3) 进一步假设其为m阶Markov信源,其信源熵用极
限熵H m+1近似; 4) 再进一步假设为一阶Markov信源,用其极限熵
H1+1(X2/X1) 来近似; 5) 最简化的信源是离散无记忆信源,
2019/5/21
5
(2) 数据处理定理
X
Y
Z
p(y/x)
p(z/xy)
定理:若X,Y,Z为离散随机变量,并且构成一个马尔
可夫链,则有:
I(X;Z)≤I(X;Y)
I(X;Z)≤I(Y;Z) 证明2:
如果满足马尔可夫链,即p(z/xy)=p(z/y)。则串 联信道定理中的等号成立。
2019/)


Elog

p(z / x, p(z)
y)

E log

p(z p(z /
/ x)
x,
y)



xyz
p(x,
y, z) log
p(z / x) p(z / x, y)
log
xyz
p(x, y, z) p(z / x) p(z / x, y)
I (U ;V ) I ( X ;Y )
2019/5/21
10
U
X
Y
V
信源
编码器
信道
译码器
I (U ;V ) I ( X ;Y )
说明:
信息的处理,例如编码,译码等,只能损失 信息,不能增加信息。
只有当信息处理是一一对应时,等号成立。 这一点在理论上是正确的,但是为了有效并
可靠的传输信息,数据处理还是必要的。
p(z / y)
p(z)


Elog
p(z / x, p(z)
y)

E log

p(z / y)
p(z
/
x,
y)



xyz
p(x, y, z) log
p(z / y) p(z / x, y)
2019/5/21
2
X
Y
Z
DMC1
DMC2
同理: 对于所有满足p(x,y,z)>0的(x,y,z),
2019/5/21
1
I(Y;Z)=H(Y)-H(Y/Z)=H(Z)-H(Z/Y)=I(Z;Y)
H (Z )

H (Z
/Y)

Elog

1
p(z)


Elog

1 p(z /

y)


Elog

p(z / y)
p(z)

I (Y;
Z)

I(X
,Y;Z)

Elog
2019/5/21
4
I(X;Z)
I (X ,Y; Z )

Elog
p(z / x) p(z)


Elog
p(z / x, y)
p(z)

log p(x, y) p(z / x) log1 0
xyz
即:
I(X,Y;Z) I(X;Z)
当p(z/x,y)=p(z/x)时,等式成立。 说明信道1是一种无失真的变换。
[例]英文字母信源:26个字母加1个空格符 H0=log27=4.76 bit (等概) H1=4.02 bit (不等概) H1+1=3.32 bit (一阶M-信源) H2+1=3.1 bit (二阶M-信源) H∞=1.4 bit
2019/5/21
14
剩余度:
用来衡量由于信源内部的消息状态的相关性和分
X (X1, X2,......Xn) V (V1,V2 ,.....V. k )
这是一个通信系统基本模型。 其中的U,X,Y,V为离散随机矢量。
2019/5/21
8
对于一个实际通信系统来说, U,X,Y,V构成的 离散随机矢量序列形成一个马尔可夫链。也就是说 他们满足:
p( y / x,u) p( y / x)
布性,使其熵减少的程度称为剩余度。
说明:
p(y/x)为DMC1的信道转移概率;
p(z/y)为DMC2的信道转移概率;
p(z/x,y)为串联信道的信道转移概率;
p(z/x,y) =p(z/y),
说明DMC2的输出只取决于DMC2的输入,这个串联信道 具有马尔可夫链性质。
I(X,Y;Z)-由输出状态Z中得到的关于联合状态(X,Y)的信息量。 I(Y;Z)-由输出状态Z中得到的关于状态Y的信息量。
6
X
Y
Z
p(y/x)
p(z/xy)
I(X,Y;Z)=I(Y;Z)
同时在串联信道定理中还有:
I(X,Y;Z)≥I(X;Z)
因此得到:
I(X;Z)≤I(Y;Z)
同样可以证明I(X;Z)≤I(X;Y)
2019/5/21
7
(3) 数据处理定理推广
U
X
Y
V
信源
编码器
信道
译码器
U (U1,U2,.....U. k ) Y (Y1,Y2,.....Y. n )
其熵为H(x)=H1 (X); 6) 最后可以假定为等概的离散无记忆信源,
其熵为H0(X)=logn;
2019/5/21
13
它们之间的关系可以表示为:
logn=H0(X)≥H1(X)≥H1+1(X)≥H 2+1(X)≥…≥H m+1(X)≥H∞
离散有记忆信源的记忆长度越长,信源熵越小;
而独立且等概的信源,熵最大。
2019/5/21
11
(4)多符号信源—离散随机矢量
H ( X ) p(x) log 1
x
p(x)
I ( X ,Y ) H ( X ) H ( X / Y ) H (Y ) H (Y / X ) I (Y , X )
2019/5/21
12
2.7.4 信源的剩余度
关于离散信源熵的总结:
I(X,Y;Z) I(X;Z)
当且仅当p(z/x,y)=p(z/x)时,等式成立。
从Z中获得X,Y的信息量总是大于等于从Z中获得的X的信息量。
2019/5/21
3
根据: I(X;Z)=H(X)-H(X/Z)=H(Z)-H(Z/X)=I(Z;Y)
I(X;Z)
I(X,Y;Z)

Elog

相关文档
最新文档