信息论课件
信息论-第五章PPT课件
(以后将称d为Hamming距离)
2020/6/1
.
11
§5.1 离散信道编码问题
将(U1U2…UN)输入信道; 信道的输出为(Y1Y2…YN); 再根据(Y1Y2…YN)的值猜测出输入信道的值(U1’U2’…UN’),
并根据变换式
(U1’U2’…UN’)=C(X1’X2’…XL’) 将(U1’U2’…UN’)反变换为(X1’X2’…XL’)。 如果(X1’X2’…XL’)=(X1X2…XL),则正确接收。
2020/6/1
.
6
§5.1 离散信道编码问题
(1)(X1X2…XL)的事件共有DL个,因此(U1U2…UN) 的事件共有DL个,占N维向量值的份额为 DL/DN=1/DN-L。因此当信道传输错误时,有可能使 输出值(Y1Y2…YN)不在这1/DN-L份额之内。这就是说, 信道传输错误有可能被检测到。
{0, 1, …, D-1}。
将此随机变量序列切割成L维随机向量准备输入 信道:
(X1X2…XL), (XL+1XL+2…X2L), …。
2020/6/1
.
4
§5.1 离散信道编码问题
如果直接将(X1X2…XL)输入信道,信道的输出 为(X1’X2’…XL’),则
①当信道传输错误时无法检测到(即接收方无 法确知是否正确接收)。
第五章:信道编码定理
§5.1 离散信道编码问题 §5.2~3 离散信道编码定理
信息论第1章
第一章信息的定性描述第一节对信息的初步认识一. 信息社会当今,世界上信息革命的热潮一浪高过一浪。
近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。
人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。
就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。
因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。
“民以食为天”的信条将会逐渐被“民以信为天”所代替。
社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。
一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。
所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。
在这种社会中,◆信息成了比物质或能源更为重要的资源,◆对信息产业成了重要的产业。
◆从事信息工作者成了主要的劳动者。
◆信息和知识成了生产力发展的决定因素。
二. 信息的普遍性其实,信息并不是什么新鲜东西,信息无时不在,无处不有。
人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。
例如,衣食住行,读书看报,听广播,看电视等等。
人们要进行社会活动就需要有信息交流。
例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。
人们还要进行信息处理和存储。
例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。
不仅如此,信息也是人类自身进化的一个基本条件。
恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。
……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。
5--第5章信息论课件共47页PPT资料
信 源 编
码字:码符号序列Y=(Y1Y2…Yk…Yki)称为码字。
码长/码字长度: ki称为码字长度或简称码长。
码
编码就是从信源符号到码符号的一种映射。若
要实现无失真编码,这种映射必须是一一对应的,
可逆的。
2020/1/4
14
信息论与 编码
编码的定义
西北大学信息学院
一些码的定义
二元码:码符号集为X={0,1},所得码字都是一些二元序
西北大学信息学院
第5章
信源编码
2020/1/4
信息论与编码
1
信息论与
编码 CONTENT
西北大学信息学院
第
TEXT
TEXT
五
章
信 源
5.1
5.2
编 编码概念 等长码与
码
等长信源
编码定理
TEXT
TEXT
5.3 变长码
5.4 变长信源 编码定理
2020/1/4
2
信息论与 编码
第 五 章 信 源 编 码
但不能低于符号熵;
第 五
达到这目标的途径就是使概率与码长匹配。
章 统计匹配编码:
信 根据信源的不同概率分布而选用与之匹配的编码,以
源 编
达到在系统中传信速率最小。
码
2020/1/4
12
信息论与
编码 无失真信源编码器
信源
码字
第 五
S:{s1, s2,…, sq}
章
信源编码器
C:{w1, w2,…, wq}
2020/1/4
5
信息论与 编码
(2) 信源编码的概念
西北大学信息学院
第 信源编码定义:指定能够满足信道特性/适合于信道传
第一章信息论基础PPT课件
2021
43
信息传输和传播手段经历了五次重大 变革:
1 语言的产生。
2 文字的产生。
3 印刷术的发明。
4 电报、电话的发明。
5 计算机技术与通信技术相结 合,促进了网络通信的发展。
2021
44
1.3 信息传输系统
通信的基本问题是在彼时彼地精确地或近似地再现此时此 地发出的消息。
各种通信系统,一般可概括的统计模型: 信息传输系统模型
2021
17
语法信息
仅仅考虑其中形式因素的部分。
语义信息
考虑其中含义因素的部分。
语用信息
考虑其中效用因素的部分。
2021
18
1.1 信息的概念
物质、能量和信息是构成客观世界的 三大要素。 信息是物质和能量在空间和时间上分 布的不均匀程度,或者说信息是关于 事物运动的状态和规律。
2021
19
信息存在于自然界,也存在于人类社会,
2021
15
认识论比本体论的层次要低,因为
认识主体具有感觉能力、理解能力和 目的性,所以从认识论层次上研究信 息“事物的运动状态及其变化方式”就 不再像本体论层次上那样简单,他必 须考虑到形式、含义和效用。
2021
16
全信息
同时考虑事物运动状态及其变化方式的 外在形式、内在含义和效用价值的认识 论层次信息。
信源
信源译码器 信道编码器
等效干扰 信道
等效信源 等效信宿
信
干
道
扰
源
信宿
信源译码器 信20道21 译码器
45
这个模型包括以下五个部分: 1.信源 信源是产生消息的源。
2. 编码器 编码器是将消息变成适合于 信道传送的信号的设备。
信息论第1章25页PPT
信道编码的主要作用是提高信息传送的可靠性
01.11.2019
22
三码合一
密码学研究的内容
如何隐蔽消息中的信息内容,使它在传输过 程中不被窃听,提高通信系统的安全性。
从理论方面来说,若能把三种码合并成一种码 来编译,即同时考虑有效、可靠和安全,可使 编译码器更理想化,在经济上可能也更优越。
信息是消息的内涵,是信号的价值,信息 是能使信宿得以获知解惑的东西。
它应当是从千千万万不同形式不同内容的 消息中抽象出来的、具有共性的、可定量 测度的一个量,应该有它的单位和数学表 达。
01.11.2019
11
消息、信号和信息
例一:扔硬币
正反面不确定
例二:天气预报
晴、多云、雨、雪、风:不确定
15
信息的特征
8. 信息的可加工性 9. 信息的可再现性 10. 信息的可存储性 11. 信息的积累性 12. 信息的延续性和继承性 13. 信息的可开发性 14. 信息的可再生性和可增值性
01.11.2019
16
信息的性质
性质一:普遍性
信息是普遍存在的。
性质二:无限性
在整个宇宙时空中,信息是无限的。
01.11.2019
5
1.2 信息论的研究内容
√ 狭义信息论(经典信息论)
主要研究信息的测度、信道容量及信源和信道编码理论等问 题,又称香农基本理论
一般信息论(工程信息论)
主要研究信息传输和处理问题。除香农理论以外,还包括编 码理论、噪声理论、信号滤波和预测、统计检测和估计、调 制理论、信息处理理论以及保密理论等
《信息论》第二章课件
I(x|y) -logp(x|y)
p(x|y)要满足非负和归一化条件
★条件自信息的含义包含两方面:
y b j 给定,x 事件发生前 ai 事件发生的不确定性 y b j 给定,x 事件发生后 ai 事件包含的信息量
★自信息、条件自信息和联合自信息之间的关系
I(xy)= I(x)+ I(y|x)= I(y)+ I(x|y)
2.7
随机变量X和Y,符号集均为{0,1}
p( y 0 | x 0) p( y 1 | x 0) 1 2
p x (0)
2 3
p x (1)
1 3
p( y 1 | x 1) 1
求H(Y|X)
解:H (Y | X ) p( x) H (Y | x) p( x 0) H (Y | x 0) p( x 1) H (Y | x 1)
其中,q(ui)为节点ui的概率,H(ui)为节点ui的分支熵。
例
2.7
1/2 p 2/3
a1: p/3
b1: 2p/3
b2: 2/3
1/2
a2: p/3
r: 1
1-p
a3: 2(1-p)/3
1/3
a4: 1/3
条件熵
★
条件熵:联合集XY上,条件自信息I(y|x)的平均值
H (Y / X ) E [ I ( y / x)]
I ( x; y) I ( x) I ( x | y)
I(x;y)与 I(x|y)的区别?
互信息的性质
★ 互易性 ★ 当事件x,y统计独立时,互信息为0,即 I(x;y)=0 ★ 互信息可正可负 ★ 任何两事件之间的互信息不可能大于其中 任一事件的自信息
信息论基础ppt课件
于1948年发表的具有里程碑性质的论文 “通讯的数学理论”是世界上首次将通讯 过程建立了数学模型的论文,这篇论文和 1949年发表的另一篇论文一起奠定了现代 信息论的基础。
信息论简介
作为通讯系统的数学理论,香农在1948 年的奠基性文章中提出了通信系统的一 般模型(如下图所示)
解:
(a )
(b )
H(X,Y|Z)H(X|Z)H(Y| X,Z) 因为H(Y| Z, X)0 所以H(X,Y|Z)H(X|Z) 等号成立H(Y| Z, X)=0即Y是X,Z的函数
I(X,Y:Z)I(X:Z)I(Y:Z|X)且 I(Y:Z|X)0 所 以 I(X,Y:Z)I(X:Z) 等 号 成 立 I(Y:Z|X)=0即 给 定 X条 件 下 Y与 Z独 立
I (x) log 1 。 p(x)
1.2 熵、联合熵、条件熵
X 定义 1.2.1 离散随机变量 的熵定义为
H(X)p(x)logp(x) x
e 我们也用 H ( p ) 表示这个熵,有时也称它为概率分布 p 的熵,其中对
数函数以2为底时,熵的单位为比特(bit),若对数以 为底时,则熵的
这种树称满树。
定理 (克莱夫特不等式) 码字字母取值于 进字母集的即时码,其码
字长分别为 l1,l2,lm 时必须满足 Dli 1。
反之,对给定的满足上述不等式i的一组 们为码字长的一个即时码。
(l1,l2,lm),必存在以他
成立。 注 1 定理的结论对构成即时码的任何可列无穷码长集 l1,l2也
( b ) p ( x 0 ) 1 ,p ( x 1 ) 2 ,p ( Y 0 ) 1 ,p ( Y 1 ) 1
信息论基础教学课件ppt信息论基础概述信息论基础概论
§1.2.1 通信系统模型
例如,奇偶纠错 将信源编码输出的每个码组的尾补一个1或0 当传输发生奇数差错,打乱了“1”数目的奇偶性,就 可以检测出错误。
34
§1.2.1 通信系统模型
(a) 无检错
(b) 可检错 (奇校验) (c) 可纠错(纠一个错)
图1.4 增加冗余符号增加可靠性示意图
35
§1.2.1 通信系统模型
信源的消息中所包含的信息量 以及信息如何量度
核心 问题
29
§1.2.1 通信系统模型
编码器(Encoder)
编码器的功能是将消息变成适合于信道传输的信号 编码器包括:
信源编码器(source encoder) 信道编码器(channel encoder) 调制器(modulator)
信源编码器
信道编码器
调制器
功能:将编码器的输出符号变成适合信道传输的信号 目的:提高传输效率 信道编码符号不能直接通过信道输出,要将编码器的输 出符号变成适合信道传输的信号,例如,0、1符号变成 两个电平,为远距离传输,还需载波调制,例如,ASK, FSK,PSK等。
36
§1.2.1 通信系统模型
信道(channel)
13
§1.1.2 信息的基本概念
1949年,Weaver在《通信的数学》中解释香农的工 作时,把通信问题分成三个层次: 第一层:通信符号如何精确传输?(技术问题) 第二层:传输的符号如何精确携带所需要的含义?(语义问题) 第三层:所接收的含义如何以所需要的方式有效地影响行为? (效用问题)
14
§1.1.2 信息的基本概念
§1.1.2 信息的基本概念
信息的三个基本层次:
语法(Syntactic)信息 语义(Semantic) 信息 语用(Pragmatic)信息
信息论第2章(信息量、熵及互信息量)PPT课件
信息论基础
The Basis of Information Theory
主题No2:信息量、熵和互信息量
在上一次课中我们提到香农对信息定性的 定义——事物运动状态或存在方式的不确定性 的描述。事实上,香农对信息不仅作了定性描 述,而且还进行了定量分析。
信源发出的消息常常是随机的,具有不确 定性。如果信源中某一消息的不确定性越大, 一旦发生,并为收信者收到,消除的不确定性 就越大,获得的信息也就越大。同时事件发生 的不确定性与事件发生的概率有关,概率越小, 不确定性就越大。
研究通信系统的目的就是要找到信息传输 过程的共同规律,以提高信息传输的可靠性、 有效性、保密性和认证性,以达到信息传输系 统最优化。
写在最后
经常不断地学习,你就什么都知道。你知道得越多,你就越有力量 Study Constantly, And You Will Know Everything. The More
You Know, The More Powerful You Will Be
谢谢大家
荣幸这一路,与你同行
It'S An Honor To Walk With You All The Way
I(X;Y)是一个用来衡量信道好坏的 非常好的工具。
计算条件熵的例子
例6 设一个二进制对称信道BSC:
其先验概率为p(0)=p(1)=1/2,试计算条 件熵. [解答]由已知条件得:
由条件熵的定义有:
结果表明,虽然每个字符的错误率只有 0.1,可导致整个信宿对信源的平均不确定 性达到了0.469,将近一半。可见通信系统 对信道的要求非常高。
信息论基础详细ppt课件
1928年,哈特莱(Hartley)首先提出了用对数度量信
息的概念。一个消息所含有的信息量用它的可能值
香农
的个数的对数来表示。
(香农)信息: 信息是事物运动状态或存在方式的不确定性的描述。 可运用研究随机事件的数学工具——概率来测度不确定性大小。 在信息论中,我们把消息用随机事件表示,而发出这些消息的信 源则用随机变量来表示。
2.1 自信息和互信息
2.1.1 自信息
随机事件的自信息量 I (xi ) 是该事件发生概率 p(xi ) 的函数,并且应该满 足以下公理化条件:
1. I (xi )是 p(xi )的严格递减函数。当 p(x1)p(x2) 时,I(x1)I(x2),概率 越小,事件发生的不确定性越大,事件发生后所包含的自信息量越大
事件 x i 的概率为p(xi ) ,则它的自信息定义为:
I(xi)d eflogp(xi)logp(1xi)
从图2.1种可以看到上述信息量的定义正 是满足上述公理性条件的函数形式。I (xi ) 代表两种含义:当事件发生以前,等于 事件发生的不确定性的大小;当事件发 生以后,表示事件所含有或所能提供的 信息量。
2.极限情况下当 p(xi )=0时,I(xi);当 p(xi ) =1时,I (xi ) =0。
3.另外,从直观概念上讲,由两个相对独立的不同的消息所提供的 信息量应等于它们分别提供的信息量之和。 可以证明,满足以上公理化条件的函数形式是对数形式。
定义2.1 随机事件的自信息量定义为该事件发生概率的对数的负值。
我们把某个消息 x i 出现的不确定性的大小,定义为自信息,用这
个消息出现的概率的对数的负值来表示:I(xi)lop(g xi)
自信息同时表示这个消息所包含的信息量,也就是最大能够给予 收信者的信息量。如果消息能够正确传送,收信者就能够获得这 么大小的信息量。
信息论课件.ppt教学文案
– 先验概率:选择符号 ai 作为消息的概率----P(ai)
– 自信息:ai 本身携带的信息量
I(ai
)
log 1 P(ai
)
– 后验概率:接收端收到消息(符号) bj 后而发送端
发的是 ai 的概率 P(ai/bj)
– 互信息:收信者获得的信息量-----先验的不确定 性减去尚存在的不确定性
I(ai;bj)loP g(1 ai)loP g(ai1/bj)
第一章 绪论
信息论
通信技术 概率论 随机过程 数理统计
相结合逐步发展而形 成的一门新兴科学
奠基人:美国数学家香农(C.E.Shannon) 1948年“通信的数学理论”
本章内容:
信息的概念 数字通信系统模型 信息论与编码理论研究的主要内容及意义
1.1 信息的概念
信息是信息论中最基本、最重要的概念,既抽象又复杂
– 信息具有以下特征: (1)信息是可以识别的 (2)信息的载体是可以转换的 (3)信息是可以存贮的 (4)信息是可以传递的 (5)信息是可以加工的 (6)信息是可以共享的
1.2 信息论研究的对象,目的,内容
一、 研究对象 – 前面介绍的统一的通信系统模型。人们通过系统 中消息的传输和处理来研究信息传输和处理的共 同规律。
消息:用文字等能够被人们感觉器官所感知的形式, 把客观物质运动和主观思维活动的状态表达出来。 知识:一种具有普遍和概括性质的高层次的信息 , 以实践为基础,通过抽象思维,对客观事物规律性的 概括。 情报:是人们对于某个特定对象所见、所闻、所理解 而产生的知识 。
它们之间有着密切联系但不等同 ,信息的含义更深刻、广泛
– 它的主要目的是提高信息系统的可靠性、有效性、 保密性和认证性,以便达到系统最优化;
信息论第二章ppt
特别,对于离散情形,记 xi 表示时刻t i 所取的值, { X (t )} 若 为平稳过程,则其各维联合概率分布均与 t i, t j,( i j) 时间起点无关,即当时 ,有 , P( x ) P( x ) ,
i j
P( xi xi1 ) P(x j x j 1 )
为描述随机过程在不同时刻的状态之间的统 计联系,一般可对任意个 n(n 2,3, ) 不同时 刻 t1, t2 , , tn T,引入 n 维随机变 量 ( X (t1 ), X (t2 ), , X (tn )) ,它的分布函数记为:
FX ( x1, x2 , , xn ; t1, t2 , , tn ) P{X (t1) x1, X (t2 ) x2 , , X (tn ) xn}, xi R, i 1,2, , n
当t1 t2 t
2
2 2 ( t ) C ( t , t ) R ( t , t ) X X X (t ) 时, X
。
如果对每一个 t T ,随机过程 {X (t ), t T }的二 阶矩 E[ X (t )] 都存在,则称它为二阶过程。二阶过 程的相关函数总存在。 例3. 求随机相位正弦波的均值函数、方差函 数和自过程
(1) 如果X (t ) E[ X (t )] X (t ) 以概率1成立,称随机过程{ X (t )} 的均值具有各态历经性; (2) 若对任意实数 ,RX ( ) E[ X (t) X (t )] X (t) X (t ) 以概率1成立,则称随机过程 {X (t )} 的自相关函数具有各 态历经性,特别当 0 时,称均方值具有各态历经 性; (3) 如果随机过程 { X (t )} 的均值和自相关函数都具有各 态历经性,则称 { X (t )}是各态历经过程,或称{ X (t )} 是各 态历经的。各态历经性有时也称作遍历性或埃尔谷德性。
信息论引论ppt
1.2 信息论研究的中心问 题和发展
Shannon信息论的基本任务
1948年shannon发表了“通信的数学理论”奠 定了信息论理论基础
基本任务是设计有效而可靠的通信系统
可靠是要使信源发出的消息经过传输后,尽可能准 确地、不失真地再现在接收端
有效是用尽可能短的时间和尽可能少的设备来传输 一定量的消息
0下载券文档一键搜索 VIP用户可在搜索时使用专有高级功能:一键搜索0下载券文档,下载券不够用不再有压力!
内容特 无限次复制特权 权 文档格式转换
VIP有效期内可以无限次复制文档内容,不用下载即可获取文档内容 VIP有效期内可以将PDF文档转换成word或ppt格式,一键转换,轻松编辑!源自阅读页去广告编码器
信源编码器:对信源输出进行变换,求得有效性 信道编码器:对信源编码输出变换,提高抗干扰性 调制器:将信道编码输出变成适合信道传输的方式
各部件功能
信道
信号从发端传到手段的介质
干扰源
系统各部分引入的干扰,包括衰落,多径,码间干 扰,非线性失真,加性噪声,主要是统计特性
信道的中心问题是研究信道的统计特性和传信能力, 即信道容量
信息论发展简史
1948年shannon信息论奠基 1952年Fano证明了Fano不等式,给出了shannon
信道编码逆定理的证明 1957,Wolfowitz,1961 Fano,1968Gallager给
出信道编码定理的简介证明并描述了码率,码长和 错误概率的关系,1972年Arimoto和Blahut发明了 信道容量的迭代算法 1956McMillan证明了Kraft不等式。1952年Fano码, Huffman码。1976 Rissanen算术编码,1977,78 Ziv和Lempel的LZ算法
信息论PPt(叶中行)
• 信道编码:是以提高信息传输的可靠性为目的的编 码。通常通过增加信源的冗余度来实现。采用的一 般方法是增大码率/带宽。与信源编码正好相反。
• 信源编码理论是信息论的一个重要分支,其理论基础 是信源编码的两个定理。 –无失真信源编码定理:是离散信源/数字信号编码 的基础; –限失真信源编码定理:是连续信源/模拟信号编码 的基础。 • 信源编码的分类:离散信源编码、连续信源编码和相 关信源编码三类 –离散信源编码:独立信源编码,可做到无失真编码; –连续信源编码:独立信源编码,只能做到限失真信 源编码; –相关信源编码:非独立信源编码。
*
3.5 通用信源编码
本节将主要介绍 • LZ算法, • 改进的LZ-Welcn 算法 • Kieffer-Yang算法, • LZ算法基于符号串匹配的算法,而LZWelcn 算法是基于字典的算法,它们都是 利用信源输出符号自身的信息来进行压缩 编码。Kieffer-Yang算法(简称YK算法)则 兼顾了字符串匹配和算术码结构的优点。
0 11 00 11
0 10 00 01
1 10 100 1000
1 01 001 0001
6 、同价码: 每个码字占相同的传输时间
7.码的N 次扩展: 若码C :{W1 , W2 ,..., Wq },B :{Bi (Wi1Wi 2 ...WiN )},则 码B称为码C的N 次扩展码
8、唯一可译码: 若码的任意一串有限长的码符号序列只能被唯一的译成 所对应的信源符号序列,则称此码为唯一可译码。 9、即时码(瞬时编码):没有一个码字是其他码字的前缀 的唯一可译码称为~。 10、码分类
信源
信源编码器
等效信源 等效信宿
信道编码器
等效干扰 信道
信 道
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息理论基础
④.
l log r log q
存在唯一可译码(无失真);
⑤. 能否考虑信源熵不同,实现 l log r H ( S )
信息理论基础
第五章
无失真信源编码
二﹑定长信源编码定理
1. 引理:设离散无记忆信源为
s2 sq s1 S P p( s ) p( s ) p ( s ) 2 q 1 q 其信源熵为H(S),H ( S ) p( si ) log p( si )
信息理论基础
第五章
无失真信源编码
3. 定长编码条件的含义
log q 定长唯一可译码存在的条件 l log r 即 l log r log q
①. l 是信源定长编码后每个信源符号需要的码元个数 ②. logq是具有q个符号的所有离散信源一个符号平均 具有的最大信息量;
③. logr是一个码元符号平均所能携带的最大信息量, l logr是l个码元符号平均所能携带的最大信息量;
信源符号集 S
X
S ( s1 , s2 ,
, sq )
编码器
Y
代码组C
C (W1 , W2 , , Wq )
X ( x1 , x22,,..., , xr q) 1 x
码符号集 X
信息理论基础
第五章
无失真信源编码
1. 编码器构成: 输入: 信源符号集 S=(s1,s2, …sq),由q个符号组成 码符号集 X=(x1,x2…xr),由r个符号组成 输出: 代码组C=(w1, w2,…wq),由q个码字组成 其中,wi ( xi1 xi2 ...xil ) 称为码字,li称为码字长度
信息理论基础
第五章
(3) 即时码:
无失真信源编码
• 即时码存在充要条件: 唯一可译码成为即时码的充要条件是其中任意 一个码字不是其他码字的前缀。
非分组码 码 分组码 奇异码 非奇异码 非唯一可译码 唯一可译码 非即时码 即时码
信息理论基础
第五章
无失真信源编码
§5.3 定长码 一﹑唯一可译定长码 1. 简单信源S 信源S存在唯一可译定长码的条件为:
信息理论基础
第五章
无失真信源编码
二、克拉夫特不等式和麦克米伦不等式
设信源符号集为S = (s1, s2, …, sq,),码符号集
为X = (x1, x2, …, xr),对信源进行编码,代码组
为C = (w1, w2, …,wq),相应码长分别 l1, l2,…, lq,
即时码存在(唯一可译码存在)的充要条件为:
信息理论基础
第五章
无失真信源编码
2. 性质: (1) 奇异性: • 非奇异码:若分组码中所有码字都不相同。 • 奇异码: 若分组码中有相同的码字。 * 非奇异分组码是正确译码的必要条件。 (2) 唯一可译性: • 唯一可译码:如果一个分组码对于任意有限的整数 N,其N次扩展码均为非奇异码。 * 唯一可译码是正确译码的充要条件。 * “唯一”不是指只有一组,而是指能正确译码。
信息理论基础
第五章
无失真信源编码
4. 码奇异性: • 非奇异码:代码组C中所有码字都不相同。 • 奇异码: 代码组C中有相同的码字。
信息理论基础
第五章
无失真信源编码
§5.2 分组码 1. 定义: 信源符号集S中的每一个符号si都映射成一个固 定的码字wi,这种码称为分组码 2. 性质: — 奇异性 — 唯一可译性 — 即时码
R H (S )
H (S ) H (S )
0
信息理论基础
第五章
无失真信源编码
(3) 最佳编码效率: 对于给定的 > 0,最佳编码效率为 H (S ) 0 H (S )
当要求译码错误概率 p 时,N应满足
N DI ( si )
2
lim p 0 即有 N
信息理论基础
第五章
无失真信源编码
2. 定理:(定长信源编码逆定理) 对信源熵H(S)为的离散无记忆信源S的N次扩展信 源进行定长编码,码符号集X中有r个码符号,若码 长选取为L,对于>0 满足
L H ( s) 2 N log r
则当N足够大时,译码错误概率趋于1。
(1)非奇异码
(2)任意有限次扩展码是非奇异码 4. 若想即时译码,变长码必须即时码。
信息理论基础
第五章
一、信源编码方法:
无失真信源编码
1. 匹配编码:概率大的信源符号,代码长度短;
反之,概率小的信源符号,代码长度长。
2. 变换编码:从一种空间变换成另一种空间,然后 进行编码。
3. 识别编码:对有标准形状的文字、符号和数据 进行编码。 *在这里仅介绍匹配编码方法。
lim p 1 即有 N
信息理论基础
第五章
无失真信源编码
3. 信源编码效率 (1) 编码速率:对于定长编码,编码速率定义为
L log r R N
释:①、R是原始信源一个符号对应的码元所能携带的 最大信息量; ②、当R > H(S)时,可以实现无失真传输 。 (2) 编码效率:
H (S ) R
S1由所有这样的A构成。
②. Sn(n>1)的构造:将S0和Sn-1进行比较 若 W S0 ,U Sn1 ,且 W UA ,则A放入Sn中, 若 W ' Sn1,U ' S0 ,且 W ' U ' A' ,则A’放入Sn中, Sn由所有这样的A和A’构成。
信息理论基础
第五章
bbcde
信息理论基础
第五章
1. 码平均长度
无失真信源编码
四、变长信源编码定理
s1 离散无记忆信源为 S P p( s1 ) 编码后的码字为 w1, w2 ,, wq s2 p( s2 ) sq p( sq )
码字长度分别为
l1 , l 2 ,, l q
p(si ) p(wi )
⑤. 仅对典型序列进行编码,需要 L log r log M
M取上限有 L logr log2N[ H ( S ) ] N[H (S ) ]
⑥. 集合 G 中 j没有编码,译码将出错,当 N 2 i 时,译码错误概率,即集合 G 发生的概率小于。
无失真信源编码
2. 定理:码集合S0是唯一可译码的充要条件是S1,S2,… 中没有一个含有S0的元素。
例如: S0={a,c,abb,bad,deb,bbcde}是否唯一可译码
S0 a c abb S1 bb S2 cde S3 de S4 b S5 ad bcde S6 d S7 eb S8
Φ
bad deb
i 1
信源S的N次扩展信源SN为
N S
1 P p( ) 1
2
p( 2 )
p( q N )
N
q
信息理论基础
第五章
无失真信源编码
用码符号集X=(x1,x2, …xr)对SN进行长度为L的等 长编码,则对于>0,>0,只要满足
当足够大时,必可使译码错误小于。
扩展信源SN有qN个符号
③. 将SN分成两个互逆集合
I ( j ) I ( j ) G j : H ( S ) 和G j : H (S ) N N ④. 集合 G中 j称为典型序列,共有M个 M 2 N [ H ( S ) ]
R log r 最大值能达到吗?如何达到 ?香农第一定理
信息理论基础
第五章
2. 紧致码
无失真信源编码
定义:对于某一个信源和某一码符号集,若有一个 唯一可译码,其平均码长度 L 小于所有其它唯一可 译码的平均码长度,则称该码为紧致码(也称最佳 码)。
释:
• 无失真信源编码核心问题是寻找紧致码;
• 紧致码是平均码长最短的唯一可译码,但紧致码不 一定只有一个。
D[ I ( s )]
信息理论基础
第五章
无失真信源编码
2. 定理:(定长信源编码定理) 对信源熵为H(S) 的离散无记忆信源S的N次扩展信 源进行定长编码,其中码符号集X中有r个码符号, 若码长选取为L,对于 > 0 只要满足
L H (S ) N log r
则当N足够大时,可实现译码错误概率任意小的等 长编码,近似无失真编码。
N N
将η代入得,
2 N 2 H ( S ) (1 )2
D I (si )
限制应用
信息理论基础
第五章
§5.4 变长码
无失真信源编码
引入
1. 变长码无需扩展次数N很大就能实现高效率的无失 真信源编码; 2. 变长码必须是唯一可译码,才能实现无失真编码; 3. 变长码是唯一可译码的充要条件:
信息理论基础
第五章
无失真信源编码
主要内容 §5.1 编码器 §5.2 分组码 §5.3 定长码 §5.4 变长码 §5.5 变长编码方法 — 香农(Shannon)编码 — 霍夫曼(Huffman)编码 — 费诺(Fano)编码
信息理论基础
第五章
无失真信源编码
§5.1 编码器 • 无失真信源编码 将信源产生的全部信息无损地送给信宿,这种 信源编码称无失真信源编码。 • 数学模型 :
信息理论基础
第五章
(3) 即时码:
无失真信源编码
• 定义:无需考虑后续的码符号,即可以从码符号序 列中译出码字,这样的唯一可译码为即时码。 例如:C={1,10,100,1000}是唯一可译码,但非即时码
C={1,01,001,0001}是唯一可译码,也是即时码
• 码前缀: