北京大学2010年度信息论与编码课程讲义2010CHP2
信息论与编码基础教程第一章
及
常 用
(4)认证性:
术 语
接收者能正确判断所接收的消息的正确性,
验证消息的完整性,而不是伪造和篡改的。
Page 23
1.3
第一章 绪 论
4.信息的特征
信
息 论
(1)信息是新知识、新内容;
的 概
(2)信息是能使认识主体对某一事物的未知
念 及
性或不确定性减少的有用知识;
常
用 (3)信息可以产生,也可以消失,同时信息
Page 31
第一章 绪 论
1-1 信息、消息、信号的定义是什么?三者的关 系是什么?
1-2 简述一个通信系统包括的各主要功能模块及 其作用。
1-3 写出信息论的定义(狭义信息论、广义信息 论)。
1-4 信息有哪些特征? 1-5 信息有哪些分类? 1-6 信息有哪些性质?
Page 32
1.1
信
1961年,香农的“双路通信信道”(Two-
息 论
way Communication Channels)论文开拓了多
发 展
用户信息理论的研究。到20世纪70年代,有关信
简 息论的研究,从点与点间的单用户通信推广发展
史
到多用户系统的研究。
1972年,T Cover发表了有关广播信道的 研究,以后陆续进行了有关多接入信道和广播信 道模型和信道容量的研究。
Page 20
1.3
第一章 绪 论
信 3)信号
息 论
定义:
的 概
把消息换成适合信道传输的物理量(如电
念 信号、光信号、声信号、生物信号等),这种
及 常
物理量称为信号。
用
术
语
信号是信息的载体,是物理性的。
信息论与编码理论第一章
1.2 信息论研究的中心问题和发 展
Shannon信息论的基本任务
1948年shannon发表了“通信的数学理论” 奠定了信息论理论基础 基本任务是设计有效而可靠的通信系统
信息论的研究内容
狭义信息论(经典信息论)
研究信息测度,信道容量以及信源和信道编码理论
一般信息论
研究信息传输和处理问题,除经典信息论外还包括噪 声理论,信号滤波和预测,统计检测和估值理论,调 制理论,信息处理理论和保密理论
几乎无错地经由Gaussian信道传信 对于非白Gassian信道,Shannon的注水定理和多载波调制(MCM) CDMA、MCM(COFDM)、TCM、BCM、各种均衡、对消技术、
以及信息存储编码调制技术
信息论几个方面的主要进展
Ⅰ.信源编码与数据压缩 Ⅱ.信道编码与差错控制技术 Ⅲ.多用户信息论与网络通信 Ⅳ.多媒体与信息论 Ⅴ.信息论与密码学和数据安全 Ⅵ.信息论与概率统计 Ⅶ.信息论与经济学 Ⅷ.信息论与计算复杂性 Ⅸ.信息论与系统、控制、信号检测和处理 Ⅹ.量子信息论 Ⅺ.Shannon的其它重要贡献 参见课程网站:信息论进展50年
2.简化模型。理论的作用是浓缩知识之树, “简 单模型胜于繁琐的现象罗列”, “简单化才能显 现出事物的本质,它表现了人的洞察力”。 好的性能量度和复杂性的量度(信息量、熵、 信道容量、商品等),常会引导出优秀的理论结 果和令人满意的实际应用。
1.3 Shannon信息论的局限性
如果实际信源或信道符合所采用的概率模 型描述,这种方法是有效的,否则只能是 近似的,甚至根本无效。
信道 编码器
信道编码 器
调制器
信 道
干扰源
信源 译码器
信道 译码器
《信息论与编码基础》第1章 绪论
7
课程讨论主要内容
第3章 离散信道及其信道容量 信道的数学模型及分类 信道疑义度与平均互信息 平均互信息的特性 离散无记忆扩展信道 离散信道的信道容量 信源与信道的匹配
8
课程讨论主要内容
第4章 波形信源及波形信道 波形信源的统计特性和离散化 连续信源和波形信源的信息测度 连续信源熵的性质及最大差熵定理 具有最大差熵的连续信源 连续信道和波形信道的分类 连续信道和波形信道的信息传输率 连续信道和波形信道的信道容量
9
课程讨论主要内容
第5章 基本的信源和信道编码定理 无失真信源编码定理 编码器的概念 等长码 等长信源编码定理 变长码 变长信源编码定理(香农第一定理) 有噪信道编码定理 错误概率与编译码规则 有噪信道编码定理(香农第二定理) 联合信源信道编码定理
10
课程讨论主要内容
第6章 保真度准则下的信源编码 失真的测度 信息率失真函数及其性质 离散无记忆信源的信息率失真函数 保真度准则下的信源编码定理(香农第三定理) 联合有失真信源信道编码定理
1.1 信息的一般概念
19
在通信中对信息的表达分为三个层次:信号、消息、信息。 信号:是信息的物理表达层,是三个层次中最具体的层次。 它是一个物理量,是一个载荷信息的实体,可测量、可描 述、可显示。 消息(或称为符号):是信息的数学表达层,它虽不是一个 物理量,但是可以定量地加以描述,它是具体物理信号的 进一步数学抽象。 可将具体物理信号抽象为两大类型: 离散(数字)消息:由随机序列描述的一组未知量: X=(X1, …, Xi , …, Xn) 连续(模拟)消息:由随机过程描述的未知量:X( t, ω) 信息:是信号与消息的更抽象的表达层次。
1.1 信息的一般概念
17
《信息论与编码》课件1第5章
第5章 有噪信道编码
当p=0.01时, Pe≈7.8×10-4, R 2 比特/ 5
此码的编码信息传输率与M=4, n=3的编码相差不大,错 误概率却低得多: 与M=2, n=3的编码相比,错误概率相
从前面的论述中可以看出,在有噪信道中消息传输的错 误概率与所采用的编译码方法有关,那么在有噪信道中,有 没有存在一种最佳的编码方法使得错误概率尽可能小呢? 在使平均错误概率尽可能小的情况下,可达的最大的信息传 输速率是多少呢?Shannon在1948年的论文中首先给出了肯 定的回答,并指出这个可达的最大的信息传输速率是有噪信 道的信道容量,这就是著名的Shannon第二编码定理,也称
P C74 p4 (1 p)3 C75 p5 (1 p)2 C76 p6 (1 p) p7 2.6 103
对于信源[X, P],每个符号的平均信息量为H(X),
H ' H(X)
(5.1)
n
第5章 有噪信道编码
其单位为信息单位/码符号。例如,当信息单位为比特时, 每个码符号的平均信息量的单位为比特/码符号。由例5.1可 知,每个信源符号所需要的码元越多,传输效率越低。我 们把编码后的信息传输率定义为
尽管TX(n, ε)中元素个数不少,约为2nH(X)个,但 与‖Xn‖
事实上,若‖X‖=r,则Xn中的元素个数为rn=2n logr 个,有:
第5章 有噪信道编码
Tx (n, ) 2n[logrH ( X ) ]
Xn
若-n[logr-H(X)-ε]>0,即信源非等概分布,
则有n→∞时α→0 若信源等概, H(X)=log r,则由式(5.10)得:
y=(y1, y2, …, yN)
yi∈Y
P(xi)、P(yi)是单符号离散信道输入和输出的概率分布,
《信息论与编码》课件
优点
可以快速计算出哈希值,常用于数据完整性验证和密码存储。
缺点
对于某些输入,哈希函数可能产生冲突,即不同的输入可能会产生相同的哈希值。
信息论的应用
05
数据压缩
数据压缩是信息论的一个重要应用,通过编码技术减少数据冗余,提高存储和传输效率。
压缩算法
常见的压缩算法包括哈夫曼编码、算术编码、LZ77和LZ78等,这些算法利用数据的统计特性进行压缩。
定义
RSA(Rivest-Shamir-Adleman)、ECC(椭圆曲线加密)等。
常见的非对称加密算法
密钥管理相对简单,安全性较高。
优点
加密速度较慢,通常比对称加密算法慢几个数量级。
缺点
定义
哈希函数是一种将任意长度的数据映射为固定长度哈希值的函数。
常见的哈希函数
MD5(Message Digest Algorithm 5)、SHA(Secure Hash Algorithm)等。
互信息定义
条件互信息表示一个随机变量在给定另一个随机变量的条件下与第三个随机变量之间的相关性。
条件互信息定义
信源编码
02
无损压缩编码是一种完全保留原始数据,没有任何信息损失的编码方式。
有损压缩编码是一种允许一定信息损失的编码方式,通常用于图像、音频和视频等连续媒体数据的压缩。有损压缩编码通过去除数据中的冗余信息和细节来减少存储空间或传输时间。解压缩时,虽然不能完全恢复原始数据,但人眼或耳朵通常无法察觉到损失的信息。因此,它常用于需要快速传输或低成本存储的场景,如数字电视广播、互联网流媒体等。有损压缩编码的优点是压缩率高,适合处理大量数据;缺点是原始数据的完整性和真实性可能受到损失。常见的有损压缩算法包括JPEG、MPEG、MP3等。这些算法通过离散余弦变换、小波变换等技术来减少数据量,同时采用量化等技术来控制信息损失的程度。
信息论基础2010-第二章
熵的性质(II)
H ( X ) H K ( p1 , p2 ,, pk ) H K ( P) pk log pk
k 1 K
熵的性质(III)
(5)可加性 ={A,B}
={A1,A2,A3,B1,B2}
H ( X 2 ) X H ( X 1 ) X H ( X 2 | X 1 ) X
二个事件X=x与Y=y之间的相互提供的信息量定义 为
p( x | y ) I ( x; y ) log p ( x)
联合随机变量{(X, Y), , p(x,y)} 相互提供的平均信 息量称之为二者之间的平均互信息,简称互信息:
I ( X ;Y ) E{I ( x; y )} p( x | y ) p( x, y ) log q( x ) x y
H (U 1 , U 2 , , U N )
H (U
n 1
N
n
| U 1 , U 2 , , U n 1 )
熵的性质(I)
x1 X ~ p 1
x2 x K p2 pK
H ( X ) H K ( p1 , p2 ,, pk ) H K ( P) pk log pk
事件yy的发生还能再给外界提供的新的信息量事件的联合自信息同时发生对外界提供的信息量事件的互信息发生后提供给外界的信息量事件yy还能提供给外界的新信息量事件yy中包含的有关事件xx信息量事件互信息的性质事件zz已知的条件下事件xx与事件yy相互提供的信息量事件的联合互信息事件yy和zz联合提供的有关事件xx的信息量事件联合互信息的链式法则事件yy和zz联合提供的有关事件xx的信息量等于yy提供的有关事件xx的信息量再加上事件yy已知的条件下事件zz所提供的有关xx的新信息量
信息论与编码讲义第十讲
§3.4 最佳不等长编码
补充引理3 补充引理 设信源随机变量U的2元异字头码S。对码S进行如下 的变换: (1)取出一个概率最小的事件a;在剩下的事件中取出一个概 率最小的事件b。 (2)找出一个最长的码字,将该码字与事件a的码字交换位置。 此时事件a的码字就是一个最长的码字。 (3)在事件a的码字之外找出一个最长的码字,将该码字与事 件b的码字交换位置。此时事件b的码字就是一个除了事件a的 码字之外最长的码字。 对码S进行如上的变换后变成了码T。则码T是2元异字头码,且 码T的平均码长≤码S的平均码长。 证明 补充引理3是补充引理2的简单推论。
2 − m1 + 2 − m2 + L + 2 − mK ≤ 1
码字长度依次为m1、m2、…、mK的2元不等长码的平均码长 =码字长度依次为m1、m2、…、mK的2元异字头码的平均码长 ≥码字长度依次为n1、n2、…、nK的2元异字头码的平均码长。 得证。
2010-10-31 3
§3.4 最佳不等长编码
补充引理2 补充引理 设信源随机变量U的2元异字头码S 。设 事件a的概率qa ≤事件b的概率qb ; 事件a的码字长度na ≤事件b的码字长度nb 。 将事件a与事件b交换码字,则平均码长不增加。 证明 (1)交换码字前,两个码字对平均码长的贡献为qana+qbnb; (2)交换码字后,两个码字对平均码长的贡献为qanb+qbna。 (qana+qbnb)-(qanb+qbna)=(qa-qb)(na-nb)≥0。 这就是说, 交换码字前两个码字的贡献≥交换码字后两个码字的贡献; 因此,交换码字使平均码长不增加。
2010-10-31 12
§3.4 最佳不等长编码
信息论与编码教学课件(全)
目录
• 课程介绍与背景 • 信息论基础 • 编码理论基础 • 信道编码技术 • 数据压缩技术 • 多媒体信息编码技术 • 课程总结与展望
01
课程介绍与背景
Chapter
信息论与编码概述
信息论的基本概念
01
信息、信息量、信息熵等
编码的基本概念
02
信源编码、信道编码、加密编码等
02
极化码(Polar Codes)
一种新型信道编码方式,通过信道极化现象实现高效可靠的信息传输。
03
深度学习在信道编码中的应用
利用深度学习技术优化传统信道编码算法,提高编码性能和效率。
05
数据压缩技术
Chapter
数据压缩概述与分类
数据压缩定义
通过去除冗余信息或使用更高效的编码方式,减小数据表示所需存储空间的过 程。
线性分组码原理:线性分组码是一 种将信息序列划分为等长的组,然 后对每组信息进行线性变换得到相 应监督位的编码方式。
具有严谨的代数结构,易于分析和 设计;
具有一定的检错和纠错能力,适用 于各种通信和存储系统。
循环码原理及特点
循环码原理:循环码是一种特殊的线 性分组码,其任意两个码字循环移位
后仍为该码的码字。
03
编码理论基础
Chapter
编码的基本概念与分类
编码的基本概念
编码是将信息从一种形式或格式转换为另一种形式的过程,以 满足传输、存储或处理的需要。
编码的分类
根据编码的目的和原理,可分为信源编码、信道编码、加密编 码等。
线性分组码原理及特点
线性分组码特点
监督位与信息位之间呈线性关系, 编码和解码电路简单;
信息论与编码第一章
“信息是事物运动状态或存在方式的不确定性的描述”
17
信息论研究的对象
信息论是C.E.Shannon四十年代末期,以客观概率 信息为研究对象,从通信的信息传输问题中总结 和开拓出来的理论。
信源
信源 编码
加密
信道 编码 干扰 信道
信宿
信源 译码
解密
信道 译码
噪声
通信系统模型
18
信息论研究的目的
• 可靠性:尽可能准确地、不失真地在接收端再现。 • 有效性:尽可能短的时间和尽可能少的设备来传送一定 数量的信息。 • 保密性:只能让被授权者接收。 • 认证性:接收者能正确判断所接收的信息的正确性,验 证消息的完整性,而不是伪造的和被窜改的。
13
1.1 信息论的概念
信息与消息、信号比较 消息是信息的数学载体 信号是信息的物理载体
信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的
14
1.1 信息的概念
2.信定性。
认识主体接收到信息后,能对某事物的不确定 性、未知性消除,或部分消除。
19
信息论研究的内容
• 狭义信息论(香农信息论):信息的测度、信道容量、信源和信 道编码理论 • 一般信息论:噪声、滤波与预测、估计、保密等
• 广义信息论:所有与信息相关的领域
狭义 信息论
一般 信息论
广义 信息论
20
香农信息论
压缩理论 传输理论 保密理论
有噪声 有失真信源编码 无失真信源编码 信道编码理论 率失真理论 等长编码 变长编码 定理 定理 最优码构成 Huffman码 Fano码 码构成 网络信道 保密系统的 信息理论
网络信息理论
网络最佳码 保密码
信息论与编码第二版第2章ppt
3. 联合熵和条件熵 (1)联合熵(共熵)
联合熵是联合符号集合(X,Y)的每个元素对
(xi , y j ) 的自信息量的概率加权统计平均值,它表
示X和Y同时发生的不确定度。定义为
H XY pxi , yjI xi , yj ij pxi , yj log pxi yj ij
H
(V
|
u0
)
H
(1 4
,
3) 4
0.82bit
/
符号
(2)已知发出的符号,求收到符号后得到的信息量;
11
H (V | U ) p(ui , v j ) log p(v j | ui ) i0 j0
p(u0 , v0 ) p(v0 | u0 ) p(u0 ) 3 / 8 p(u0 , v1) 1/ 8 p(u1, v0 ) 1/ 4 p(u1, v1) 1/ 4
P(x 0, y 0) P( y 0 | x 0)P(x 0) 1/ 2 P(x 0, y ?) 1/ 6, P(x 0, y 1) 0 P(x 1, y 0) 0, P(x 1, y ?) 1/ 6 P(x 1, y 1) 1/ 6
H (Y | X ) p(xi , yi ) log p( yi | xi ) 0.88bit / 符号 ij
“o”的自信息量 I (o)= - log2 0.001=9.97 bit;
例: 居住某地区的女孩中有25%是大学生,在女大学生中有75% 身高为1.6m以上,而女孩中身高1.6m以上的占总数一半。假如得 知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息 量?
解:设x1为女孩是大学生; x2为身高1.6m以上的女孩; 则p( x1)=1/4 ; p (x2)=1/2;
信息论基础课件chp2
定度的差
观察者站在通信系统总体立场上
通信前:输入随机变量X和输出随机变量Y之间没有任何关 联关系,即X与Y统计独立:p(xi yj)=p(xi)p(yj) 先验不确定度 I'(xiyj)lo2gp(xi)1p(yj)
通信后:输入随机变量X和输出随机变量Y之间由信道的统 计特性相联系,其联合概率密度: p(xi yj)=p(xi)p(yj /xi )= p(yj)p(xi / yj) 后验不确定度
(4)两个独立事件的联合信息量应等于它们分别的信息量 之和。
根据上述条件可以从数学上证明这种函数形式是对数形式。
定义2.1 随机事件的自信息量定义为该事件发生概
率的对数的负值。设事件x i 的概率为 p ( xi ),则它的
自信息定义为
I(xi)deflogp(xi)logp(1xi)
当统计独立时,表明xi和yj之间不存在统计约束关系,从yj 得不到关于的xi任何信息,反之亦然。
I(xiyj)lo2g p(xi)1 p(yj)lo2g p(x1 iyj)0
互信息量可为正值或负值
当后验概率大于先验概率时,互信息量为正
当后验概率小于先验概率时,互信息量为负
当后验概率与先验概率相等时,互信息量为零。这就是 两个随机事件相互独立的情况。
解:(1) I(a)log20.0643.96bit I(c)log20.0225.51 bit
( 2 ) I ( a c ) l o g 2 0 . 0 6 4 0 . 0 2 2 3 . 9 6 5 . 5 1 9 . 4 7 b i t
( 3 )I( c |a ) lo g 2 0 .0 4 4 .6 4 b it
信息论与编码 第9讲
信息论与编码(第九讲)第一篇信息论第1章概论(2)第2章信源及其信息量(12)第3章信道及其容量(4)第4章信息率失真函数(4)第二篇编码理论第5章信源编码(4)第6章信道编码的基本概念(2)第7章线性分组码(6)第8章循环码(4)第9章卷积码(4)目录第三章信道及其容量3.1 信道的数学模型和分类3.2 单符号离散信道的信道容量3.3 离散无记忆扩展信道3.4 多用户信道3.5 连续信道3.6 信道编码定理3.7 小结3.3 离散无记忆扩展信道3.3.1 多符号离散信道的数学模型3.3.2 离散无记忆信道和独立并联信道的信道容量(1) 多符号离散信道定义á定义:多符号离散信源X =X 1X 2…X N 在N 个不同时刻分别通过单符号离散信道{X P (Y /X ) Y },则在输出端出现相应的随机序列Y =Y 1Y 2…Y N ,这样形成一个新的信道称为多符号离散信道。
á单符号离散信道{X P (Y /X ) Y } 的N 次扩展:新信道相当于单符号离散信道在N 个不同时刻连续运用了N 次。
3.3离散无记忆扩展信道(1) 多符号离散信道定义á[举例]:求二元对称信道的二次扩展信道。
D 设输入:X ∈{0,1},输出:Y ∈{0,1}D 二次扩展信道的输入符号集为:A 2={00,01,10,11}D 输出符号集为:B 2={00,01,10,11}D根据无记忆信道的特性,求得二次扩展信道的传递概率为:22p p p p p p3.3离散无记忆扩展信道(1) 多符号离散信道定义á[举例]:求二元对称信道的二次扩展信道。
D二次扩展信道的线图表示:D 同理可求得其它传递概率,最后得二次扩展信道的信道矩阵为:3.3离散无记忆扩展信道(2) 多符号离散信道数学模型á设信源矢量X 的每一个随机变量X k (k =1,2,…,N ) 均取自并取遍于信道的输入符号集{x 1,x 2,…,x n } ,则信源共有n N 个不同的元素a i (i =1,2,…,n N )。
信息论与编码chap2
N维随机矢量的一个取 值,i=(ai1 ai2…aiN)
P(aik )是符号集A的 一维概率分布
a2 a3 ... ... aq X a1 若信源空间: P( x) P (a1 ) P (a 2 ) P(a3 ) ... ... P (a q )
描述的信源X的各输出Xi间统计独立、且取值同一 符号集A,则X为离散无记忆信源,称该信源输出 的N维随机矢量X 为离散无记忆信源X的N次扩展 信源
第二章 信源及其熵
本章介绍
信源的统计特性和数学模型 各类信源的信息测度----熵及其性质 引入信息理论的一些基本概念和重要结论
第一章的几个推论
通信系统模型:
信源 消息 编码器 信道 信号 干扰 译码器 消息 信宿
信号+干扰
噪声源
对信息论的学习可从信源开始 消息是信息的载荷者。信息是抽象的,消息是 具体的。要研究信息,还得从研究消息入手。 由于信源发送什么消息预先是不可知的,只能 用概率空间来描述信源
例:汉字组成的中文序列中,只有根据中文的语法、
习惯用语、修辞制约和表达实际意义的制约所构成的中 文序列才是有意义的中文句子或文章。所以,在汉字序 列中前后文字的出现是有依赖的,不能认为是彼此不相 关的。其他如英文,德文等自然语言都是如此
m阶马尔可夫信源
不同时刻发出的符号间的依赖关系
P( xi | xi 2 xi 1 xi 1 xi 2 xi m x1 ) P( xi | xi 1 xi 2 xi m ) (i 1,2, , N )
如果被告知摸出的是红球,那么获得的信息量是:
I (a1) =-log p(a1) =-log0.8= 0.32 (比特)
信息论与编码全部课件
技术发展。 • 信息产业的发展促进了社会产业结构的变化与发
展。
2
#;
.
1.1.1 信息的定义与性质
• 信息:认识主体所感受的或所表达的事物的运动 状态和运动状态的变化方式。
• (1)信息是普遍存在的。 • (2)信息与物质。 • (3)信息与能量。 • (4)人类认识事物,变革事物必须要有信息。
• 举例说明,两个布袋中装有对人手感觉完 全一样的球,但颜色和数量不同,
• (1)50个红球和50个白球 • (2)红球、白球、黑球、黄球各25个 • 随意拿出一个球,被告知是红球所获得的
信息量。
9
#;
.
1.1.2 信息的分类
• (2)按观察的过程分:实在信息、先验信息、实得信息。 • (3)按信息的地位分:客观信息、主观信息。 • (4)按作用分:有用信息、无用信息、干扰信息。
• 信息载体:运载信息的物质。
3
#;
.
1.1.1 信息的定义与性质
• 消息:以文字、语音、图像等这些能够为 人们的感觉器官所感知的物理现象,把客 观物质运动和主观思维活动的状态表达出 来就成为消息。
信号:消息的表现形式和载体。同一信息 可用不同的信号来表示,同一信号也可表 达不同的信息。
4
#;
.
24
#;
.
1.4 信息论发展简史
• 电信系统的发展:
• 电磁理论和电子学理论的发展促进了电信系统 的创造发明或改进。
• 1823年-1835年,莫尔斯建立了电报系统。
• 1876年,贝尔发明了电话系统。 1895年,马可尼和波波夫发明了无线电通信。
1925年-1927年,建立起电视系统。
信息论与编码第一章绪论
➢ 广义信息论
除上述内容外,还包括自然和社会领域有关 信息的内容,如模式识别,计算机翻译,心 理学,遗传学,神经生理学
信息论发展简史
➢ 电磁理论和电子学理论对通信理论技术 发展起重要的促进作用
➢ 研究目的:提高信息系统的可靠性、有效性和安全性以
便达到系统最优化。
1.1 信息的概念
信息是信息论中最基本、最重要的概念,既抽象又 复杂
信息在日常生活中被认为是“消息”、“知识”、“情报” 等➢“信息”不同于消息(在现代信息论形成之前,信息一直
被看作是通信中消息的同义词,没有严格的数学含义), 消息是表现形式,信息是实质;
比
➢ 1928年Hartley提出信息量定义为可能消息量的 对数
➢ 1939年Dudley发明声码器 ➢ 1940维纳将随机过程和数理统计引入通信与控制
系统
信息论发展简史
1948年shannon信息论奠基
1952年Fano证明了Fano不等式,给出了 shannon信道编码逆定理的证明
1957,Wolfowitz,1961 Fano, 1968Gallager给出信道编码定理的简介证 明并描述了码率,码长和错误概率的关系, 1974年Bahl发明了分组码的迭代算法( BCRJ)
➢ 重点讲授信息的概念,信息的度量和计算等 一些基本问题。还学习几种常用的信源编码方 法和纠错编码方法。
课程位置
基础课程
概率论 数理统计
后续课程:
通信原理 数字通信 数字图像处理
课程目标
➢ 掌握基本的信息论概念,而且要求能够和日常 生活和学习结合起来,做到活学活用。
北京大学度信息论与编码课程讲义CHP(PDF)
2.3 条件熵及Fano不等式
1 1
证明1:设X取值于(x1, x2, … , xm ). Y取值于(y1, y2, … , yn ).
对于Z的任一取值zi 设zi=xi1+yi1=xi2+yi2==xik+yik
定义A(z) p( y) p(z / x, y)
x, y
k
则A(z zi ) p( y) p(zi / x, y) p( yil ) 1
2010-3-6
2.5 数据处理定理
2 2
Markov信道链:
(X, Y, Z)是Markov链 (Z, Y, X)也是Markov链 即 p(z/x,y) = p(z/y) p(x/y) = p(x/y,z)
2010-3-6
2.5 数据处理定理
2 3
定理2.5: 设 (X, Y, Z) 是一个Markov链, 则有
z
p(z) z
x,y p(x / y)
其中p(x, y, z) / p(x / y) p(x, y, z) p( y) / p(x, y) p( y) p(z / x, y).
=H(z)+E[logA(z)]
证毕!
2010-3-6
2.3 条件熵及Fano不等式
1 0
例2.1:设X和Y是两个离散随机变量, 定义其和为Z=X+Y(普通加法), 若X和Y相互独立, 求证:H(X)H(Z)。
2.6 互信息量与信道输入概率分布的关系
3 2
证明:I ( X1;Y1) I ( X 2;Y2 ) I ( X ;Y )
p1(x, y) log
x, y
p(y / x) p1 ( y)
x, y
信息论与编码课程大作业二进制哈夫曼编码
信息论与编码课程大作业题目:二进制哈夫曼编码学生姓名:学号: 00专业班级: 2010级电子信息班2013年 5月 18日二进制哈夫曼编码1、二进制哈夫曼编码的原理及步骤1、1信源编码的计算设有N 个码元组成的离散、无记忆符号集,其中每个符号由一个二进制码字表示,信源符号个数n 、信源的概率分布P={p(s i )},i=1,…..,n 。
且各符号xi的以li 个码元编码,在变长字编码时每个符号的平均码长为∑==ni li xi p L 1)( ;信源熵为:)(log )()(1xi p xi p X H ni ∑=-= ;唯一可译码的充要条件:11≤∑=-ni Ki m ;其中m 为码符号个数,n 为信源符号个数,Ki 为各码字长度。
构造哈夫曼数示例如下图所示。
1、2 二元霍夫曼编码规则(1)将信源符号依出现概率递减顺序排序。
(2)给两个概率最小的信源符号各分配一个码位“0”和“1”,将两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n-1)个信源符号的新信源。
称为信源的第一次缩减信源,用s1 表示。
(3)将缩减信源 s1 的符号仍按概率从大到小顺序排列,重复步骤(2),得到只含(n-2)个符号的缩减信源s2。
(4)重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为 1,然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。
1、3 二元哈夫曼编码流程图如下图所示。
2、二元哈夫曼编码程序p=input('please input a number:') %提示输入界面n=length(p);for i=1:nif p(i)<0fprintf('\n The probabilities in huffman can not less than 0!\n');p=input('please input a number:') %如果输入的概率数组中有小于 0 的值,endendif abs(sum(p)-1)>0fprintf('\n The sum of the probabilities in huffman can more than 1!\n');p=input('please input a number:') %如果输入的概率数组总和大于 1,则重endq=p;a=zeros(n-1,n); %生成一个 n-1 行 n 列的数组for i=1:n-1[q,l]=sort(q); %对概率数组q进行从小至大的排序,并且用l数组返回一个q排序前的顺序编号a(i,:)=[l(1:n-i+1),zeros(1,i-1)]; %由数组 l 构建一个矩阵,该矩阵表明概率合并q=[q(1)+q(2),q(3:n),1]; %将排序后的概率数组 q 的前两项,即概率最小的两endfor i=1:n-1c(i,1:n*n)=blanks(n*n);endc(n-1,n)='0'; %由于a矩阵的第n-1行的前两个元素为进行huffman编码加和运算时所得的最c(n-1,2*n)='1';for i=2:n-1c(n-i,1:n-1)=c(n-i+1,n*(find(a(n-i+1,:)==1))-(n-2):n*(find(a(n-i+1,:)==1))); c(n-i,n)='0'; %根据之前的规则,在分支的第一个元素最后补 0c(n-i,n+1:2*n-1)=c(n-i,1:n-1);c(n-i,2*n)='1'; %根据之前的规则,在分支的第一个元素最后补 1for j=1:i-1c(n-i,(j+1)*n+1:(j+2)*n)=c(n-i+1,n*(find(a(n-i+1,:)==j+1)-1)+1:n*find(a(n-i+1,: )==j+ 1));endend%完成 huffman 码字的分配for i=1:nh(i,1:n)=c(1,n*(find(a(1,:)==i)-1)+1:find(a(1,:)==i)*n);ll(i)=length(find(abs(h(i,:))~=32)); %计算每一个 huffman 编码的长度enddisp('二元霍夫曼编码平均码长')l=sum(p.*ll) %计算平均码长%fprintf('\n huffman code:\n');hdisp('信源熵')hh=sum(p.*(-log2(p))) %计算信源熵%fprintf('\n the huffman effciency:\n');disp('编码效率')t=hh/l %计算编码效率3、运行结果及分析当输入数据[,,,,,,,,]时3、1运行结果:please input a number:[,,,,,,,,] p =Columns 1 through 5Columns 6 through 9二元霍夫曼编码平均码长l =h =11101001110101111011111001111110001001信源熵hh =编码效率t =3、2分析:1、在哈弗曼编码的过程中,对缩减信源符号按概率有大到小的顺序重新排列,应使合并后的新符号尽可能排在靠前的位置,这样可使合并后的新符号重复编码次数减少,使短码得到充分利用。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
如果XY,则X有r-1种可能的取值。
(3) 检测X?=Y等同于观测Z, 而H(Z)=H(Pe)
(4) 如果XY(概率为Pe )
保留的不确定量最多为log(r-1) 因此 H(X/Y) H(Pe) + Pe log(r-1)
2010-3-6
目录
1
8
熵的性质
互信息量的性质 条件熵及Fano不等式 复合观测的互信息量 数据处理定理 互信息量与信道输入概率分布的关系 互信息量与信道转移概率分布的关系
I ( X ; Y ) I(X ;Z) I (Y ; Z )
2010-3-6
2.5 数据处理定理
2
4
证明: 由定理2.4, 有 I(X; Z) I(X, Y; Z) 因为(X, Y, Z)是Markov链,有 I(X, Y; Z)=I(Y; Z) 所以 I(X; Z) I(Y; Z) 又因为(X, Y, Z)是Markov链 (Z, Y, X)也是Markov链 有 I(Z, Y; X)=I(Y; X)=I(X; Y) 而 I(Z, Y; X)I(Z; X)=I(X; Z) 所以 I(X; Z) I( X; Y)
2
8
例题2.2(续):
2010-3-6
2
9
2010-3-6
目录
3
0
熵的性质 互信息量的性质 条件熵及Fano不等式 复合观测的信息量 数据处理定理 互信息量与信道输入概率分布的关系 互信息量与信道转移概率分布的关系 互信息量与信道输入符号相关性的关系
互信息量与信道记忆特性的关系
互信息量与信道输入符号相关性的关系
互信息量与信道记忆特性的关系
2010-3-6
2.2 互信息量的性质
6
定理2.2: 对于任意一对随机变量X和Y, I (X;Y) 0. 当且仅当X, Y相互独立时, I (X; Y) = 0.
2010-3-6
目录
7
熵的性质
互信息量的性质 条件熵及Fano不等式 复合观测的互信息量 数据处理定理 互信息量与信道输入概率分布的关系 互信息量与信道转移概率分布的关系
2010-3-6
2.4 复合观测的互信息量
2
0
p( z / y ) p ( z / x, y ) I ( Y ; Z ) I ( X , Y ; Z ) E log log 证明: p( z ) p( z )
p( z / y) E log p ( z / x , y )
x, y , z
p( x, y, z) log
x, y , z
p( z / y ) p( z / x, y )
p( z / y ) p ( x, y , z ) / p ( x, y )
log
p ( x, y , z )
x, y , z
log
p( x, y) p( z / y)
x, y
其中A( z 0) p( y) p( x y / x, y)
p ( y ) p ( x y / x, y ) p( y ) 1 y y x
A( z 1) p( y) p( x y / x, y)
x, y
p ( y ) p ( x y / x, y ) p( y)(r 1) r 1 y x y
p ( y / x) p1 ( x, y ) p 2 ( x, y )log p( y ) x, y
p1 ( x, y) log
x, y
p( y ) p( y ) p 2 ( x, y ) log p2 ( y) p1 ( y) x, y
2010-3-6
定义A( z) p( y) p( z / x, y)
x, y
则A( z zi ) p( y ) p( zi / x, y ) p( yil ) 1
y x l 1
k
因此A(z)1.
2010-3-6
2.3 条件熵及Fano不等式
1
2
证明1
(续):利用定理2.3,有 H(X/Y)H(Z)+E[logA(z)]H(Z)
而 H(Z)-H(Z/Y)=I(Z;Y)≥0 因此 H(Z) ≥H(Z/Y)=H(X)
2010-3-6
2.3 条件熵及Fano不等式
1
4
推论: (Fano Inequality) 设X,Y是随机变量, 取值于符号集(x1, x2, … , xr ). 定义Pe = P{X Y}. 则 H(X/Y) H(Pe) + Pe log(r-1).
2010-3-6
2.6 互信息量与信道输入概率分布的关系
3
2
I ( X 1; Y1 ) I ( X 2 ; Y2 ) I ( X ; Y ) 证明:
p1 ( x, y ) log
x, y
p ( y / x) p ( y / x) p 2 ( x, y) log p2 ( y) p1 ( y ) x, y
2010-3-6
2.3 条件熵及Fano不等式
1
6
证明(续): 根据定理2.3, 有 H(X/Y) H(Pe) + Pe log(r-1) + (1-Pe) log1
= H(Pe) + Pe log(r-1).
2010-3-6
2.3 条件熵及Fano不等式
1
7
分析:
(1) H(X/Y)是Y已知后,仍需通过观测X才能获得的信息量; (2) 观测X的一种方法是首先确定X?=Y: 如果X=Y,则达到目的;
2010-3-6
2.6 互信息量与信道输入概率分布的关系
3
1
定理2.6: I(X; Y)是信道输入概率分布p(x)的 上凸函数.
说明: p(x) = p1(x) + p2(x). ( , 0 1)
定理成立, 即 I(X1; Y1) + I(X2; Y2) I(X;Y).
1 p( x, y, z ) p( z ) log · p ( z ) p ( x / y ) z x, y 1 p( x, y, z ) p( z ) log p( z ) log p( z ) z z x , y p( x / y )
其中p( x, y, z) / p( x / y) p( x, y, z) p( y) / p( x, y) p( y) p( z / x, y).
证毕!
2010-3-6
= log 1 = 0.
目录
2
1
熵的性质
互信息量的性质 条件熵及Fano不等式 复合观测的互信息量 数据处理定理 互信息量与信道输入概率分布的关系 互信息量与信道转移概率分布的关系
互信息量与信道输入符号相关性的关系
互信息量与信道记忆特性的关系
BSS X BSC Y BSC Z
p(x=0)=1/2
0
p p
1-p
0
p p
1-p
0
p(x=1)=1/2
1
1-p
1
1-p
1
2010-3-6
2.5 数据处理定理
2
7
例题2.2(续): I(X; Y)=1-H2(p) I(X; Z)=1-H2[2p(1-p)]
2010-3-6
2.5 数据处理定理
1
2010-3-6
目录
2
熵的性质 互信息量的性质 条件熵及Fano不等式 复合观测的互信息量 数据处理定理 互信息量与信道输入概率分布的关系 互信息量与信道转移概率分布的关系 互信息量与信道输入符号相关性的关系
互信息量与信道记忆特性的关系
2010-3-6
2.6 互信息量与信道输入概率分布的关系
3
3
证明: log p1 ( x, y)
x, y
p( y ) p( y ) log p 2 ( x, y) p1 ( y ) p2 ( y) x, y
log
y
p( y ) p( y ) log p 2 ( x, y) p ( x , y ) 1 p1 ( y ) x y p2 ( y) x
2010-3-6
2.5 数据处理定理
2
5
物理意义:数据处理只能减少信息!
例2.2: X1, X2, X3是独立随机变量, 因此(X1, X1+X2, X1+X2+X3)是Markov 链 有I(X1; X1+X2+X3)I(X1; X1+X2)
2010-3-6
2.5 数据处理定理
2
6
例题2.3:
互信息量与信道输入符号相关性的关系
互信息量与信道记忆特性的关系
2010-3-6
2.4 复合观测的互信息量
1
9
定理2.4: I(X, Y; Z) I(Y; Z). 当且仅当p(z/x, y) = p(z/y)时, 等式成立. I(X, Y; Z) I(X; Z). 当且仅当p(z/x, y) = p(z/x)时, 等式成立.
2010-3-6
2.3 条件熵及Fano不等式
9
证明:
1 H ( X / Y ) E log p( x / y)
x, y, z
p( x, y, z) log
1 p( x / y )
p ( z )
z x, y
p ( x, y , z ) 1 log p( z ) p( x / y )