第4章信息论与编码 43页PPT文档

合集下载

信息论与编码pptPPT学习教案

信息论与编码pptPPT学习教案

第12页/共294页
通讯系统模型
信源 消息
编码器 信道 信号 噪声
译码
信宿

消息
干扰 通信系源统基本模型 ✓ 信源:消息的来源,如文字、语音、图像等
✓ 编码器:把消息变换成信号,如信源编码、纠错编码、调制 器
✓ 信道:传递信号的媒介,如电缆、光纤、无线电波等
✓ 噪声:信道中的干扰,如加性干扰、乘性干扰
联合自信息量(两个随机事件)
二维联合集XY上的元素(xiyj)的联合自信息量定义为:
[含义] X=xi,I (Yx=i yyjj同) 时发l生og时2,p带(x来i y的j )信息量
[特PX例(YX]Y若)X、Yxp1(y独x11,y立1),,,x1则ypmI(,(xxx12iyyymj1)),,=p,(Ixx(x22 iyy)1m)+,,I(,,yxpj)n(yx1n,ym
目的:提高信息的安全性
信宿:信息的接受端
在实际问题中,上述三类编码应统一考虑来提高通信
噪声:信道中的干扰 系统的性能。这些编码的第目14页标/共往294往页 是相互矛盾的。
通讯系统模型
编码的应用的几个例子:
✓ 电报常用的莫尔斯码就是按信息论的基本编码原则设计 出来的;
✓ 在一些商品上面有一张由粗细条纹组成的标签,从这张 标签可以得知该商品的生产厂家、生产日期和价格等信 息,这些标签是利用条形码设计出来的,非常方便,非 常有用,应用越来越普遍;
的效率。信源编码可分为无失真信源编码和限失真信源 编码。目的:提高信息传输的有效性
信道:传递信号的媒介 ✓
信道编码器:在信源编码器输出的代码组上有目的地增 加一些监督码元,使之具有检错或纠错的能力。
✓目密译的码:学码提:高器研信究:息如传何把输隐的蔽信可消靠道息性中输的信出息内的容,信使号它在反传输 变换 过程中不被窃听,提高通信系统的安全性。

精品课课件信息论与编码(全套讲义)

精品课课件信息论与编码(全套讲义)
拓展应用领域 信息论的应用领域将进一步拓展,如生物信息学、 量子信息论等新兴领域,以及与人工智能、大数 据等技术的结合。
跨学科交叉融合
信息论将与更多学科进行交叉融合,如物理学、 化学、社会学等,共同推动信息科学的发展。
编码技术的发展趋势
高效编码算法
随着计算能力的提升,更高效的编码算法将不断涌现,以提高数据 传输和存储的效率。
智能化编码
借助人工智能和机器学习技术,编码将实现智能化,自适应地调整 编码参数以优化性能。
跨平台兼容性
未来的编码技术将更加注重跨平台兼容性,以适应不同设备和网络环 境的多样性。
信息论与编码的交叉融合
理论与应用相互促进
信息论为编码技术提供理论支持, 而编码技术的发展又反过来推动 信息论的深入研究。
共同应对挑战
精品课课件信息论与编码(全套 讲义)

CONTENCT

• 信息论基础 • 编码理论 • 信道编码 • 信源编码 • 信息论与编码的应用 • 信息论与编码的发展趋势
01
信息论基础
信息论概述
信息论的研究对象
研究信息的传输、存储、处理和变换规律的科学。
信息论的发展历程
从通信领域起源,逐渐渗透到计算机科学、控制论、 统计学等多个学科。
卷积编码器将输入的信息序列按位输入到一个移位寄存器中,同时根据生成函数将移位寄存 器中的信息与编码器中的冲激响应进行卷积运算,生成输出序列。
卷积码的译码方法
卷积码的译码方法主要有代数译码和概率译码两种。代数译码方法基于最大似然译码准则, 通过寻找与接收序列汉明距离最小的合法码字进行译码。概率译码方法则基于贝叶斯准则, 通过计算每个合法码字的后验概率进行译码。
04

信息论与编码全部课件-PPT精选文档398页

信息论与编码全部课件-PPT精选文档398页
• 通常取对数的底为2,单位为比特(bit)。
37
2.1.1 自信息量
• 三个单位间的转换关系为:
• 1奈特=log2e 1.433比特 • 1哈特莱=log210 3.332比特
• 自信息量非负且单调递减。
f(x)
log2x
f(x)
34
2.1.1 自信息量
• 应用概率空间的概念分析上例,设取红球
的状态为x1,白球为x2,黑球为x3,黄球为 x4,则概率空间为:
• (1)
• (2)
PX(x)0x1.99 PX(x)0x1.5
x2 0.01
x2 0.5
• (3) P X (x) 0 x1 .250.x 2 2 5x30.25x0 4.25
• (7)按生成领域分:宇宙信息、自然信息、社会信息、 思维信息等。
• (8)按应用部门分:工业信息、农业信息、军事信息、 政治信息、科技信息、文化信息等。
(9)按信息源的性质分:语声信息、图像信息、文 字信息、数据信息、计算信息等。 (10)按载体性质分:电子信息、光学信息、生物信 息等。 (11)按携带信息的信号形式分:连续信息、离散信 息、半连续信息等。
19
1.2.2 数字信息传输系统
• 优点:
• (1)抗干扰能力强,特别在中继传输中尤为明 显。
• (2)可以进行差错控制,提高了信息传输的灵 活性。
(3)便于使用现代计算机技术对信号进行处 理、存储和变换。 (4)便于加密,实现保密信息传输。
20
1.2.2 数字信息传输系统
• (5)易于与其他系统配合使用,构成综合 业务信息传输网。
35
2.1.1 自信息量
• 结论: • (1)不确定度与信源概率空间的状态数及

信息论与编码第三版 第4章

信息论与编码第三版 第4章
C max H ( X ) log 3
p( x)
信息论与编码
3. 根据平均互信息量I(X; Y)达到信道容量的充要条件式对C进行验证:
p ( y j ) p ( xi ) p ( y j / xi )
i 1 3
1 P 0 0
0 1/ 2 0
0 1/ 2 0
0 0 1/6
x1 x2 x3 x4 x5
1 1 1 1 1
y1 y2 y3 y4 y5
1 0 P 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
【解】 该信道的信道容量为:
C max I ( X ; Y ) max H ( X ) log 5
C max I ( X ; Y ) max H (Y )
p( x) p( x)
由于
p( y ) p( x) p( y / x),由于信道转移概率是确定的,求使H (
X
Y)
达到最大值的p ( x )的最佳分布就转化为求p ( y )的最佳分布。由极大离 散熵定理知,在p ( y )等概率分布时,H ( Y ) 达到最大,则
I ( x2 ; Y ) p ( y j / x2 ) log
j 1 2
p ( y j / x2 ) p( y j ) p ( y j / x3 ) p( y j ) p ( y j / x4 ) p( y j ) p ( y j / x5 ) p( y j )
1 log
1 1/ 2
log 2
I ( x3 ; Y ) p ( y j / x3 ) log
j 1 2
1 log

信息论与编码(第四章PPT)

信息论与编码(第四章PPT)
q
变长编码
l p( si )li (码元 / 信源符号).
i 1
编码速率:编码后每个信源符号所能承载的的最大信 息量
R l log m(比特 / 码符号).
编码效率:
H(X ) H(X ) . R l log m
码的多余度(剩余度):
l H ( X ) / log m 1 . l
0级节点
0 1 1 2 2
1级节点
2 0 1 2
w1
0
0
w2 w3 w4 w8
w5
2
2级节点
1
0 1
3级节点
w6 w7
w9
w10
w11
26
4.3
r
变长编码
克拉夫不等式( L.G.Kraft, 1949) 长度为l1, l2,…,lr的m元 即时码存在的充分必要条件是:
li m 1 i 1
唯一可译码: 任意有限长的码元序列,只能被唯一地分割成一个一个的 码字,则称为唯一可译码,或单义可译码. 否则,就称为非 唯一可译码, 或非单义可译码. 例:码4是唯一可译码: 1000100 1000, 100 码3是非唯一可译码: 100010010, 00, 10, 0 或10, 0, 01, 00 或10, 0, 01, 00
麦克米伦定理(麦克米伦: B. McMillan, 1956). 长度为l1, l2,…,lr的m元唯一可译码存在的充分必要条件是:
li m 1 i 1 r
27
4.3
变长编码
例 对于码长序列1,2,2,2, 有 + + + = >1,
1 1 1 1 5 2 4 4 4 4 不存在这样码长序列的唯一可译码, 如码2,码3 1 1 1 1 15 对于码长序列1,2,3,4, 有 + + + = <1, 2 4 8 16 16 存在这样码长序列的唯一可译码! 码4与码5都是唯一可译码!码5是即时码,但码4不是即时码!

《信息论与编码》课件

《信息论与编码》课件

优点
可以快速计算出哈希值,常用于数据完整性验证和密码存储。
缺点
对于某些输入,哈希函数可能产生冲突,即不同的输入可能会产生相同的哈希值。
信息论的应用
05
数据压缩
数据压缩是信息论的一个重要应用,通过编码技术减少数据冗余,提高存储和传输效率。
压缩算法
常见的压缩算法包括哈夫曼编码、算术编码、LZ77和LZ78等,这些算法利用数据的统计特性进行压缩。
定义
RSA(Rivest-Shamir-Adleman)、ECC(椭圆曲线加密)等。
常见的非对称加密算法
密钥管理相对简单,安全性较高。
优点
加密速度较慢,通常比对称加密算法慢几个数量级。
缺点
定义
哈希函数是一种将任意长度的数据映射为固定长度哈希值的函数。
常见的哈希函数
MD5(Message Digest Algorithm 5)、SHA(Secure Hash Algorithm)等。
互信息定义
条件互信息表示一个随机变量在给定另一个随机变量的条件下与第三个随机变量之间的相关性。
条件互信息定义
信源编码
02
无损压缩编码是一种完全保留原始数据,没有任何信息损失的编码方式。
有损压缩编码是一种允许一定信息损失的编码方式,通常用于图像、音频和视频等连续媒体数据的压缩。有损压缩编码通过去除数据中的冗余信息和细节来减少存储空间或传输时间。解压缩时,虽然不能完全恢复原始数据,但人眼或耳朵通常无法察觉到损失的信息。因此,它常用于需要快速传输或低成本存储的场景,如数字电视广播、互联网流媒体等。有损压缩编码的优点是压缩率高,适合处理大量数据;缺点是原始数据的完整性和真实性可能受到损失。常见的有损压缩算法包括JPEG、MPEG、MP3等。这些算法通过离散余弦变换、小波变换等技术来减少数据量,同时采用量化等技术来控制信息损失的程度。

《信息论与编码全部》课件

《信息论与编码全部》课件
添加副标题
信息论与编码全部PPT课件
汇报人:PPT
目录
CONTENTS
01 添加目录标题 03 信息度量与熵
02 信息论与编码的基 本概念
04 信源编码
05 信道编码
06 加密与解密技术
07 信息安全与认证技 术
添加章节标题
信息论与编码的基本概 念
信息论的发展历程
1948年,香农提出信 息论,奠定了信息论
提高安全性
优点:安全性 高,速度快,
易于实现
应用:广泛应 用于电子商务、 网络通信等领

发展趋势:随 着技术的发展, 混合加密技术 将更加成熟和
完善
信息安全与认证技术
数字签名技术
数字签名:一种用于验证信息来源和完整性的技术 数字签名算法:RSA、DSA、ECDSA等 数字证书:用于存储数字签名和公钥的文件 数字签名的应用:电子邮件、电子商务、网络银行等
汇报人:PPT
熵越小,表示信息量越小,不确 定性越小
熵是概率分布的函数,与概率分 布有关
信源编码
定义:无损信源编码是指在编码过 程中不丢失任何信息,保持原始信 息的完整性。
无损信源编码
应用:无损信源编码广泛应用于音 频、视频、图像等媒体数据的压缩 和传输。
添加标题
添加标题
添加标题
添加标题
特点:无损信源编码可以保证解码 后的信息与原始信息完全一致,但 编码和解码过程通常比较复杂。
古典密码学:公元前400年,古希腊人使用替换密码 近代密码学:19世纪,维吉尼亚密码和Playfair密码出现 现代密码学:20世纪,公钥密码体制和数字签名技术出现 当代密码学:21世纪,量子密码学和后量子密码学成为研究热点

信息论与编码理论基础王育民 ppt课件

信息论与编码理论基础王育民 ppt课件
[收到yj = xi 后,收信者对信源发xi仍然存在的不确定性]=0
I( xi ; xi )=[收到xi前,收信者对信源发xi 的不确定性] = I( xi )
2020/4/5
18
2020/4/5
19
2020/4/5
20
2020/4/5
21
条件的非平均自信息量
定义2.1.4(条件的非平均自信息量) 给定一个二维离散型随机变量
互信息量的性质:
(1)I(xk; yj)=loga(rkj/(qkwj))。因此有对称性:
I(xk; yj)=I(yj; xk)。
(2)当rkj=qkwj时, I(xk; yj)=0。即当(rkj/qk)=wj时,I(xk; yj)=0。
又即当(rkj/wj)=qk时,I(xk; yj)=0。
换句话说,当“X=xk”与“Y= yj”这两个事件相互独立时,互信 息量为0)。
0
2020/4/5
39
平均自信息量——熵
例2.2.1 离散型随机变量X有两个事件x1和x2, P(X=x1)=p,P(X=x2)=1-p
则X 的平均自信息量(熵)为 H(X)=ploga(1/p)+(1-p)loga(1/(1-p))
收到01
0 0 1/3 2/3 0 0 0 0
收到011
0 0 0 1 0 0 0 0
2020/4/5
4
直观认识
对观察者来说,同样观察事件011,但输 入消息等概情况下“收获”要大些,即 得到的“信息”要多些。
越是不太可能发生的事件竟然发生了, 越是令人震惊。获得的“信息”要多些。
2020/4/5
5
非平均互信息量
例2.1.2
输入消息 码字

《信息论与编码》PPT第四章

《信息论与编码》PPT第四章
→ →

L

L

2)误差准则:
→ → e( f , g ) p ε 即P g f (uL ) ≠ uL p ε差准则: E [e ( f , g )] p ε 即E P g f (u ) ≠ u p ε ,
四、 密码 它是研究信息与通信系统在传输最安全的指标下, 系统中的信源和信宿,在什么样条件下能实现统计匹 配,即最优的加、解密密码存在; 反之,又在什么样条件下不能实现统计匹配,即 最优的加、解密密码不存在。
定理: 设掌握密钥的信宿V,它对应的系统传送的互信息 R=I(U,V,)不掌握密钥的信宿V’,它对应的系统传 送的互信息R’=I(U,V’),信源的信息熵为H(U)。 则:掌握密钥的信宿V,通过最优化的加、解密码 V (f2,g2),使得R=I(U,V)=H(U)。 反之,对不掌握密钥的信宿V’,几乎找不到最优化密钥 (f2,g2’)=(f2,g2),即R’=I(U,V’)→0. ——1949年,香农给出的密码学基本定理。 * 概率分布分析: P (ϕ ) = P (u L ).P (cm | sm ).P ( sm | cm ) ′ ′
定理:若系统要求达到的实际传输速率为R,无失真 信源的可用信息熵为H(U),则若R>H(U)时, 最有效的信源编、译码 ( f1 , g1 ) 存在,反之R< H(U)则不存在。——香农编码第一定理。 从另一角度来理解定理——用系统的概率分布函数
′ 由无失真准则,则 即 P ( sm | uL ) = P (vL | sm ) → → 所以 P(ϕ ) = p(uL ) f .g = p(uL ) 即系统与信源匹配。
•系统优化其物理实质: 就是要研究系统在某种优化指标下,上述两类 参数在满足什么条件时对应的编、译码存在; 又在什么条件下,对应的编、译码不存在。

《信息论与编码》课件

《信息论与编码》课件

发展趋势与未来挑战
探讨信息论和编码学领域面临的未 来挑战。
介绍多媒体数字信号压缩和编码技术的发展和应用。
可靠的存储与传输控制技术
解释可靠存储和传输控制技术在信息论中的重要性。
生物信息学中的应用
探讨信息论在生物信息学领域的应用和突破。
总结与展望
信息论与编码的发展历程
回顾信息论和编码学的发展历程和 里程碑。
信息技术的应用前景
展望信息技术在未来的应用前景和 可能性。
介绍误码率和信噪比的定义和关系。
2
码率与修正码率的概念
解释码率和修正码率在信道编码中的重要性。
3
线性码的原理与性质
探讨线性码的原理、特点和应用。
4
编码与译码算法的实现
详细介绍信道编码和译码算法的实现方法。
第四章 信息论应用
无线通信中的信道编码应用
探索无线通信领域中信道编码的应用和进展。
多媒体数字信号的压缩与编码技术
《信息论与编码》T课 件
# 信息论与编码 PPT课件
第一章 信息的度量与表示
信息的概念与来源
介绍信息的定义,以及信息在各个领域中的来源和 应用。
香农信息熵的定义与性质
介绍香农信息熵的概念和其在信息论中的重要性。
信息量的度量方法
详细解释如何度量信息的数量和质量。
信息压缩的基本思路
探讨信息压缩的原理和常用方法。
第二章 信源编码
等长编码与不等长编码
讨论等长编码和不等长编码的特点 和应用领域。
霍夫曼编码的构造方法与 性质
详细介绍霍夫曼编码的构造和优越 性。
香农第一定理与香农第二 定理
解释香农第一定理和香农第二定理 在信源编码中的应用。

信息论 第4章(哈夫曼编码和游程编码).ppt

信息论 第4章(哈夫曼编码和游程编码).ppt

- log2 p(xi)
2.34 2.41 2.48 2.56 2.74 3.34 6.66
码长 3 3 3 3 3 4 7
香农编码分析
可求得该信源的信源熵:
H ( X ) pxi log pxi 2.61(比特/符号) xi X
以及平均码长:
N ni p(xi ) 3.14 (码元/符号) i1
下面是对例1进行哈夫曼编码:
X1:0.20 X2:0.19 X3:0.18 X4:0.17
0.39 0.35
0.61
1.00
X6:0.10 X5:0.15
0.26
X7:0.01 0.11
对应的编码如下:
信源 x1
编码 10
码长 2
x2
x3
x4
x5
x6
x7
11 000 001 010 0110 0111
消息码 标识码 游程长度
该编码方式就称为游程编码(RLC).
例如:有一个信源: BBBBBBBBBBXXXXXXXXJJJJJJJJJAAAAAAAAAAAAA AAAAUUUUUUUUUUUUUUUUUUUU
经过游程编码,得到: B#10X#8J#9A#17U#20
其中#为标识码.
游程编码用于二值图像的压缩
游程编码的基本原理
很多信源产生的消息有一定相关性,往往 连续多次输出同样的消息,同一个消息连续输 出的个数称为游程(Run-Length).我们只需要 输出一个消息的样本和对应重复次数,就完全 可以恢复原来的消息系列.原始消息系列经过 这种方式编码后,就成为一个个编码单元(如下 图),其中标识码是一个能够和消息码区分的特 殊符号.
2.61 2.74

信息论与编码第4章无失真信源编码

信息论与编码第4章无失真信源编码

THANKS
感谢观看
编码性能的评价指标
压缩比
压缩比是指编码后数据量与原始数据量之比,是衡量 编码效率的重要指标。
编码复杂度
编码复杂度是指实现编码算法所需的计算量和存储量 ,是衡量编码性能的重要指标。
重建精度
重建精度是指解码后数据的准确度,是衡量编码性能 的重要指标。
编码效率与性能的关系
01
编码效率与压缩比成正比,压缩比越高,编码效率越高。
游程编码
对连续出现的相同符号进 行编码,如哈夫曼编码等 。
算术编码
将输入信号映射到一个实 数轴上的区间,通过该区 间的起始和长度表示码字 ,如格雷码等。
编码的数学模型
信源
产生随机变量的集合 ,表示各种可能的信 息符号。
编码器
将输入信号映射到码 字的转换设备,其输 出为码字序列。
解码器
将接收到的码字还原 成原始信号的设备。
拓展应用领域
无失真信源编码技术的应用领域正在不断拓 展,未来研究将致力于将其应用于更多领域 ,如多媒体处理、物联网、云计算等。
融合其他技术
将无失真信源编码技术与其他相关技术进行 融合,以实现更高效、更实用的信息处理系 统。例如,将无失真信源编码与图像处理、 语音处理等技术相结合,提高信息传输和处
理的效率和质量。
03
行程编码的缺点包 括
压缩比有限、对于离散无记忆信 源效果不佳。
03
CATALOGUE
无失真信源编码的效率与性能
编码效率的定义与计算
定义
编码效率是指编码后信息量与原始信 息量之比,通常用比特率(bit per symbol)或比特率(bit per source symbol)来表示。
计算

信息论与编码共59页

信息论与编码共59页
先验概率
信息论与编码基础
离散信道
② 互信息的性质
对称性 相互独立时的X和Y 互信息量可为正值或负值 不大于其中任一事件的自信息量
信息论与编码基础
离散信道
对称性
I(xi;yj)=I(yj; xi)
推导过程
I(xi;yj)logp(px(ix/iy)j)logp(px(ix/iy)jp)(py(jy)j)
对天气x3, I(x3;y1)lo 2p g (p x (3 x /3 y )1)lo 21 1 /g /8 41 (比 )特
对天气x4 I(x4;y1)lo 2p g (p x (4 x /4 y )1)lo 21 1 /g /8 41 (比 )特
结果表明从y1分别得到了各1比特的信息量; 或者说y1 使x2,x3,x4的不确定度各减少量1比特。
X—信源发出的离散消息集合; Y—信宿收到的离散消息集合; 信源通过有干扰的信道发出消息传递给信宿; 信宿事先不知道某一时刻发出的是哪一个消息,所以每个消息是随机事件的一
个结果; 最简单的通信系统模型: 信源X、信宿Y的数学模型为
P ( X X ) p x ( 1 x , 1 )p ( ,x x 2 2 ) , , ,,p x ( ix i) , ,p ( x x n n ) 0 p ( x i) 1 ,
五、信道容量
六、信源与信道的匹配
信息论与编码基础
离散信道
1、信道的分类 2、离散信道的数学模型 3、单符号离散信道
信息论与编码基础
离散信道
1、信道的分类 2、离散信道的数学模型 3、单符号离散信道
信息论与编码基础
离散信道
1、信道的分类
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 当允许有一定失真时,R(D)将为有限值,传送才是 可能的。
24
R(D)的定义域
• R(D)的定义域为[Dmin,Dmax ]。
• 通常Dmin = 0,
R(Dmin) = H(X)
• 当 D≥Dmax时,
R(D) = 0
• 当 0 ≤D≤Dmax时, 0<R(D) <H(X)
25
R(D)的定义域
此时输出符号概率p(b1)=0,p(b2)=1,
a 1 b 2,a2 b 2
28
• 例:设输入输出符号表为X=Y={0,1},输入
概率分布p(x)={1/3,2/3},失真矩阵
1/ 2 1
• 求: Dmin 和Dmax
d


2
1
n
Dmin i1 p(xi )mjind(xi, yj )
• 2、R(D)是关于D的下凸函数
– R(D)在定义域内是失真度D的U型下凸函数
• 3、R(D)的单调递减性及连续性
– 容许的失真度越大,所要求的信息率越小。 反之亦然。
30
由以上三点结论,对一般R(D)曲线的形态可以画出来:
R(D) H(X)
R(D)
R(D) 0D
Dmax D
0
信息率失真曲线
Dmax D
11 21 5 32 3 6
Dmax m j1,2ii2n1pidijmj (i13n12322,131321)
3
m(in,1)1
j2
29
信息率失真函数的性质
• 1、R(D)是非负的实数, R(D)≥0。 其定义域为0~Dmax , 其值为0~H(X)。 当D>Dmax时,R(D)≡0
• 平均失真D :
– 描述某个信源在某一试验信道传输下的失真
大小,它对信源和信道进行了统计平均,是从总
体上描述整个系统的失真
9
p( y j xi )
xi
yj
信源编码器
对于连续随机变量同样可以定义平均失真

D pxy(x,y)d(x,y)dxdy
10
L长序列编码
• 如果假定离散信源输出符号序列X={X1X2… Xl… XL},其中L长符号序列xi =[xi1xi2…xiL],经信 源编码后,输出符号序列Y={Y1Y2…Yl…YL},其中 L长符号序列yj=[yj1yj2…yjL ],则失真函数定义为
R(D)mIi(nX,Y) PD
• 在信源给定后,我们希望在满足一定失真的情况下,使信 源必须传输给收信者的信息传输率R尽可能地小。
• 若从接收端来看,就是在满足保真度准则下,寻找再现信 源消息所必须获得的最低平均信息量。即在满足保真度 准则的条件下寻找平均互信息I(X,Y)的最小值。
16
信息率失真函数
序列为Y= {0,1,2},规定失真函数为
失真矩阵
d(0,0)=d(1,1)= 0 d(0,1)=d(1,0)= 1 d(0,2)=d(1,2)= 0.5
0 1 0.5
d


1
0
0.5
6
失真函数
• 失真函数形式可以根据需要任意选取,最常用的有:
• 均方失真: d(xi,yj)(xi yj)2
13
信息率失真函数R(D)
• 若平均失真度D 不大于我们所允许的失真,即
D D
• 则称此为保真度准则
• 当信源p(xi)给定,单个符号失真度d(xi, yj) 给定时,选 择不同的试验信道p(yj | xi), 相当于不同的编码方 法,其所得的平均失真度不同。
• 假想信道
D D 满足保真度准则 D>D
• 由于平均失真度是非负实数d(xi,yj)的数学期望,
因此也是非负的实数,即 D 0,D 的下界是0。
• 允许平均失真度能否达到其下限值0,与单个符号 的失真函数有关。
22
R(D)的定义域
• Dmin 和R(Dmin) • 信源的最小平均失真度:
n
Dmini1p(xi)mj idn(xi,yj)
p (x 1 |y 1 ) 4 3 ,p (x 1 |y 2 ) 1 3 ,p (x 2 |y 1 ) 1 4 ,p (x 2 |y 2 ) 3 2
I(X;Y)
i
j p(xiyj)lop(g p x(ix |iy )j)0.1b 2/i5 符 t18
• 编码器输入的概率分布为p(x)={0.5 ,0.5}
第4章
信息率失真函数
内容
4.1 平均失真和信息率失真函数 4.2 离散信源和连续信源的R(D)计算
2
• 失真 o 信道编码定理——欲无失真,必 R < C
若 R > C,必失真 o 失真必要性—— 连续信源R趋向于无穷大,必有失真 压缩亦有失真 o 失真可能性——终端性能有限,如人眼,人耳 • 研究:信息率~允许失真——信息率失真理论
• PD是所有满足保真度准则的试验信道集 合,因而可以在集合PD中寻找某一个信道 pij,使I (X,Y)取极小值。
• 离散无记忆信源
R(D )p m j iPDiinj p(ai)p(bj|ai)lop(g pb(b j|ja)i)
17
• 例已知编码器输入的概率分布为p(x)={0.5 ,0.5}
• 只有当失真矩阵的每一行至少有一个0元素时, 信源的平均失真度才能达到下限值0。
• 当Dmin = 0,即信源不允许任何失真时,信息率至
少应等于信源输出的平均信息量—信息熵。即
R(0) =H(X)
23
R(D)的定义域
• 对于连续信源:
R(Dm)i nlD i0m R(D)
• 因为实际信道总是有干扰的,其容量有限,要无失 真地传送连续信息是不可能的。
某些特殊情况下R(D)的表示式为:
(1)当d(x,y)=(x-y)2, p(x)
1

e
x2
22
2
时,
R(D) log
D
33
(2)当d(x,y)=|x-y|, p(x) e x 时,
2
R(D) log1
D
(3)当d(x,y)=(x,y),p(x=0)=p,p(x=1)=1-p时,
信息量是不同的。
• 可以证明,当p(x)一定时,I (X,Y)是关于p(yj|xi)的 下凸函数。
• 因此当改变p(yj|xi)时,I (X,Y)有一极小值。 19
平均互信息
• 平均互信息I(X;Y):
– 信源的概率分布p(xi)的上凸函数。 p(yj|xi)一定 – 信道传递概率p(yj|xi)的下凸函数。 p(xi)一定
适于
连续
• 绝对失真: d(xi,yj)|xi yj |
信源
• 相对失真: d(xi,yj)|xiyj|/|xi|
适于 离散
•(汉误明码失失真真函:数d) (xi,yj)(xi• 汉明失真矩阵
0 1 1
d


1
0

1

• 信道矩阵
0.6 0.4
• 求互信息
pij

0.2
0.8

p (x iyj)p (x i)p (yj|x i)
p ( x 1 y 1 ) 0 . 3 , p ( x 1 y 2 ) 0 . 2 , p ( x 2 y 1 ) 0 . 1 , p ( x 2 y 2 ) 0 . 4 p(y1)0.4,p(y2)0.6
31
4.2 离散信源和连续信源R(D)计算
• 给定信源概率pi和失真函数dij,就可以求 得该信源的R(D)函数。
• 它是在保真度准则下求极小值的问题。 • 但要得到它的显式表达式,一般比较困难
通常用参量表达式。 • 即使如此,除简单的情况外实际计算还是
困难的,只能用迭代逐级逼近的方法。
32
4.2 离散信源和连续信源R(D)计算
• 失真函数定义为:
d(i,xyj ) 0 a,, a0
xi yj xi yj
5
失真函数
• 将所有的d(xi,yj)排列起来,用矩阵表示为:
失真矩阵
d(a1,b1)
d

d(an,b1)
d(a1,bm)
d(an,bm)
• 例:设信源符号序列为X={0,1},接收端收到符号
R<C
– 总能找到一种编码使在信道上能以任意小的错 误概率,以任意接近C的传输率来传送信息
R>C
– 就必须对信源压缩,使其压缩后信息传输率R’ 小于信道容量C,但同时要保证压缩所引入的失 真不超过预先规定的限度。
• 信息压缩问题就是对于给定的信源,在满足平均失 真 D D的前提下,使信息率尽可能小。
14
• 满足 D D条件的所有转移概率分布pij ,构成
了一个信道集合
PD{p(bj|a) i D : D}
• D失真允许的试验信道:
– 满足保真度准则的试验信道。
• PD:
– 所有D失真允许的试验信道组成的一个集合。
15
信息率失真函数R(D)
• R(D):
– 在限定失真为D的条件下信源输出的最小信 息率。
• 信道容量:
CmaIx (X;Y) p(xi)
• 信息率失真函数:
R(D)mIi(nX;Y) PD 20
率失真函数与信道容量的比较
信道容量C
率失真函数R(D)
数学上
固定 p(yj/xi),改变p(xi), 求得I(X;Y)最大值
固定p(xi),改变p(yj/xi), 求得I(X;Y)最小值
概念上
p(yj |xi)p(yj)
Dmax

min
p(yj )
相关文档
最新文档