第四章 限失真信源编码
合集下载
清华《信源编码》第四章

b 1 4e b e 2b
要使D最小, 令 e-b=0.293, D=0.657,则 =R(D)=60.6%, 比分别量化有所提高. 三维四维联合量化尚可进一步提高.
30
进一步提高压缩比的探讨(7)
K维情况,Zador得下列结果:
Lim n 2 / k G ห้องสมุดไป่ตู้ [ p( x ) k ,
21
语声的脉码调制(6)
A=87.65, y’(0)=16, =20log1016=24 db, 可压缩4比特,仍能满足小信号信扰比。 y’(1)=0.183, =-15db, 大信号时量化 噪声仍可满足。 实际用13线段来近似,均匀量化后用数 字逻辑电路实现
22
语声的脉码调制(7)
1
y
信号功率 W=2/2, 量化噪声 L 2 n L2 L Wq pi L p( x)dx 3n 2 (1 e ) 12 i 1 12
18
语声的脉码调制(3)
过载噪声
2 Wo 2 ( x L ) p( x )dx 2 L
2 L L 2 2 ( } n n
26
进一步提高压缩比的探讨(3)
要后处理,也可不用先达到最小平均失真, p(y)=p(-y)=z/2, H(Y)=z+H(z) =-log(1-2z+2z)/[z+H(z)] 取导置零,可得z=0.41, =69%. 对于独立序列,后处理虽能提高编码效率, 但效果不明显,如何能快速逼近R(D)也不 知. 对于相关信源,后处理以消除相关性, 可取得很大压缩比,以后讨论.
13
2
最佳标量量化(7)
绝对失真
( 2i 1) L dx L D |x | n L 4n 4 i 1 ( i 1) L
信息论与编码第4章无失真信源编码

0
2
1
w1 0 1 2 0 1 2
01
2w2
w3 w4
0
1
2
w5
w6 w7 w8
w9 w10 w11
0级节点 1级节点 2级节点
3级节点
25
4.3 变长编码
码树编码方法
(1)树根编码的起点; (2)每一个中间节点树枝的个数编码的进制数; (3)树的节点编码或编码的一部分; (4)树的终止节点(端点、树叶)码; (5)树的节数码长; (6)码位于多级节点变长码; (7)码位于同一级节点码等长码;
设离散无记忆信源X的熵为H(X), 若对长为N的信源符号序 列进行等长编码,码长为L , 码元符号个数为m. 则对任意的
>0, >0, 只要
L log m H ( 率小于。
反之,当
L log m H ( X ) 2
N
时, 则译码差错概率一定是有限值(不可能实现无失真编 码), 而当N足够大时, 译码错误概率近似等于1。
概率分布 0.5 0.25 0.125 0.125
码1:C1 码2:C2 码3:C3
00
0
0
码4:C4 1
码5:C5 1
01
11
10
10
01
10
00
00
100
001
11
11
01
1000
0001
等长码 非唯一 非 唯 唯一可译 及时码 可译 一可译
11
4.1 无失真信源编码的概念
关系 即时码一定是唯一可译码 唯一可译码一定是非奇异码 定长的非奇异码一定是唯一可译码 非定长的非奇异码不一定是唯一可译码
一般地,平均码长: L 3.322 (N ) N
限失真编码

DK,MK
TK:门限电平(k+1个)
qk:电平值 (k个)
4) 均匀量化 概念:量化间隔相等
最优均匀量化:使DK达到最小均匀量化 例:对高斯信源
即:Rk=1/4+1/2log(Pu/Dk) 问题:均匀量化不是DK最小的一个、提出一
种Uoyd-Max算法
5)Lioyd-Max算法 思想:反复对{TK}、{qk}在使DK最小的两个必要条
变换编码原理
• 定义:将空域图像信号映射变换到另一个正交矢量空 间(变换域或频域),产生一批变换系数,对系数进 行编码处理
• 原理:
– 信号在时域描述时信息冗余度大,变换后,参数独 立,去掉相关性,减少冗余,数据量大大减少。
– 利用人的视觉特性,对高频细节不敏感,可以滤除 高频系数,保留低频系数。
件进行迭代(必要条件为:P235) Tk-1=1/2(qk-1+qk) ∫(u- qk)p(u)du=0
则求出{Tk}{qk}. 6)实例:(高斯信源) 表6-2(P236)举例说明
输出 1 电平 数K
最优 1 均匀 量化
L-M算 1 法
4
8
16 24 32
0.1188 0.03744 0.01154 0.005747 0.003490
uv(ω),否则编码uv(1) – 译码:再现v(ω) – 失真度计算:在所有随机码书和Un空间统计平均的基础上计算平均失真
度
§7.4:限失真信பைடு நூலகம்编码定理-5
• 限失真信源编码定理的几点说明
– 只是一个存在性定理,没有构造方法 – 存在问题:
• 符合实际信源的R(D)函数计算相当困难
– 信源统计特性的确切数学描述难得 – 符合主客观实际的失真测度难得 – R(D)计算本身困难
TK:门限电平(k+1个)
qk:电平值 (k个)
4) 均匀量化 概念:量化间隔相等
最优均匀量化:使DK达到最小均匀量化 例:对高斯信源
即:Rk=1/4+1/2log(Pu/Dk) 问题:均匀量化不是DK最小的一个、提出一
种Uoyd-Max算法
5)Lioyd-Max算法 思想:反复对{TK}、{qk}在使DK最小的两个必要条
变换编码原理
• 定义:将空域图像信号映射变换到另一个正交矢量空 间(变换域或频域),产生一批变换系数,对系数进 行编码处理
• 原理:
– 信号在时域描述时信息冗余度大,变换后,参数独 立,去掉相关性,减少冗余,数据量大大减少。
– 利用人的视觉特性,对高频细节不敏感,可以滤除 高频系数,保留低频系数。
件进行迭代(必要条件为:P235) Tk-1=1/2(qk-1+qk) ∫(u- qk)p(u)du=0
则求出{Tk}{qk}. 6)实例:(高斯信源) 表6-2(P236)举例说明
输出 1 电平 数K
最优 1 均匀 量化
L-M算 1 法
4
8
16 24 32
0.1188 0.03744 0.01154 0.005747 0.003490
uv(ω),否则编码uv(1) – 译码:再现v(ω) – 失真度计算:在所有随机码书和Un空间统计平均的基础上计算平均失真
度
§7.4:限失真信பைடு நூலகம்编码定理-5
• 限失真信源编码定理的几点说明
– 只是一个存在性定理,没有构造方法 – 存在问题:
• 符合实际信源的R(D)函数计算相当困难
– 信源统计特性的确切数学描述难得 – 符合主客观实际的失真测度难得 – R(D)计算本身困难
限失真信源编码定理

14
5.4.1 游程编码
❖ 理论上来说游程长度可从1到无穷。要建立游程长 度和码字之间的一一对应的码表是困难的。一般 情况下,游程越长,出现的概率就越小;当游程 长度趋向于无穷时,出现的概率也趋向于0。
❖ 按哈夫曼码的编码规则,概率越小码字越长,但 小概率的码字对平均码长影响较小,在实际应用 时常对长码采用截断处理的方法
• 香农编码、费诺编码、哈夫曼编码主要是针 对无记忆信源。
• 当信源有记忆时上述编码效率不高;
• 游程编码对相关信源编码更有效; • 香农编码、费诺编码、哈夫曼编码属于无失
真信源编码; • 游程编码属于限失真信源编码。
11
5.4.1 游程编码
• 游程:
• 数字序列中连续出现相同符号的一段。 • 二元序列的游程:只有“0”和“1”两种符号。
210
211
175
211
209
211
211
211
211
176
216
211
212
210
211
210
177
212
211
210
211
212
210
178
211
209
209
211
210
209
179
209
207
208
208
208
205
9
5.4.un-Length Encoding)表 示。该压缩编码技术相当直观和经济,运算也相当 简单,因此解压缩速度很快。RLE压缩编码尤其适 用于计算机生成的图形图像,对减少存储容量很有 效。
❖ 选取一个适当的n值,游程长度为1,2,…,2n-1, 2n, 所有大于2n 者都按2n 来处理。然后按照哈夫曼码 的编码规则,将上列2n 种概率从大到小排队,构 成码树并得到相应的码字。
5.4.1 游程编码
❖ 理论上来说游程长度可从1到无穷。要建立游程长 度和码字之间的一一对应的码表是困难的。一般 情况下,游程越长,出现的概率就越小;当游程 长度趋向于无穷时,出现的概率也趋向于0。
❖ 按哈夫曼码的编码规则,概率越小码字越长,但 小概率的码字对平均码长影响较小,在实际应用 时常对长码采用截断处理的方法
• 香农编码、费诺编码、哈夫曼编码主要是针 对无记忆信源。
• 当信源有记忆时上述编码效率不高;
• 游程编码对相关信源编码更有效; • 香农编码、费诺编码、哈夫曼编码属于无失
真信源编码; • 游程编码属于限失真信源编码。
11
5.4.1 游程编码
• 游程:
• 数字序列中连续出现相同符号的一段。 • 二元序列的游程:只有“0”和“1”两种符号。
210
211
175
211
209
211
211
211
211
176
216
211
212
210
211
210
177
212
211
210
211
212
210
178
211
209
209
211
210
209
179
209
207
208
208
208
205
9
5.4.un-Length Encoding)表 示。该压缩编码技术相当直观和经济,运算也相当 简单,因此解压缩速度很快。RLE压缩编码尤其适 用于计算机生成的图形图像,对减少存储容量很有 效。
❖ 选取一个适当的n值,游程长度为1,2,…,2n-1, 2n, 所有大于2n 者都按2n 来处理。然后按照哈夫曼码 的编码规则,将上列2n 种概率从大到小排队,构 成码树并得到相应的码字。
第4章无失真信源编码

是信源编码
码的分类-I
(1) 定长码:码中所有码字的长度都相同, 变长 码:码中的码字长短不一
信源 信源符号出
码表
符号ai 现概率p(ai) 码1 码2
a1
p(a1)
00 0
a2
p(a2)
01 01
a3
p(a3)
10 001
a4
p(a4)
11 111
表4-1 变长码与定长码
码的分类-II
(2)非奇异码:若信源符号和码字一一对应的 奇异码:反之。下表码1是奇异码,码2是非奇异码。
将这两个概率相加作为一个新字母的概率,与未分 配的二进符号的字母重新排队。 3. 对重排后的两个概率最小符号重复(2)的过程。 4. 重复上述过程,直到最后两个符号配以0和1为止。 5. 从最后一级开始,向前返回得到各个信源符号所对 应的码元序列,即相应的码字。
例 对以下信源进行哈夫曼编码
信源符号ai 概率p(ai) 码字Wi
H(S) L H(S) 1
log r
log r
离散平稳无记忆序列变长编码定理:对于平均符号 熵为H(S)的离散平稳无记忆信源,必存在一种无失真 编码方法,使平均信息率满足不等式
H (S) LN H (S) 1 log r N log r N
将定理进行改写:
H (S )
LN N
log r
H(S)
通常可用码树来表示各码字的构成
0
1
0
1
0
1
01
01
01
01
0 1 0 10 10 1 0 10 10 1 0 1
二进制码树(满树)
即时码的码树表示(2)
0
1
第四章 有限失真信源编码

可以允许一定的失真度
完全保真没必要
§4.1:概述-6
引出的研究内容
限失真的信源编码问题
允许一定的失真度下,能将信源信息压缩到什么 程度?(最少需要多少比特才能在收端描述信 源?) 一定的信息传输率R下,允许的最大失真是多少? 失真如何度量? 率失真函数如何计算?
相关问题
§4.1:概述-7
Calculation of R(D) of Gauss source
Known conditions:高斯信源U,其均值为m,方差为σ 2, 接收变量V 2 ( u m ) 1 概密函数: p (u ) exp[ 2 ]
2 2
失真函数:均方误差失真,即:
d (u, v) (u v)
1) 失真在传输中是不可避免的; 2) 接收者(信宿)无论是人还是机器设备, 都有一定的分辨能力与灵敏度,超过分辨能力 与灵敏度的信息传送过程是毫无意义的; 3) 即使信宿能分辨、能判别,但对通信质 量的影响不大,也可以称它为允许范围内的失 真; 4) 我们的目的就是研究不同的类型的客观 信源与信宿,在给定的 Qos 要求下的最大允许 (容忍)失真 D ,及其相应的信源最小信息率 R(D).
R(D)
R(D)>0
R(D)=0
min
Q(v)
U ,V
Q(v) p(u)d (u, v) Q (v ) d (v )
' V V U
min
Q(v)
Dmax
D
§4.3:率失真函数-4
R(D)的计算
求解R(D),--求解互信息的极小值 互信息I(X,Y)是条件转移概率的下凸函数极小值 存在 一般情况下很难得到R(D)的显函数表达式,只能 得到参量表达式 具体计算很困难,一般利用计算机进行迭代计算 在一些特殊情况下,R(D)有显式解。
第4章 限失真信源编码优秀PPT

单符号连续信道的信息传输率: R=I(X;Y), 比特/自由度 (4―11)
多维连续信道平均互信息等相关内容可参见有关 文献。
4.2
4.2.1 由于只涉及信源编码问题,所以可以将信道编码
和译码看成是信道的一部分。这样信宿收到消息的失 真(或误差)只是由信源编码带来的。从直观感觉可 知,若允许失真越大,信息传输率可越小;若允许失真 越小,信息传输率需越大。所以信息传输率与信源编 码所引起的失真(或误差)是有关的。
式中: x—— y——信宿的一个接收序列;
D ( N ) ——N维信源符号序列的平均失真度。
2. 定义连续信源平均失真度为
D E [ d ( u ,) ] p ( u )p (|u ) d ( u ,) d u d
(4―29) 式中: d(u,v)——
p(u)——连续信源u p(v|u)——信道传递概率密度。
随机波形信源输出的消息是随机的,因此,可用 随机过程来描述。用随机过程描述其输出消息的信源 称为随机波形信源。若信源输出用平稳连续型随机序 列来描述,则此信源称为连续平稳信源。连续平稳信 源也可分为连续平稳无记忆信源和连续平稳有记忆信 源。平稳连续型随机序列中每个自由度上的变量是连 续随机变量。用连续随机变量描述其输出消息的信源 称为连续信源。下面讨论它们的信息测度。
N l1
(4―24)
若平均失真度 D 不大于所允许的失真D,即:
DD
(4―25)
称式(4―25)为保真度准则。 N维信源序列的保真度准则是:平均失真度
不大于允许失真ND,即:
D(N) ND
(4―26)
1.
在信源给定,又定义了失真函数以后,总希望在 满足一定失真的情况下,使信源传输给信宿的信息传 输率R尽可能地小。或者说,在满足保真度准则下,寻 找信源必须传输给信宿的信息率R的下限值,这个下限 值与D有关。从接收端来看,就是在满足保真度准则下, 寻找再现信源消息所必须获得的最低平均信息量。而 接收端获得的平均信息量可用平均互信息量I(U;V)来
多维连续信道平均互信息等相关内容可参见有关 文献。
4.2
4.2.1 由于只涉及信源编码问题,所以可以将信道编码
和译码看成是信道的一部分。这样信宿收到消息的失 真(或误差)只是由信源编码带来的。从直观感觉可 知,若允许失真越大,信息传输率可越小;若允许失真 越小,信息传输率需越大。所以信息传输率与信源编 码所引起的失真(或误差)是有关的。
式中: x—— y——信宿的一个接收序列;
D ( N ) ——N维信源符号序列的平均失真度。
2. 定义连续信源平均失真度为
D E [ d ( u ,) ] p ( u )p (|u ) d ( u ,) d u d
(4―29) 式中: d(u,v)——
p(u)——连续信源u p(v|u)——信道传递概率密度。
随机波形信源输出的消息是随机的,因此,可用 随机过程来描述。用随机过程描述其输出消息的信源 称为随机波形信源。若信源输出用平稳连续型随机序 列来描述,则此信源称为连续平稳信源。连续平稳信 源也可分为连续平稳无记忆信源和连续平稳有记忆信 源。平稳连续型随机序列中每个自由度上的变量是连 续随机变量。用连续随机变量描述其输出消息的信源 称为连续信源。下面讨论它们的信息测度。
N l1
(4―24)
若平均失真度 D 不大于所允许的失真D,即:
DD
(4―25)
称式(4―25)为保真度准则。 N维信源序列的保真度准则是:平均失真度
不大于允许失真ND,即:
D(N) ND
(4―26)
1.
在信源给定,又定义了失真函数以后,总希望在 满足一定失真的情况下,使信源传输给信宿的信息传 输率R尽可能地小。或者说,在满足保真度准则下,寻 找信源必须传输给信宿的信息率R的下限值,这个下限 值与D有关。从接收端来看,就是在满足保真度准则下, 寻找再现信源消息所必须获得的最低平均信息量。而 接收端获得的平均信息量可用平均互信息量I(U;V)来
ITD第四章限失真信源编码2

i
写成矩阵形式
1 ( p11 p22 ) 1 (1 1)
2020/4/14
28
由此解得
p11
p22
1,
1
1
1,
p(1 )
2
1
(1 p)(1 )
(2)按下式解方程
j
p( y j ) exp[ sd (xi ,
yj
)]
1
(xi )
,
i 1, , n
2020/4/14
29
写成矩阵形式
2020/4/14
5
(5) 如何计算Dmax? R(D)=0就是I(X;Y)=0,这时试验
信道输人与输出是互相独立的,所以条 件概率p(yj/xi)与xi无关。即 Pij=P(yj/xi)=P(yj)=pj 这时平均失真为
nm
D
pi p j d ij
i1 j 1
式中dij=d(xi,yj)
2020/4/14
pi
[p'ij
(1
)
p '' ij
]d
ij
ij
pi pi'j dij (1 )
pi
p '' ij
d ij
ij
ij
D'(1 )D'' D
p 这是因为
'和
ij
pi'j' 分别是PD’,和PD’’中的
元,所以造成的失真必小于D’和D’’ .
2020/4/14
14
• 利用I(Pij)的下凸性,可得
(输出符号概率:p(y1)=0,p(y2)=1)
■
2020/4/14
9
写成矩阵形式
1 ( p11 p22 ) 1 (1 1)
2020/4/14
28
由此解得
p11
p22
1,
1
1
1,
p(1 )
2
1
(1 p)(1 )
(2)按下式解方程
j
p( y j ) exp[ sd (xi ,
yj
)]
1
(xi )
,
i 1, , n
2020/4/14
29
写成矩阵形式
2020/4/14
5
(5) 如何计算Dmax? R(D)=0就是I(X;Y)=0,这时试验
信道输人与输出是互相独立的,所以条 件概率p(yj/xi)与xi无关。即 Pij=P(yj/xi)=P(yj)=pj 这时平均失真为
nm
D
pi p j d ij
i1 j 1
式中dij=d(xi,yj)
2020/4/14
pi
[p'ij
(1
)
p '' ij
]d
ij
ij
pi pi'j dij (1 )
pi
p '' ij
d ij
ij
ij
D'(1 )D'' D
p 这是因为
'和
ij
pi'j' 分别是PD’,和PD’’中的
元,所以造成的失真必小于D’和D’’ .
2020/4/14
14
• 利用I(Pij)的下凸性,可得
(输出符号概率:p(y1)=0,p(y2)=1)
■
2020/4/14
9
限失真信源编码ppt

• 解:失真矩阵为
d 10
1 0
00..55
• 说明: (1) 最常用的失真函数
均方失真函数: 绝对失真函数: 相对失真函数:
d(xi,yj)=(xi-yj)2 d(xi,yj)= xi y j d(xi,yj)= xi y j / xi
误码失真函数:
o,
d(xj,yj)=
(
xi
,
y
j
)
1,
其他特 VIP专享精彩活动
权
VIP专属身份标识
开通VIP后可以享受不定期的VIP随时随地彰显尊贵身份。
专属客服
VIP专属客服,第一时间解决你的问题。专属客服Q全部权益:1.海量精选书免费读2.热门好书抢先看3.独家精品资源4.VIP专属身份标识5.全站去广告6.名
• 3. 矢量传输情况平均失真度
DN
1 N
N
E[d (xik , y jk )]
k 1
1 N
N
Dk
k 1
• 说明: Dk是第k个符号的平均失真。
4.1.3 信息率失真函数R(D)
• 1. 信息率失真函数R(D)问题产生? 对于信息容量为C的信道传输信息传输率为R
的信源时,如果R>C,就必须对信源压缩, 使其压缩后信息传输率R’小于信道容量C,但 同时要保证压缩所引人的失真不超过预先规定 的限度几信息压缩问题就是对于给定的信源, 在满足平均失真
d (x1, y1 ) d
d (xn , y1 )
d (x1, ym )
d (xn , ym )
例4-1-1
• 设信源符号序列为X={ 0,1},接收端收 到符号序列为Y={ 0,1,2},规定失真函数 为 d(0,0)=d(1,1)=0 d(0,1)=d(1,0)=1 d(0,2)=d(1,买的VIP时长期间,下载特权不清零。
第四章限失真信源编码

上一章所讲的信源编码定理,都是针对无失真的情况。而 在实际信息处理过程中,往往允许有一定的失真,例如A/D 变换,就不可能完全不失真。 人们的视觉和听觉都允许有一定失真,电影和电视就是利 用了视觉残留,才没有发觉影片是由一张一张画面快速联结 起来的。耳朵的频率响应也是有限的,在某些实际场合中只 需保留信息的主要特征就够了。所以,一般可以对信源输出 的信息进行失真处理。 本章主要讨论限失真信源编码,从分析失真函数、信息率 失真函数出发,给出限失真编码定理。最后在结束这两章信 源编码理论之前简单介绍了一些其它常用的信源编码方法。 对于连续信源从理论上来说必然存在失真。而对于离散信 源而言在一定范围内的失真可以大大提高编码效率。
5、失真函数 是对失真大小的定量表示;用来测度信源发出一个符号, 而接收端收到一个符号时,所引起的误差或失真;又称单符 号失真度。失真函数定义为:
xi y j 0 d(xi ,y j ) a a 0 x y i j
7
上海第二工业大学冯涛编写
17:18:27
6、失真矩阵 由于信源X有n个符号,而接收变量Y有m个符号,所以 d(xi,yj)就有n×m个,这n×m个非负的函数可以排成矩阵形 式,称它为失真矩阵D,它是n×m阶矩阵(n行,m列)。即:
信源 信源编码
X
广义无扰信道
Y
信源译码
信宿
P(yj|xi)
6
上海第二工业大学冯涛编写
17:18:27
4、失真的定义 假如某一信源X,输出样值为xi,xi{a1,… , an},经过有 失真的信源编码器,输出Y,样值为yj,yj {b1,… , bm}。如 果xi=yj,则认为没有失真;如果xi yj,那么就产生了失真。 失真的大小,用一个量来表示,即:失真函数d(xi,yj),以 衡量用yj代替xi所引起的失真程度。
信息论与编码第四章 限失真信源编码(中文)2020

信息率~失真——允许失真↑→所需信息率↓
1
2020-11-19
4.2.1 失真函数(失真度)
失真函数
信源 信编源码 信编道码 信道 信译道码 信译源码 信宿 干扰
息码源后编等根码,价据和所成信信产是道源生一编译的个码码失没定等真有理价只任,成是何一由干我个扰们信可信的源道广以编。义把码信信带道道来编的,这码。我样、们收信信也道可者和以收信把到道信消解
4.2.1 失真函数(失真度)
设离散无记忆信源为 a1 其概率分布为 ┇ X = {a1, a2 ,..., ar } a2
X
{p(a1), p(a2 ),..., p(ar )} ar
P(Y/X)
b1 接收端变量为 ┇ 其概率分布为 b2 Y = {b1, b2 ,..., bs}
Y
bs { p(b1), p(b2 ),..., p(bs )}
=定1义, 2对, …于r;图j4=.21所, 2示, …的, 系s)统,,定对义应一于个每非一负对实(值a函i, b数j)(n
d(ai,bj) ≥0
(i =1,2,⋅⋅⋅r; j =1,2,⋅⋅⋅s)
表号示集信合源中发的出bj所符引号起ai而的经误信差道或传失输真后,再称现之成为信ai和道b输j之出间符的
第四章限失真信源编码
许可《定一压保义定缩真了信失到度信息真准息R率(度则率D失)下失D值真的的真。理情离函论况散数—下信R—(,源D香信)编,农明源码于确输定1提出9理5出的9》年:信中在在息提允率出。
2020-11-19
4.1 限失真信源编码
在息但复发然源理量了据基的在出而输论地在前消转础的出限息面无许,回描换。消信失述几失多,什答、息息真了章真实而么了频是是失的传际就率这范带真压讨输应只可允被些围缩要许论。用以压问,内的中的中满了缩题研和失信的数,,足。,究真源据了其人一最其编压中基们定?大信码息如香缩的本并程问率何出不条度农等题的发要件对是与现失多失点求,限,代真真失都完近少已通的真信是全似进?成无地如行信编关为技失恢息量何描码系术真复率定的保述,化信失理证地?论、理真述论信恢源信定数
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
均匀量化的量化误差: e x Q(x) x yi
量化器均方误差:
e2
2
x Q(x) p(x)dx
N
i 1
ai ai1
(x
yi
)2
p(x)dx
量化器输入方差: 2 x2 p(x)dx N ai x2 p(x)dx
i 1 ai1
量化器的信噪比SNR:
SNR
10
lg
波形信道
{y(t)}
v X ( X1,L , X N )
Xi [a, b]
v Y (Y1 ,L ,YN )
Yi [c, d ]
vv
v
vv
v
vv
I( X;Y ) h( X ) h( X | Y ) h(Y ) h(Y | X )
4.2 信息率失真函数
实际应用中 , 允许信号有一定的失真 , 当失真超过一定 限度后 , 信息将失去实用价值 , 因此要规定失真的限度.
失真函数R(D)的问题 , 可以归结为在约束条件保真度准 则 D ≤ D 下, 求极小值的问题 .
6) 限失真信源编码定理 (香农第三定理)
设离散无记忆信源X的信息率失真函数R(D) , 并
选定失真函数 , 对于任意允许平均失真度 D ≥0 和任
意小的ε≥0, 当信息率R ≥R(D) ,只要信源序列 L足够
N维信源符号序列的信息率失真函数RN(D):
RN
(D)
min {I (U;V
p( y|s);D ( N )ND
)}
4) 连续信源的信息率失真函数
连续信源平均失真度为:
D E[d (u, v)] p(u) p(v | u)d (u, v)dudv
连续信源的信息率失真函数:
R(D) inf {I (U;V )} P ( v|u )BD
R
变为:
XN P( x)
x1 ,
p( x1),
x2, L
p( x2 ),L
, ,
xi ,L
p( xi ),L
, ,
xN p( xN
)
N
N
且: p( xi )
ai
b
p( x)dx p( x)dx 1
a(i 1)
a
i 1
i 1
此信源合理!
二、连续信源的熵
2、相对熵
h( X )
均匀量化:线性量化 最优量化:使量化器的均方误差σe2最小或信
噪比SNR最小的量化。 (概率非均匀分布的最优量化算法)
4.3.1 均匀量化
量化器输入:x,对应实数值域空间为R;
量化器输出:y,对应实数值域空间为Rc;
对应取值范围[a0,an]
y=Q (x)
均匀量化:将区间[a0,an]分割为n个相等距离 且互不重叠的子区间[ai,ai+1],取每个小区间 的中点值作为量化值yi,即ai≤x≤ai+1时, yi=(ai+1+ai)/2
BD={ p( v j | u i ): ≤ D ; i=1,2, … ,n ; j=1,2,…m } p(v j | u i )为信道的传递概率。
3)离散信源的信息率失真函数
R(D) min {I (U;V )} p(v j |ui )BD
在允许信道 BD 中 , 寻求一个信道p( V |U ) , 使给定的信源经 过此信道后 , 互信息量I(U ;V )达到最小. 该最小互信息量称 为信息率失真函数R(D) , 简称率失真函数
ai
yi1 yi ,i 1,2,....,n 2
计算y1;
4)重复步骤(2)、(3),分别计算出a2,y2,a3,y3,….,直至最 后求得yn-1
5)检验yn是否为[an-1,an]的概率中心,
即
an an1
(x
yn1 )
p(x)dx
0
是否成立,或在允许的一定误差范
围内成立。
6)若步骤(5)满足,则过程结束,否则,重新选y0。
信息率失真是A/D转换、量化、频带压缩和数据压缩的 理论基础. 4.2.1 失真函数
1) 失真函数定义
信源 U {u1,u2 , ,un} 经过信源编码后输出 V {v1, v2 , , vm}
对于每一对( ui , vj ) , 指定一个非负函数 d ( ui , vj ) ≥ 0 i = 1 , 2 , … , n j = 1 , 2 , … , m 称 d ( xi , yj ) 为单个符号的失真函数. 表示信源发出符 号 xi , 接收端再现 yj 所引起的误差或失真. d ( xi , yj ) = 0 无失真 , d ( xi , yj ) > 0 有失真.
2 ( x yi ) p( x)dx 0
ai
ai1
xp( x)dx
yi
ai ai1
p( x)dx
ai
E[ x] ai1 p( x)dx
ai
yi最佳位置在ai和ai+1区间的概率中心。
Max-Livod迭代方法:
1)任取y0;
2)由
a1 a0
(x
y0
)
p(x)dx
0
,计算a1;
3)根据公式
表4-1 各种图像信号应用的码率
象素数 行 数
应用种类
/行
/帧
HDTV 普通电视
1920 720
1080 480
会议电视 352
288
电视电话 128
112
码率bps 压缩前 压缩后 1.18G 20~25M
167M
4~8M
36.5M 1.5~2M
5.2M
56k
4.1 连续信源的熵和互信息
一、连续消息的统计特性
2 e2
量化器的工作区域:
1. 正常量化区:
x [a0, an ] 量化器能得到正常量化。
2. 限幅区: x a0或x an 量化器处于限幅或过载工 作状态,产生较大失真。
3. 空载区: / 2 x ai / 2
(1)当x=ai时,量化器输出在两个量化级间往返跳动, 形成一个矩形输出,结果将产生点状噪声。
语音信号传输
语音(音频)信号的带宽 :20~20000HZ
实际应用音频范围:
电话质量:
300~3.4KHZ 电话公用网
调幅广播质量: 50 ~7 KHZ 有现场感的语音传输
高保真音频信号: 20 ~20 KHZ 高保真音响
图像信号传输 一路6MHz的普通电视信号数字化后,其数码率将
高达167Mbps,对储存器容量要求很大,占有的带宽将 达80MHz左右
4) 信息率失真函数R(D)物理意义 1°R(D)是信源给定的情况下, 在可容忍的失真度内再现
信源消息所必须获得的最小平均信息量 . 2°R(D)是反映给定信源可压缩的程度. 3°R(D)求出后 , 就与选择的试验信道无关 , 而只是信源
特性的参量 , 不同的信源 , 其R(D)是不同的 .
5) 信息率失真函数R(D)的计算 已给定信源概率P(X)和失真函数d ( xi , yj ) ,求信息率
1°使其压缩后的信息传输率小于信道容量;
2°保证压缩所引入的平均失真 D不超过预先给定
的允许失真度D;
3°在满足 D≤ D的前提下 , 使编码后的信息率尽
可能小.
不等式 D ≤ D 称为保真度准则
2) 试验信道
1°有失真的信源编码器视作有干扰的信道(假想信道) 2°当信源已知 (即B(U)已知)时 , 单个符号的失真度给 定, 选择一类假想信道 , 使得 D ≤ D ,这类假想信道称为 D 失真允许信道 , 或 D 失真允许试验信道. 记为
1.波形信源:
2.描述:
x(t) { xv(t1 ), xv(t2 ),L , xv(tn )}
在一个具体的时间点ti ,{x(ti)} 为一个取值 连续的随机变量,可用有限维概率密度函数族
描述:
p1x2
,
t2
M
pn
x1
,
x2
,L
, xn , t1 , t2 ,L
,tn
一、波形信源的特性
2.描述:
n
➢ 独立的随机过程:pn ( x1,L , xn , t1,L , tn ) p( xk , tk )
k 1
➢平稳随机过程:统计特性不随时间平移而变化的随机过程。
pn x1, x2,L , xn,t1,t2,L ,tn pn x1, x2,L , xn,t1 ,t2 ,L ,tn
2) 常用的失真函数
1°平方误差失真函数 d ( xi , yj ) = (xi - yj )2
2°绝对误差失真函数 d ( xi , yj ) = | xi - yj |
3°相对误差失真函数 d ( xi , yj ) = | xi - yj |/ | xi |
4°误码失真函数
0 d( xi , y j ) 1
i j 其他
失真函数1°,2°,3°用于连续信源 , 失真函数4°用
于离散信源 , 失真函数4°也称Hanmming失真函数.
3) 失真矩阵d
n × m 矩阵
d( x1 , y1 )
d
d ( xn , y1 )
d( x1 , ym )
d ( xn , ym )
4.2.2 平均失真 xi 和 yj 均为随机变量 , 所以d ( xi , yj ) 也
x( t ) lim 1
T
x( t )dt
T 2T T
二、连续信源的熵
X p(x)
R p(x)
p(x)dx 1
R
1、方法
变量X的概率分布与概率密度函数的关系为:
p( x) d P( x)
x
P( x) p( x)dx