信源编码学习教材PPT课件
合集下载
信源编码技术 PPT
实际信源是由上述最基本的单个消息信源组合而成的。 实践证明,只要满足限时、限数这类物理上可实现的基本条件, 模拟信源就可以离散化为离散消息序列信源来表达。 因此对 于实际信源的统计描述,这里仅讨论消息序列信源。 对于离散消息序列信源,也可以采用类似于对上述单个消息信 源的描述方法。假设消息序列信源由L个消息(符号)构成,且 消息序列中每个消息(符号)取值集合(范围)是相同的,用X表示, 则消息序列信源的取值集合可以表示为 XL=X×X×…×X (共计L个X)
∑∑
i =1 j =1
i
i
i
i
它们之间有如下关系: (1) 联合熵与条件熵的关系: H(X, Y)=H(X)+H(Y/X) =H(Y)+H(X/Y) (2) 熵与条件熵的关系: H(X)≥H(X/Y) H(Y)≥H(Y/X) 这两式又称为Shannon不等式
熵的基本性质 1.连续性 2.递减性 3.可加性 4. 对称性 5.非负性 6.极值性(最大熵值定理)
同理,可以分别定义信宿[Y, P(yj)]在Y=yi时的非平均自信 息量、 两个消息有统计关联时的条件非平均自信息量和两个 消息的联合非平均自信息量如下:
1 I [ P ( y i )] = log = − log P ( y i ) P ( yi )
1 I [ P ( y j / xi )] = log = − log P( y j / xi ) P ( y j / xi ) 1 I [ P ( xi / y j )] = log = − log P( xi / y j ) P ( xi / y j ) 1 I [ P ( xi , y j )] = log = − log P ( xi , y j ) P( xi , y j )
∑∑
i =1 j =1
i
i
i
i
它们之间有如下关系: (1) 联合熵与条件熵的关系: H(X, Y)=H(X)+H(Y/X) =H(Y)+H(X/Y) (2) 熵与条件熵的关系: H(X)≥H(X/Y) H(Y)≥H(Y/X) 这两式又称为Shannon不等式
熵的基本性质 1.连续性 2.递减性 3.可加性 4. 对称性 5.非负性 6.极值性(最大熵值定理)
同理,可以分别定义信宿[Y, P(yj)]在Y=yi时的非平均自信 息量、 两个消息有统计关联时的条件非平均自信息量和两个 消息的联合非平均自信息量如下:
1 I [ P ( y i )] = log = − log P ( y i ) P ( yi )
1 I [ P ( y j / xi )] = log = − log P( y j / xi ) P ( y j / xi ) 1 I [ P ( xi / y j )] = log = − log P( xi / y j ) P ( xi / y j ) 1 I [ P ( xi , y j )] = log = − log P ( xi , y j ) P( xi , y j )
第5章-信源编码PPT课件
近于最佳编码。
.
14
5.1.2 香农编码-举例P166习题5.1
例:设信源共7个符号消息,其概率和累加概率如下表所示。
信源消 息符号ai
a1 a2 a3 a4 a5 a6 a7
符号概 率p(ai)
0.20 0.19 0.18 0.17 0.15 0.10 0.01
累加概 率Pi
0 0.2 0.39 0.57 0.74 0.89 0.99
第5章 信源编码
.
1
信源编码
如果信源输出符号序列长度L=1,信源符 号集A(a1,a2,…,an),信源概率空间为
P Xp(aa11)
a2 an p(a2) p(an)
若将信源X通过二元信道传输,就必须把信源符 号ai变换成由0,1符号组成的码符号序列,这个 过程就是信源编码 。
.
2
第5章 信源编码
.
16
5.1.2 香农编码-举例(续)
7
平均码长:K p( ai )Ki 3.14码元/符号 i 1
7
信源熵:H( X ) - p(ai )log p(ai ) 2.61比特/符号 i 1
由于信源符号之间存在分布不均匀和相关 性,使得信源存在冗余度,信源编码的主 要任务就是减少冗余,提高编码效率。
.
3
第5章 信源编码
信源编码的基本途径有两个: 使序列中的各个符号尽可能地互相独立,即解
除相关性; 使编码中各个符号出现的概率尽可能地相等,
即概率均匀化。
.
4
第5章 信源编码
信源编码的基础是信息论中的两个编码定理: 无失真编码定理 限失真编ቤተ መጻሕፍቲ ባይዱ定理
lo 2 p (x g i) K i 1 lo 2 p (x g i)
第5章 信源编码3PPT课件
13
通分过为预~x n 测所,携我带们的将信息x n 量所,携它带实的际信上息是量分xn成1,了xn两2,部分所:携一带部 的信息量;另一部分是d n 所携带的信息量,它才是 x n所携 带信息量的新增加部分。只要预测足够准确,d n 就足够小。 因此,如果是对d n 进行量化、编码而不是对x n 进行量化、 编码,就会减少信息冗余,从而提高编码效率。
12
5.3.1 预测编码
为方便,将第 n个时刻的信号值 x(nTs )记为x n ,相应第 n1,n2,个时刻的信号值记为 xn1,xn2,。 对于时间相关的信号序列,由于 x n 与 xn1,xn2,相关, 故只要知道 xn1,xn2,,就可对 x n 进行预测。 设预测值为~x n ,则 xn~ xndn, d n 称为预测误差。
a2
平面的划分:
S3 S2
S4
S1
a1
S6
S5
7
然后对于所划分的每一块给定一个量化矢量(相当于标量 量化中的量化值),记为 Xq,ii1,2,,N ;通常将其取 为所划分块的形心。 在矢量量化中,一般将每个量化矢量 Xq,ii1,2,,N 称 为码字或码矢,将所有 N个量化矢量构成的集合
{Xq1,Xq2, ,XqN } 称为码书;因此,矢量量化中 这项最重要的工作称为码书的建立。
利用训练序列建立码书。 二、全搜索算法和树搜索算法
常用时间复杂度和空间复杂度来衡量矢量量化:时间复杂度是指每 量化一个信号矢量所需的计算量,它主要取决于搜索过程中乘法运 算的次数;空间复杂度是指码书所需的存储容量。
10
§5.1 离散信源编码
§5.2 连续信源编码
§5.3 相关信源编码 •预测编码 •差值编码
§5.1 离散信源编码
通分过为预~x n 测所,携我带们的将信息x n 量所,携它带实的际信上息是量分xn成1,了xn两2,部分所:携一带部 的信息量;另一部分是d n 所携带的信息量,它才是 x n所携 带信息量的新增加部分。只要预测足够准确,d n 就足够小。 因此,如果是对d n 进行量化、编码而不是对x n 进行量化、 编码,就会减少信息冗余,从而提高编码效率。
12
5.3.1 预测编码
为方便,将第 n个时刻的信号值 x(nTs )记为x n ,相应第 n1,n2,个时刻的信号值记为 xn1,xn2,。 对于时间相关的信号序列,由于 x n 与 xn1,xn2,相关, 故只要知道 xn1,xn2,,就可对 x n 进行预测。 设预测值为~x n ,则 xn~ xndn, d n 称为预测误差。
a2
平面的划分:
S3 S2
S4
S1
a1
S6
S5
7
然后对于所划分的每一块给定一个量化矢量(相当于标量 量化中的量化值),记为 Xq,ii1,2,,N ;通常将其取 为所划分块的形心。 在矢量量化中,一般将每个量化矢量 Xq,ii1,2,,N 称 为码字或码矢,将所有 N个量化矢量构成的集合
{Xq1,Xq2, ,XqN } 称为码书;因此,矢量量化中 这项最重要的工作称为码书的建立。
利用训练序列建立码书。 二、全搜索算法和树搜索算法
常用时间复杂度和空间复杂度来衡量矢量量化:时间复杂度是指每 量化一个信号矢量所需的计算量,它主要取决于搜索过程中乘法运 算的次数;空间复杂度是指码书所需的存储容量。
10
§5.1 离散信源编码
§5.2 连续信源编码
§5.3 相关信源编码 •预测编码 •差值编码
§5.1 离散信源编码
《信源编码》课件
(2)若抽样频率为
= 31
则有
∞
=
=−∞
∞
− = 31
=−∞
′ − 31
例题12-5
∞
= 31
′ − 31
=−∞
(3)接收网络的传输函数2()应设计为
1
2 = 1
0
此时能由()不失真地恢复 。
∞
=
=−∞
∞
− = 5
=−∞
− 5
例题12-4
其频谱图为
例题12-5
【例题12-5】已知某信号 的频谱 如题图(a)所示,将它通过传输函数为1()的滤波器(见题
图(b))后再进行理想抽样。
(1)抽样速率应为多少?
(2)若抽样速率 = 31,试画出已抽样信号()的频谱。
(3)接收网络的传输函数2()应如何设计,才能由()不失真地恢复 ?
例题12-5
解:(1) 通过1 变为 ′ , ′ 与()相乘,所以采样的对象是 ′ 。欲求采样速率,首
先须求得 ′ 的最高频率。
可见, 通过1()后的最高频率仍为1,故抽样频率为 ≥ 21。
1
= 400时
∞
= 400
其频谱图为
=−∞
− 400
例题12-4
【例题12-4】对基带信号 = 2000 + 24000进行理想抽样,为了在接收端能不失真地从已
抽样信号()中恢复 。
(1)抽样间隔应如何பைடு நூலகம்择?
(2)若抽样间隔取为0.2,试画出已抽样信号的频谱图。
0.25
= 31
则有
∞
=
=−∞
∞
− = 31
=−∞
′ − 31
例题12-5
∞
= 31
′ − 31
=−∞
(3)接收网络的传输函数2()应设计为
1
2 = 1
0
此时能由()不失真地恢复 。
∞
=
=−∞
∞
− = 5
=−∞
− 5
例题12-4
其频谱图为
例题12-5
【例题12-5】已知某信号 的频谱 如题图(a)所示,将它通过传输函数为1()的滤波器(见题
图(b))后再进行理想抽样。
(1)抽样速率应为多少?
(2)若抽样速率 = 31,试画出已抽样信号()的频谱。
(3)接收网络的传输函数2()应如何设计,才能由()不失真地恢复 ?
例题12-5
解:(1) 通过1 变为 ′ , ′ 与()相乘,所以采样的对象是 ′ 。欲求采样速率,首
先须求得 ′ 的最高频率。
可见, 通过1()后的最高频率仍为1,故抽样频率为 ≥ 21。
1
= 400时
∞
= 400
其频谱图为
=−∞
− 400
例题12-4
【例题12-4】对基带信号 = 2000 + 24000进行理想抽样,为了在接收端能不失真地从已
抽样信号()中恢复 。
(1)抽样间隔应如何பைடு நூலகம்择?
(2)若抽样间隔取为0.2,试画出已抽样信号的频谱图。
0.25
相关信源编码PPT课件
性无关与统计独立是完全等效的。所以,能完全解除线性相关性的信源,即
是符合统计独立的无记忆信源。
第11页/共97页
• 3.1.2
•
预测就是从已收到的符号来提取关于未收到的符号信息,从而预
测其最可能的值作为预测值;并对它与实际值之差进行编码,达到进一步压
缩码率的目的。由此可见,预测编码是利用信源的相关性来压缩码率的;对
第1页/共97页
•
由于非线性的复杂性,大部分预测器均采用线性预测函数。科尔莫戈罗
夫 (Kolmogorov) 、 维 纳 (Wiener) 、 卡 尔 曼 (Kalman) 等 人 在 20 世 纪 40 年
代对线性预测理论就作出了杰出贡献,他们建立了以最小均方量化误差为准
则的最优预测理论与方法,广泛应用于通信工程和航天航空飞行器的控制等
关于预测器输入数据的选取,是指选取何处的原始数据作为预测器的输入依
据。一般可分为开环、闭环和开环闭环两者的混合三类。开环直接从信源输
出选取待测瞬间i的前k位,即i-1,i-2,…,i-k位作为预测器的输入依据,
闭环则取误差函数的输出端反馈到预测器中的i位以前的k位作为预测器的主
要输入依据。
第9页/共97页
相减得误差值ei,再将ei量化成数字序列xi。经信道传输后变成yi序列。在
接收端将接收到的yi与在接收端形成的预测值
相加,可得恢复后
的信源序列
,同时又将
反馈到接收端线性预测器,以求得下一
u 瞬 间 的 预 测 值
^ 。由于预测误差ei的熵(或者方差)远远低于输入序列
ui的 熵 ( 或 者 差 值 ) , 所i 以 经 预 测 后 可 以 很 大 程 度 地 提 高 压 缩 信 源 的 数 码 率 。
第三章信源编码.1PPT课件
若一组码中所有码字的长度各不相同,称为变长码。 4、非奇异码:
若一组码中所有码字都不相同,称为非奇异码。
§3.2码的分类
5、奇异码: 若一组码中有相同的码字,称为奇异码。
6、唯一可译码: 若码的任意一串有限长的码B符:{号Bi 序 (W列i1W只i2.能..Wi被N )}唯一的译成
所对应的信源符号序列,则称此码为唯一可译码。
最佳码
唯一可译码的一类 其平均码长小于其他唯一可译码的平均长度
例1.唯一可译变长码与及时码
信源符号 出现概率 码1
码2
码3
码4
x1
1/2
0
0
1
1
x2
1/4
11
10
10
01
x3
1/8
00
00
100
001
x4
1/8
Hale Waihona Puke 11011000
0001
7.即时码
码1是一个奇异码,不是唯一可译码;码2也不是唯一 可译码,因为收到一串序列是,无法唯一译出对应的原符 号序列,如0100,即可译作x4x3x1,也可译作 x4x1X3,x1x2x3或x1x2x1x1;码3和码4都是唯一可译的。
所对应的码长为k1, k2 ,..., kq ,则必定满足: q r ki 1 i 1
反之,若码长满足上式,则一定存在这样的唯一可译 码。
所有的码 非奇异码 唯一可译码
即时码
§3.3定长编码定理-1-描述
定长(等长)码信源编码定理:
对离散,无记忆、平稳、遍历信源其符号序列:X =(X1,X2 …..XL), 可用KL个符号Y=(Y1,Y2….YkL) 进行等长编码,对任意ε>0,δ>0,
若一组码中所有码字都不相同,称为非奇异码。
§3.2码的分类
5、奇异码: 若一组码中有相同的码字,称为奇异码。
6、唯一可译码: 若码的任意一串有限长的码B符:{号Bi 序 (W列i1W只i2.能..Wi被N )}唯一的译成
所对应的信源符号序列,则称此码为唯一可译码。
最佳码
唯一可译码的一类 其平均码长小于其他唯一可译码的平均长度
例1.唯一可译变长码与及时码
信源符号 出现概率 码1
码2
码3
码4
x1
1/2
0
0
1
1
x2
1/4
11
10
10
01
x3
1/8
00
00
100
001
x4
1/8
Hale Waihona Puke 11011000
0001
7.即时码
码1是一个奇异码,不是唯一可译码;码2也不是唯一 可译码,因为收到一串序列是,无法唯一译出对应的原符 号序列,如0100,即可译作x4x3x1,也可译作 x4x1X3,x1x2x3或x1x2x1x1;码3和码4都是唯一可译的。
所对应的码长为k1, k2 ,..., kq ,则必定满足: q r ki 1 i 1
反之,若码长满足上式,则一定存在这样的唯一可译 码。
所有的码 非奇异码 唯一可译码
即时码
§3.3定长编码定理-1-描述
定长(等长)码信源编码定理:
对离散,无记忆、平稳、遍历信源其符号序列:X =(X1,X2 …..XL), 可用KL个符号Y=(Y1,Y2….YkL) 进行等长编码,对任意ε>0,δ>0,
《信源编码》PPT课件
器的存在性,它使输出符号的信息率与信源熵之比接
近于 1 ,即:
若要实现,取无限长 L 的
信源符号进行统一编码。
精选ppt
30
例: 设离散无记忆信源概率空间为
•
信源熵:
H
(
X
)
=
-
∑
i=
p
1
(
xi
)
log
p
(
xi
)
=
2.55
bit
/
符号
对信源符号采用定长二元编码, 要求编码效率η为 90 %
若取 L = 1 ,则
• 信源熵: H ( X ) = 2 . 55 bit / 符号
要求编码效率η为 90 % 用二进制变长编码, m = 2
精选ppt
38
例: 设离散无记忆信源概率空间为
• 信源熵: H ( X ) = 1/4 log4 +3/4 log3/4 = 0. 811 bit / 信源符号
精选ppt
存在唯一可译码
20
K1 =1 , K2 =2 , K3 =3 , K4 =3 。
注意Βιβλιοθήκη Kraft 不等式只是用来说明唯一可译码是 否存在,并不能作为唯一可译码的判据。
如码字 {0,10,010,111} 虽然满足 Kraft 不等式,
但它不是唯一可译码。
精选ppt
21
5.2 无失真信源编码
在不失真或允许失真的条件下,用
尽可能少的符号传送信源信息。
精选ppt
3
• 信道编码: – 是以提高信息传输的可靠性为目的的编码。 – 通常通过增加信源的冗余度来实现。采用的 一般方法是增大码率/带宽。
第5章 信源编码技术PPT课件
第5章 信源编码技术
1
整体 概述
一 请在这里输入您的主要叙述内容
二
请在这里输入您的主要 叙述内容
三 请在这里输入您的主要叙述内容
2
❖ 信源编码理论表明: ➢ 无论是变长码还是等长码,无失真编码的平均码长
受到熵的约束; ➢ 通过信源扩展,并对扩展信源序列进行编码,可以
有效提高信源编码效率; ➢ 增加序列的长度,最佳码的平均码长能够逼近信源
17
18
❖ 哈夫曼编码方法得到的码并非是唯一的,原因在于: 每次对信源缩减时,赋予信源最后两个概率最小的
符号,分配码元0和1是可以任意的,即大概率符号 或者合并后的符号集合可以分配码元0也可以是1, 这种选择任意性可以得到不同的哈夫曼码,但不会 影响码字的长度。 对信源进行缩减时,如果两个概率最小的符号合并 后的概率与其它信源符号的概率相同,这两者在缩 减信源中进行概率排序,其位置放置次序是可以任 意的,故会得到不同的哈夫曼码。考虑到合并后概 率是多个符号概率累加,应当放在上面,以便减少 更多符号分配更长码的可能,这样不仅可以减小平 均码长,而且可以减小码的任意性。此外,即使平 均码长相等,还存在码字质量的好坏问题。
i 1
Pi p (ak ) k 1
❖ (4)将累加概率Pi表示为二进制形式; ❖ (5)取二进制数的小数点后Li位作为该消息符号的二
进制码字。
7
ቤተ መጻሕፍቲ ባይዱ
8
9
❖ 由于每个信源符号码长是根据信源符号的信 息量选择,从局部来看每个码长的取值都是 最佳的,所以香农码是最佳码。
❖ 但是香农码构造码字时没有综合使用信源统 计特性,所以码长并非最短的。
❖ 根据信源编码理论,将能够荷载一定信息量, 且码字的平均长度最短,可分离的变长码字 集合称为最佳变长码。
1
整体 概述
一 请在这里输入您的主要叙述内容
二
请在这里输入您的主要 叙述内容
三 请在这里输入您的主要叙述内容
2
❖ 信源编码理论表明: ➢ 无论是变长码还是等长码,无失真编码的平均码长
受到熵的约束; ➢ 通过信源扩展,并对扩展信源序列进行编码,可以
有效提高信源编码效率; ➢ 增加序列的长度,最佳码的平均码长能够逼近信源
17
18
❖ 哈夫曼编码方法得到的码并非是唯一的,原因在于: 每次对信源缩减时,赋予信源最后两个概率最小的
符号,分配码元0和1是可以任意的,即大概率符号 或者合并后的符号集合可以分配码元0也可以是1, 这种选择任意性可以得到不同的哈夫曼码,但不会 影响码字的长度。 对信源进行缩减时,如果两个概率最小的符号合并 后的概率与其它信源符号的概率相同,这两者在缩 减信源中进行概率排序,其位置放置次序是可以任 意的,故会得到不同的哈夫曼码。考虑到合并后概 率是多个符号概率累加,应当放在上面,以便减少 更多符号分配更长码的可能,这样不仅可以减小平 均码长,而且可以减小码的任意性。此外,即使平 均码长相等,还存在码字质量的好坏问题。
i 1
Pi p (ak ) k 1
❖ (4)将累加概率Pi表示为二进制形式; ❖ (5)取二进制数的小数点后Li位作为该消息符号的二
进制码字。
7
ቤተ መጻሕፍቲ ባይዱ
8
9
❖ 由于每个信源符号码长是根据信源符号的信 息量选择,从局部来看每个码长的取值都是 最佳的,所以香农码是最佳码。
❖ 但是香农码构造码字时没有综合使用信源统 计特性,所以码长并非最短的。
❖ 根据信源编码理论,将能够荷载一定信息量, 且码字的平均长度最短,可分离的变长码字 集合称为最佳变长码。
信源编码技术PPT课件
二、编码方式 1、离散无记忆信源编码DMS
包括有Huffman编码和等长编码
2、脉冲编码调制和增量编码调制PCM/DM 3、线性预测编码LPC
将信源等效地视为在一个适当输入信号激励下的线性系 统输出。用线性系统的参数及伴随的输入激励信号进行编 码。
数字通信原理
2019年6月21日星期五
三、DMS编码
(3)每三个符号组合,进行等长二进制 编码;
数字通信原理
2019年6月21日星期五
2、不等长编码
即将出现概率较大的符号用位数较少的 码字代表,而出现概率较小的符号用较长 的码字代表,也称为概率匹配编码。
(1)哈夫曼编码:单义可译码,平均长度 最短的码种;
平均码长为:
L
H ( x) N p( xi ) ni H ( x) 1
(1)Huffman编码所产生的8个不等长码 字;
(2)每个符号平均二进制编码长度;
(3)信源的熵;
数字通信原理
2019年6月21日星期五
注意:
Huffman编码构造的码字不唯一; Huffman编码是变长编码,硬件实现
比较困难; 采用Huffman编码,要传送编码表,
占用传送时间; Huffman编码是变长编码,出错时难
数字通信原理
2019年6月21日星期五
4.2 抽样定理
一、抽样 模拟信号数字化的第一步是在时间上
对信号进行离散化处理,即将时间上连续 的信号处理成时间上离散的信号,这一过 程称之为抽样。
每隔一定的时间间隔T,抽取模拟信 号的一个瞬时幅度值,所形成的一串在时 间上离散的样值称为样值序列或样值信号, 或叫脉幅调制信号(PAM信号)。
i 1
ni:相应出现概率为p(xi)的符号的编码长度。
包括有Huffman编码和等长编码
2、脉冲编码调制和增量编码调制PCM/DM 3、线性预测编码LPC
将信源等效地视为在一个适当输入信号激励下的线性系 统输出。用线性系统的参数及伴随的输入激励信号进行编 码。
数字通信原理
2019年6月21日星期五
三、DMS编码
(3)每三个符号组合,进行等长二进制 编码;
数字通信原理
2019年6月21日星期五
2、不等长编码
即将出现概率较大的符号用位数较少的 码字代表,而出现概率较小的符号用较长 的码字代表,也称为概率匹配编码。
(1)哈夫曼编码:单义可译码,平均长度 最短的码种;
平均码长为:
L
H ( x) N p( xi ) ni H ( x) 1
(1)Huffman编码所产生的8个不等长码 字;
(2)每个符号平均二进制编码长度;
(3)信源的熵;
数字通信原理
2019年6月21日星期五
注意:
Huffman编码构造的码字不唯一; Huffman编码是变长编码,硬件实现
比较困难; 采用Huffman编码,要传送编码表,
占用传送时间; Huffman编码是变长编码,出错时难
数字通信原理
2019年6月21日星期五
4.2 抽样定理
一、抽样 模拟信号数字化的第一步是在时间上
对信号进行离散化处理,即将时间上连续 的信号处理成时间上离散的信号,这一过 程称之为抽样。
每隔一定的时间间隔T,抽取模拟信 号的一个瞬时幅度值,所形成的一串在时 间上离散的样值称为样值序列或样值信号, 或叫脉幅调制信号(PAM信号)。
i 1
ni:相应出现概率为p(xi)的符号的编码长度。
信源编码ppt课件
因为 K K L H ( X ) , L log m
所以 R log m
当K达到极限值 H ( X ) 时,编码后的信息传输率 log m
HUST --- Basis for Information Theory
信源编码(主要内容)
信源编码定理
信源编码概念 香农第一定理(变长编码) 香农第三定理
信源编码方法
离散信源编码 连续信源编码* 相关信源编码* 变换编码*
1
HUST --- Basis for Information Theory
1、克拉夫特不等式
信源符号数、码符号数和码字长度之间应满 足什么条件,才能构成即时码?
定 理 设 信 源 符 号 集 X (x1, x2, xn ) , 码 符 号 集 为 Y ( y1, y2, ym ) , 对 信 源 进 行 编 码 , 相 应 的 码 字 为 W (W1,W2, Wn ) ,其分别对应的码长为 k1, k2, kn ,则即时 码存在的充要条件是
HUST --- Basis for Information Theory
3、平均码长
定义 设信源
X P
p
x1
x1
x2
p x2
xn
p xn
编码后的码字分别为W1 ,W2,…,Wn,相应 的码长分别为k1,k2,…,kn。因为是唯一可
译码,信源符号xi和码字Wi一一对应,则平均 码长为
n
K = p(xi )ki
i 1
6
HUST --- Basis for Information Theory
4、信息传输率与信息传输速率
数据通信 第四章 信源编码ppt课件
(S0
Nq )PCM
f 2(t) e2(t)
4.3.1 均匀量化
把输入信号的取值域按等间隔分割的量化称 为均匀量化。在均匀量化中,每个量化区间的量 化电平均取在各区间的中点。假设设输入信号的最 小值和最大值分别用a和b表示, 量化电平数为M,那么均 匀量化时的量化间隔为:
ibaM
q7 m6
分层电平 q 6
下面分两种情况阐明:
〔1〕假设最高频率fH为带宽的整数倍,即fH =nH。此时fH /H=n是整数,m=n,所以抽样速 率fs=2 fH /n=2H。
〔2〕假设最高频率fH不为带宽的整数倍, 即
fH =nH+kH, 0<k<1
此时,fH /H=n+k,由定理知,m是一个不超 越n+k的最大整数,显然,m=n,所以能恢 复出原信号f(t)的最小抽样速率为
- fH
- fL
- 3fs - 2. 5fs - 2fs
- fs
M ( )
fL
fH
O
fs
(a )
2fs 2. 5fs 3fs
f
s( )
- 3fs
- 2fs
- fs
O
fs
2fs
(b )
M s( )
3fs
f
- 3fs
- 2fs
- fs
O
fs
2fs
3fs
f
(c)
fH=5H时带通讯号的抽样频谱
定理内容:一个带通讯号f(t),其频率限制在fL 与fH之间,带宽为H=fH—fL,假设最小抽样速 率fs=2fH/m,m是一个不超越fH/H的最大整数, 那么f(t)就可完全由抽样值确定。
称为f奈s 奎2斯fH特速率。
二章节信源编码-PPT精品
(2)提高通信有效性,减少原消息的冗余度。
2019/11/2第1 2章 模拟信号的数字传输
2
第二章 信源编码
信源编码
DMS (信源是数字信号) PCM (信源是模拟信号) DPCM DM 、△M
2019/11/2第1 2章 模拟信号的数字传输
3
2.1 离散无记忆信源(DMS)编码
1、 DMS : Discrete Memoryless Source
模拟 信息源
抽样、量化 和编码
数字 通信系统
译码和低通 滤波
m(t) 模拟随机信号
{s }
k
数字随机序列
{s }
k
数字随机序列
m(t) 模拟随机信号
图2.2 – 1 模拟信号的数字传输原理图
2019/11/2第1 2章 模拟信号的数字传输
25
2.2 模拟信号数字化的方法
2、模拟信号数字化的方法
波形编码
1 11 11 11 1
H(x)
(2 log2
2
4
log2
4
8
log2
8
8
log2
) 8
1.75
H(x) 1
N
2019/11/2第1 2章 模拟信号的数字传输
16
2.1.2 不等长编码
[例 2–4] 信源共有七种符号x1,x2,...x7, 设它们出现的概率分别为0.35,0.30, 0.20,0.10,0.04,0.005,0.005,求其 Huffman编码的平均长度。
6
(3)N pini i1 0.610.2220.130.064
0.0135 0.0075
2019/11/2第1 2章 模拟信号的数字传输
2
第二章 信源编码
信源编码
DMS (信源是数字信号) PCM (信源是模拟信号) DPCM DM 、△M
2019/11/2第1 2章 模拟信号的数字传输
3
2.1 离散无记忆信源(DMS)编码
1、 DMS : Discrete Memoryless Source
模拟 信息源
抽样、量化 和编码
数字 通信系统
译码和低通 滤波
m(t) 模拟随机信号
{s }
k
数字随机序列
{s }
k
数字随机序列
m(t) 模拟随机信号
图2.2 – 1 模拟信号的数字传输原理图
2019/11/2第1 2章 模拟信号的数字传输
25
2.2 模拟信号数字化的方法
2、模拟信号数字化的方法
波形编码
1 11 11 11 1
H(x)
(2 log2
2
4
log2
4
8
log2
8
8
log2
) 8
1.75
H(x) 1
N
2019/11/2第1 2章 模拟信号的数字传输
16
2.1.2 不等长编码
[例 2–4] 信源共有七种符号x1,x2,...x7, 设它们出现的概率分别为0.35,0.30, 0.20,0.10,0.04,0.005,0.005,求其 Huffman编码的平均长度。
6
(3)N pini i1 0.610.2220.130.064
0.0135 0.0075
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
首先是误差扩散问题,由于哈夫曼码 是一类无失真信源最佳变长码,这就是说 在研究这类无失真信源编码时认为信道传 输是理想的,是不产生差错的,然而实际 信道中总是存在噪声的,噪声引入后必然 要破坏变长码的结构。同时由于变长码是 不加同步的码,无法自动清洗所产生的影 响,所以必然要产生误差的扩散,这就是 说噪声所影响的不仅是被干扰的码元,而 是一直要扩散下去影响后面的一系列码元。
H(U)≤R<H(U)+ε
其中ε为任意正数。
5.1.3 最佳变长编码
—哈夫曼编码
1952年,哈夫曼给出一种编码方法, 所得的码字是异前置的变长码,其平均码 长最短,称它为最佳变长码,又称哈夫曼 码。 1956 年,戈罗伯对它进行了改进,使 之更便于实用。
其具体编码方法如下:
(1) 将信源消息(符号)按概率大小
第3个问题是与信源统计特性相匹配的 问题。变长码本身就是与信源统计特性相 匹配的无失真信源编码,因此信源统计特 性的变化对变长码影响很大,它主要体现 在下面两点。 (1) 与信源消息种类多少的关系:一般 变长码更适合于大的消息集,而不大适合 小且概率分布相差很大的集合。小消息集 只有在很特殊情况下才能实现统计匹配。
很多学者深入地研究了离散、随机序 列信源的统计特性,仙农 (1948) 首先发现, 后来麦克米伦(1953)和沃尔夫兹(1961)进一 步严格证明,这类信源具有渐近等同分割 性 , 或 简 称 为 A.E.P(Asymptotic Equipatition Property)。它的基本思想是, 一个总数为 nL 种的消息序列信源随着消息 序列长度 L 的增长且足够大时,越来越明 显产生两极分化现象。
第5章 信 源 编 码
5.1 无失真信源编码 *5.2 限失真信源编码定理 *5.3 矢量量化编码 5.4 预 测 编 码 5.5 变 换 编 码 5.6 传 真 编 码 5.7 语音压缩编码 5.8 图 像 编 码
5.1 无失真信源编码
离散信源的无失真编码实质上是 一种统计匹配编码。信息论指出信源中 的统计多余度主要决定于以下两个主要 因素:一是消息概率分布的非均匀性, 另一个是消息间的相关性。对无记忆信 源主要决定于概率分布的非均匀性,但 是,对于有记忆信源,两者都起作用, 且后者相关性更加重要。
一、 码树与码字(组)可分Fra bibliotek条件这里,引入较直观的“码树”的概念, 并仍结合表 5-1-1 中的码字 ( 组 ) 来进一步解 释和说明。 码树是图论中的一个分支,又称为树 图。码树编码法是将编码方法形象化为一 棵生成的树。树有树根、树枝、节点、端 点、节数,并有满树与非满树之分。
从图5-1-1上看,要构造出在接收端可 分离的变长码,只要满足被选用的码字必 须为异前置码。在比较简单的信源,我们 可以很方便地用这种码树的方法直接且直 观地构造可分离码,但是,一当信源较复 杂比如信源含有很多消息 ( 符号 ) ,直接画 码树就比较复杂。
以至在低信噪比下无法正常工作。目 前对这类误差扩散还没有特别有效的克服 方法,在工程上一般哈夫曼码只能适合于 高信噪比的优质信道,比如误码率低于10-6 以下,以减小误差扩散所带来的影响。同 时工程上还常常采用定期清洗,比如在文 件和报纸传真中就采用按行清洗的方式, 以牺牲编码效率来达到限制误差扩散的目 的。另一种方法是加检错纠错码。
顺序排队;
(2) 从最小概率的两个消息开始
编码,并给予一定的编码规则,如小
概率的下支路编为 1( 或 0) ,大概率的
上支路编为 0( 或 1) ,若两者概率相等,
仍是下支路为1上支路为0;
(3) 将已编码的两个消息对应概率合并, 并重新按概率大小排队,重复步骤(2); (4) 重复步骤 (3) ,直至合并概率归一 时为止; (5) 编成的变长码是按后出先编方式, 即从概率归一的树根沿编码路线逆行至对 应的消息,如u3为“110”。
统计匹配编码是根据信源的不同概率 分布而选用与之相匹配的编码,以达到在 系统中传信速率最小,且满足在信宿复制 时无失真或低于某一允许的失真限定值。 下面,我们首先研究这类离散、无失 真、无记忆信源编码的一般模型,并研究 在它基础上应如何编码,从而引出定长和 变长两类编码方法。
5.1.1 等长编码定理
二、 变长编码定理
有了上述讨论的基础,我们下面给 出指导构造变长码的不同类型信源的信 源编码定理。它给出了变长码的平均码 长应该满足的条件。 首先讨论单个消息 ( 符号 ) 信源的变 长编码定理,它是最简单也是最基本的 变长编码定理。
定理5-1-4 :对于平均消息 (符号 )熵为 H(U)的离散、平稳、无记忆信源,必存在 一种无失真编码方法,使平均每个消息(符 号)的信息率R
其次是速率匹配问题,由于绝大多数 信源其消息是不等概率的,因而编成的变 长码长度也是不相等的,这必然导致信源 输出速率是变化的,然而在实际信道中传 送的信息率是固定不变化的。这就是说信 源给出的是变速的,而信道传送的则是恒 速的,因而信源与信道之间必然存在一个 速率匹配问题。
解决这一矛盾的办法,在工程上一般 是采用缓冲存储器的方法。这个缓存器起 到类似于水库的作用,变速输入、恒速输 出。但是这个缓存器的容量的选取显然与 输入变速特性即信源统计特性和编码方法, 以及输出速率密切相关。容量选大了浪费 设备,容量选小了则可能产生由于输入大 于输出且容量不够而出现溢出现象,或输 入小于输出而出现取空现象。这是一个需 要在实际的工程设计中进一步深入探讨的 问题。
可见,在差错率Pe和编码效率要求 并不十分苛刻的条件下,对这一简单信 源就需要近一百万个信源符号进行联合 编码,这显然是不现实的。因此,为了 解决这一个问题,人们就很自然地转向
于对变长编码的研究。
5.1.2 变长编码定理
等长编码需要取很大数量的符号一起 编码,显然不现实,倘若采用变长编码, 情况就大不一样了。若仍用上述最简单的 离散信源的例子,作变长编码如下,至于 具体编码方法后面将进一步讨论。 可见,若采用上述变长码,即使采用 逐位编码 ( L=1) 效率可达 100% ,这里虽然 是一个特例,不过一般情况下效率都可达 到很高。显然它大大优于等长编码。