信源编码
信源编码的实验报告
一、实验目的1. 理解信源编码的基本原理和过程。
2. 掌握几种常见的信源编码方法,如哈夫曼编码、算术编码等。
3. 分析不同信源编码方法的编码效率。
4. 培养动手实践能力和分析问题、解决问题的能力。
二、实验环境1. 操作系统:Windows 102. 编程语言:Python3.73. 实验工具:PyCharm IDE三、实验内容1. 哈夫曼编码2. 算术编码四、实验步骤1. 实验一:哈夫曼编码(1)读取信源数据,统计每个字符出现的频率。
(2)根据字符频率构建哈夫曼树,生成哈夫曼编码表。
(3)根据哈夫曼编码表对信源数据进行编码。
(4)计算编码后的数据长度,并与原始数据长度进行比较,分析编码效率。
2. 实验二:算术编码(1)读取信源数据,统计每个字符出现的频率。
(2)根据字符频率构建概率分布表。
(3)根据概率分布表对信源数据进行算术编码。
(4)计算编码后的数据长度,并与原始数据长度进行比较,分析编码效率。
五、实验结果与分析1. 实验一:哈夫曼编码(1)信源数据:{a, b, c, d, e},频率分别为{4, 2, 2, 1, 1}。
(2)哈夫曼编码表:a: 0b: 10c: 110d: 1110e: 1111(3)编码后的数据长度:4a + 2b + 2c + 1d + 1e = 4 + 2 + 2 + 1 + 1 = 10(4)编码效率:编码后的数据长度为10,原始数据长度为8,编码效率为10/8 = 1.25。
2. 实验二:算术编码(1)信源数据:{a, b, c, d, e},频率分别为{4, 2, 2, 1, 1}。
(2)概率分布表:a: 0.4b: 0.2c: 0.2d: 0.1e: 0.1(3)编码后的数据长度:2a + 2b + 2c + 1d + 1e = 2 + 2 + 2 + 1 + 1 = 8(4)编码效率:编码后的数据长度为8,原始数据长度为8,编码效率为8/8 = 1。
六、实验总结1. 哈夫曼编码和算术编码是两种常见的信源编码方法,具有较好的编码效率。
2.10常用信源编码
0.40.40.601
1.0
0.20.40 0.4101
0.6
0.200.21000
0.4
0.100010
0.2 1
0.110011
编码
0.4 0.40.4 0.600
1.0
0.20.20.4 0.4 10
0.6
0.20.200.211
0.4
0.10 0.2 1010
0.2
0.11011
可见,编成的码C和C’不一样,这说明哈夫曼编码并不唯一,这是由于哈夫曼编码是与信源统计特性相匹配的编码,而不是某个信源固定特性相匹配,不唯一性是明显的,但是只要在编码和译码过程中遵守同一规则,译码是唯一的。虽然C和C’不一样,但是两者都是哈夫曼编码,并且码长相等。
Kc’=0.4×1+0.2×2+0.2×3+2×0.1×4=2.2
Kc=0.4×2+0.2×2×2+0.1×3×2=2.2
但是,若从二阶矩来看,即方差来看,C’的方差大,C的方差小,所以C优于C’
下面讨论哈夫曼编码应用中的一些问题:
1)首先讨论误差扩散:哈夫曼编码是一种无失真信源最佳编码,但是在实际信道中是有失真的。噪声的引入必然要破坏长码结构,而且是变长码,错误不但影响受干扰位,还要进一步扩散。目前对扩散还没有很有效的方法,工程上克服方法有两种:一是限制哈夫曼码仅能应用于优质信道(<=10-6)以限制扩散的可能性;二是采用定期清洗,防止扩散区域增大。但是它是靠牺牲有效性换取的。
解:先计算一个符号所含的平均自信息量,即信源熵H
H= =1.9056bit
无记忆信源由6000个符号构成的符号序列消息
[例6]发出二重符号序列消息的信源熵为 而一阶马尔可夫信源的信源熵为 试比较这两者的大小,并说明原因。
信源编码
S {S1, S2 ,..., Sq}
编码器
C :{W1,W2 ,...,Wq}
X {x1, x2,..., xr}
wi 称为码字,Li为码字wi 的码元个数,称为码字wi 的码字 长度,简称码长。
第二节 码的分类
1、二元码: 码符号集X={0,1},如果要将信源通过二元信道传输,必
须将信源编成二元码,这也是最常用的一种码。 2、等长码:
第八章 信源编码
1 引言 2 等长信源编码定理、变长信源编码定理
3 各种编码 4 有噪信道编码定理
5 联合信源信道编码定理
第五章 有噪信道编码
第一节 错误概率与译码规则 第二节 错误概率与编码方法 第三节 有噪信道编码定理 第四节 联合信源信道编码定理 第六节 纠错编码的基本思想 第七节 常用编码方法
l H (S) 2
N log r
则不可能实现无失真编码,当N趋向于无穷大是,译码错 误率接近于1。
第三节 等长信源编码定理
•定理4.3的条件式可写成: l log r NH (S)
左边表示长为 l 的码符号所能载荷的最大信息量, 而右边代表长为N的序列平均携带的信息量。因此, 只要码字传输的信息量大于信源序列携带的信息量, 总可以实现无失真编码 。
信源编码的分类:离散信源编码、连续信源编码和相关信源编 码三类。 离散信源编码:独立信源编码,可做到无失真编码; 连续信源编码:独立信源编码,只能做到限失真信源编码; 相关信源编码:非独立信源编码。
第二节 码的分类
编码器可以看作这样一个系统,它的输入端为原始信
源S,其符号集为S {S1, S2,..., Sq};而信道所能传输的符号集 为 X {x1, x2,..., xr} 编码器的功能是用符号集X中的元素,将 原始信源的符号 Si 变换为相应的码字符号wi ,所以编码器 输出端的符号集为 C :{W1,W2,...,Wq}
数字通信原理3信源编码
2 q/ 2 e2 p(e)de q/ 2 e2 1 de q2
q/2
q q / 2
12
2010 Copyright
SCUT DT&P Labs
27
均匀量化(续)
第三章 信源编码
量化信噪比与量化电平数M之间的关系
设量化范围为:-VP -- +VP,量化电平数 M=2b
量化间隔:q=2VP/M=2VP/2b
3
= 1
12
M i 1
p(mk )q3
q2 12
M i 1
p(mk )q
2010 Copyright
SCUT DT&P Labs
26
均匀量化(续) 利用概率的性质
M
p(mk )q 1
i 1
进一步可得量化噪声功率的简化计算公式
2 q2
12
第三章 信源编码
如假设量化噪声服从均匀分布,亦可得
第三章 信源编码
量化误差
2010 Copyright
SCUT DT&P Labs
24
标量量化(续) (3)有偏型
第三章 信源编码
(4)非均匀型(对小信号误差小)
量化误差
2010 Copyright
SCUT DT&P Labs
25
均匀量化
第三章 信源编码
模拟信号的取值范围:a -b,
量化电平数为M
量化噪声功率:
2 q
q2 12
= VP2 3M 2
1 12
2VP 2b
2 1 12
2VP
2 2 2b
信号功率:
2 x
信噪比:
VP VP
x2
第五章 信源编码LVRH1010
解:将信源通过一个二元信道传输,就必须把信源符号si变换 成由0,1符号组成的码符号序列,即进行编码。可以用不同 的二元码符号序列与信源符号 一一对应,就得到不同的码。
信源符号 P(si) s1 s2 s3 s4 P(s1) P(s2) P(s3) P(s4) 码1 00 01 10 11 码2 0 01 001 111 5.1 编码的定义 定长码 变长码 二次扩展信源符号 二次扩展码字 S1=S1S1 s2=S1S2 …… s4=S4S4 00 001 …… 111111
l ≥ log r q = 5
分析:考虑到符号出现的概率以及符号之间的相关性后,实际平均每 分析 个英文电报符号所提供的信息量约1.4bit,远小于5bit,因此定长编码 后,每个码字只载1.5bit信息,5个二进制符号最大能载5bit信息 ,因 此,定长编码的信息传输效率低。 解决方案: 解决方案 (1)对于不会出现的符号序列不予编码,这样不会造成误差; (2)对于概率非常小的信源符号序列不予编码,这样可能会造成一 定误差,但当信源符号序列N足够大,误差概率非常小
第五章 信源编码 五
问题
• 对信源有两个重要问题 1. 信源输出的信息量的度量问题 度量问题; 度量问题 2. 如何更有效地 有效地表示信源输出的问题 输出的问题; 有效地 输出的问题
信源输出的符号序列,经过信源编码,变换成 适合信道传输的符号序列,同时,在不失真或允许 一定失真的条件下,用尽可能少的码符号来传递信 源消息,提高信息传输的效率。
i =1 8
a7 0.05
a8 , 0.04
HL (X ) 2 .55 得K = = 2.83bit / 符号 90 % K 即每个符号用 2.83bit 进行定长二元编码,共 有 2 2.83 = 7.11种可能性 若取 L = 1,据 η = 根据 η = H( X ) = 0.9 ⇒ ε = 0 .28 H (X ) + ε
信源编码
a4
1000 0001
异前缀码(即时码):码集中任何一个码不是其他码的前缀。 即时码必定是唯一可译码, 唯一可译码不一定是即时码。 5°有实用价值的分组码 分组码:将信源符号集中的每个信源符号固定地映射成一个码字。
是非奇异码、唯一可译码、即时码 。
六、码树图 1°码树图: 用码树来描述给定码集中各码字的方法。
码字Y i 的码元个数 Ki 称为Y i的码长。 所有码字Y i 的码长 Ki 均相等称为码长为 K 定长码。 码字Y i 的码长 Ki 不全相等称为变长码。
西南石油大学理学院
三、 编码与译码
1°信源编码:将信源符号xi 或符号序列XLi 按一种规则映像成码字 Yi的过程。 2°无失真编码:信源符号到码字的映射必须一一对应。 3°译码:从码符号到信源符号的映射。
x2 x1 x3 x2 x1 x1
x1→1 x2→10 x3→11 则无法唯一分割。
4°按译码的即时性分类
非即时码:接收端收到一个完整的码字后,不能立即译码,还需 要等到下一个码字开始接收后才能判断是否可以译码。
即时码:接收端收到一个完整的码字后,就能立即译码,即时码 又称为非延长码或异前缀码。 即时码与唯一可译码
信源符号 xi 对应的码字为Yi (i = 1, 2, … , n),码字Yi 对应 的码长为 K i(i = 1, 2, …, n ) 。 所有的 K i 相等为定长码,记为 K, 不相等时为变长码。
3°按译码唯一性分类
唯一可译码:对于多个码字组成的有限长码流,只能唯一
地分割成一个个的码字。唯一可译码又称为单义码。
非唯一可译码:对有限长码流,不能唯一地分割成一个个
的码字。
西南石油大学理学院
【例】 码流 100111000 … 码1 码2
第三章信源编码
s
0
Ts
n
Sa
ns 0
2
X
ns
0
PT (t)
t
P()
2 0
Ts
n
Sa
ns 0
2
(
ns )
1
0 0
t
X
s
()
1
2
X
()
P()
22
xs (t)
t 0
7
瞬时抽样(平顶脉冲抽样)信号频谱:
23
y 1 7/8 2/3 5/8 1/2 3/8 1/4 1/8
A-Law 87.6 piecewise steps
Apcmreal([0:0.01:100])
0
1/8
1/4
1/2
x 1
24
x轴表示输入信号,y轴表示输出信号。 X轴 ( 0,1 ) 分 8 段 : 1/2 、 1/4、 1/8、 1/16、 1/32 、 1/64 、
-7B -6B -5B -4B -3B -2B -B 0 B 2B 3B 4B 5B 6B 7B /(2 ) X ( 2s )
-7B -6B -5B -4B -3B -2B -B 0 B 2B 3B 4B 5B 6B 7B /(2 ) X ( 2s )
-7B -6B -5B -4B -3B -2B -B 0 B 2B 3B 4B 5B 6B 7B /(2 )
15
压扩特性
A-Law compression characteristics (Europe, China)
第五章信源编码(编码定义及定长编码)
信源符号集X=[a1,a2,…an]={优、良、中、差} 用二元码,码符号集合为{0,1} 码字集合为 Y=[W1,W2,…Wn]={00,01,10,11}
编码过程:00代表优,01代表良,10代表中,11代 表差。每一个码字都是2个码符号组成的序列。
解码:按照码符号的顺序,从根节点依次查询到终端节点,就得到对应的 信源符号。再从根节点对剩下的码符号序列做相同的处理,直到处理完码 符号序列中所有的码符号
对应表中的码4分析
A
0
1
0
1
1
0
0
1
0
10 1
0
1
000
001 010
011 100 101 110
111
一阶节点 二阶节点 三阶节点
唯一可译码存在的充要条件
下面,首先求得独立等概率情况,即
H 0 log2 27 4.76bit
其次,计算独立不等概率情况,
27
H1 pi log pi 4.03bit
i 1
再次,若仅考虑字母有一维相关性,求H2
H2 3.32bit
最后,利用统计推断方法求出,由于采用的逼近的方法和 所取的样本的不同,推算值也有不同,这里采用Shannon 的推断值。 H 1.4bit
冗余度
定义:衡量信源发出消息时包含了多余信息的物 理量
来源:
1.信源符号的相关性。相关程度越大,信源的实 际上越小,越趋向于H∞(X) 。
2.信源符号分布的不均匀性。等概率分布时信源 熵最大,不均匀分布时,信源熵减小。当各符号 之间不存在依赖关系且为等概率分布时,信源实 际熵趋于最大熵H0(X)
简述信源编码的功能
简述信源编码的功能摘要:1.信源编码的定义与作用2.信源编码的分类及方法3.信源编码技术的应用领域4.信源编码的发展趋势与挑战5.总结与展望正文:一、信源编码的定义与作用信源编码,是指在信息传输过程中,对原始信息进行编码处理,将其转换为适合于信道传输的编码形式。
其作用主要体现在以下几点:1.提高信息传输的效率:通过对信源进行编码,可以减少信息传输的冗余度,从而提高传输速率。
2.实现信息加密:信源编码可以实现信息加密,保障信息安全。
3.便于信号处理与分析:编码后的信号更容易进行信号处理、分析和识别。
二、信源编码的分类及方法根据编码方式的不同,信源编码可分为以下几类:1.基于概率的编码:如哈夫曼编码、算术编码等,主要用于熵编码。
2.基于结构的编码:如分组编码、卷积编码等,主要用于信道编码。
3.基于语义的编码:如图像编码、音频编码、视频编码等,主要用于特定领域信息的压缩与传输。
常见信源编码方法有:1.预测编码:通过对相邻帧或帧内的像素进行预测,减少冗余信息。
2.变换编码:将原始信号变换为频域或小波域,再进行编码。
3.熵编码:基于信息熵原理,对编码后的符号进行码字优化。
三、信源编码技术的应用领域1.图像处理:如JPEG、JPEG2000等图像压缩标准。
2.音频处理:如MP3、AAC等音频压缩标准。
3.视频处理:如MPEG、H.264等视频压缩标准。
4.通信系统:如3G、4G、5G等无线通信系统的信道编码。
四、信源编码的发展趋势与挑战1.趋势:随着大数据、云计算、物联网等技术的发展,信源编码将向更高效率、更低成本、更智能化的方向发展。
2.挑战:如何在低功耗、低带宽、高噪声等环境下,实现高效、可靠的信源编码成为当前研究的关键。
五、总结与展望信源编码作为信息传输过程中的关键技术,对于提高传输效率、保障信息安全、实现信号处理具有重要意义。
信源编码
3 a3
x2dx
a 0
6 a3
x2
log( x)dx
log
3
a
6
x2 log(x)dx
a3 0 a3
log
3 a3
6 a3
a
log e
0
x2
ln( x)dx
log
3 a3
6 a3
log e( a3 3
ln a
a3 ) 9
36
a3
a3
log a3
a3 log e(
110
111
(1)这些码那些是唯一可译码? (2) 哪些码是即时码(异前缀码)? (3) 所有唯一可译码的平均码长和编码效率。
解:(1) C1码是定长码,其中没有相同的码字,是非 奇异码,所以是唯一可译码。
C2码是唯一可译码,但不是即时码。 唯C一3可码译没码有,一也个是码即字时是码其。他码字的前缀,所一是
0.0203
设译码错误概率 10-3
则信源序列长度L
2(x) 2
0.5265 0.02032 103
1.2776 106
号集X:{a1,a2,…,ar},又设码字为W:{w1,w2,…,wq} 其码长分别为n1,n2,…,nq。则存在唯一可译码的充 分必要条件是:q,r,ni(i=1,2,…,q)满足克劳夫特 (Kraft)不等式,即:
q
r ni 1
i 1
Hale Waihona Puke 定长编码定理:(1) 由L个符号组成,每个符号的熵为H(X)
所C以4不码是流唯1一00可10译可码以。译为s2s1s2,也可译为s5s1,,
通信原理(樊昌信)第10章-信源编码可编辑全文
(3)段内码: C5 C6 C7 C8 = 0011
IW6
IW7 1270
IW5
IW4
PCM码组 C1~ C8 =1 111 0011
例
解
由上例可知,编码电平 :
0
段内码
M5M6M7M8
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
1
1
1
1
0
0
0
0
1
1
1
1
0
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
表
10-6
10-5
表
段落码
M2M3M4
段
内
码
(幅值)
起始电平和量化间隔
——之三,确定样值所在的段落和量化级
各折线段落
1
2
3
4
5
6
7
8
各段落长度(∆)
段内码
极性码:表示样值的极性。正编“1”,负编“0”
段落码:表示样值的幅度所处的段落
段内码:16种可能状态对应代表各段内的16个量化级
段落序号
段
落
码
8
1 1 1
7
1 1 0
6
1 0 1
第五章信源编码
0001 E
上所对应的符号组成
图5.2
如图中的终端节点E,走过的路径为ABCDE,所对应的码符号
分别为0、0、0、1,则E对应的码字为0001。
• 即时码:它可引用很直观的“码树”概念来说明:
将变长码与码树建立“一一对应”关 系:
树根码字起点 树枝数码的进制数 节点码字或码字的一部分 终止节点码字 节数码长 非满树变长码 满树等长码
0.18 0.17 0.15 0.10 0.01
p(xi )
解:
xi 符号概率 p(xi ) 累加概率 Pi
x1 0.20
0
x2 0.19
0.2
x3 0.18
0.39
x4 0.17
0.57
x5 0.15
0.74
x6 0.10
0.89
x7 0.01
0.99
1〉码字长度计算 以 i 为4例,
log2 p(xi ) 码字长度 K i 码 字
k 1
(5)取 P二i 进制数的小数点后 位K,i 即为该消息符号的二进制码字。
可以证明,这样得到的编码一定是唯一可译码,且码长比较短,接近于最佳编码。 严格意义上来说不是最佳码。
例题:设信源共有7个符号组成,其概率如表所示,求其 香农码。
信源消息符号
x1 x2 x3 x4
x5 x6
x7
xi 符号概率 0.20 0.19
例1 :
[X P]: 0s.14
s2 0.2
s3 0.2
s4 0.1
s5 0.1
w1 1 s1 : 0.4 0.4 w2 01 s2 : 0.2 0.2 w3 000 s3 : 0.2 0.2 0 w4 0010 s4 : 0.1 0 0.2 1 w5 0011 s5 : 0.1 1
信源编码
信源编码的基本思想
信源编码提高信息传输有效性的基本思想, 就是针对信源输出符号序列的统计特性,通 过概率匹配的编码方法,将出现概率大的信 源符号尽可能编为短码,从而使信源输出的 符号序列变换为最短的码字序列。
二、编码定义
1、非奇异码和奇异码 2、等长码和变长码 3、单义码和非单义码 4、非续长码 5、码树 6、码字平均长度 7、编码效率
在进行编码时,为了得到码方差最小的码,应使合 并的信源符号位于缩减信源序列尽可能高的位置上, 以减少再次合并的次数,充分利用短码;
码方差例子
设离散无记忆信源如下,分别按如下两种方 式编码,分析哪种编码更好。
XP
x1 0.4
x2 0.2
x3 0.2
x4 0.1
0x.51
Huffman编码1
信源符号
例子
已知信源符号集合的概率分布为 X {x1, x2, x3, x4}
P(X ) {1 , 1 , 1 , 1}
则 H(X) = 1.75 bits/符号
2488
如采用 2bit 等长编码(如x1—>00, x2—>01, x3—>10, x4—>11),则 L = 2, η= 1.75/(2*log2) = 0.875;
例: C1 = (1, 01, 00) 是单义码,如码字序列 10001101只可唯一划分为1、00、01、1、 01; C2 = (0, 10, 01) 为非单义码,如序列01001 可划分为0、10、01或01、0、01。
非续长码
设 Ci={xi1,xi2,…,xim} 是码 C 中的任一码字,而其他码字 Ck={xk1,xk2,…,xkj} (j < m) 都不是码字 Ci 的前缀,则称此码 为非续长码,也称为即时码。
信息论导论第六章信源编码
第6章 信源编码
从数学意义上,信源编码就是信源符号序列到码 字之间的映射。 无失真信源编码 选择适合信道传输的码集,现在一般选二进 制数 寻求一种将信源符号序列变换为码字的系统 方法,这种方法要保证符号序列与码字之间的 一一对应关系
信源编码
衡量编码方法优劣的主要指标中,码长和易实现 性最受重视。
i 1 i 1 i 1
nN
nN
nN
H(X N ) NH(X) K H(X N ) 1 NH(X) 1
K 1 H(X) H(X) N N 1 任意给定 ,只要NN
信源编码
三、无失真信源编码 1、香农码
香农码直接基于最优码码长的界,是一种采用异 前置码实现的无失真不等长编码。
信源编码
例2
X x1 x 2 x 3 P(X) 0.5 0.3 0.2
分别对该信源和其二次扩展信源编香农码,并计 算编码效率。 (1)对信源编码
log P(x1 ) log 2 1 k1 1 log P(x 2 ) log 0.3 1.74 取k 2 2
码B 码C 0 01 0 10
x 3 0.15 x 4 0.05
011 110 0111 111
码A不是单义可译码,它有二义性;码B和码C是 单义可译码;码B是延时码,它需等到对应与下一 个符号的码字开头0才能确定本码字的结束,存在 译码延时;码C是即时码。
信源编码
码C的特点——任何一个码字都不是其它码字的前 缀,因此将该码称为异前置码。 异前置码可以用树图来构造。 一个三元码树图 从树根开始到每一个终节 点的联枝代表一个码字, 相应的异前置码
x1
x2
0.5
第3讲信源编码PCM(抽样与标量量化)
x(kTs
)
sin2 fH (t kTs 2 fH (t kTs)
)
重建信号的 内插公式
带通抽样定理:一个受限于
( fL ,fH)的带通模拟信号,其
带宽为B
=
(
fH
-
fL
),则f H : R
B
其中R必为一个正实数,则其可
被表示为R = m + k,fH 其 中R B k为 ( 一m k )B m B k B 个不大于R的最大整数,则m必
fs 2fH
低通抽样定理:一个频带限定在
(0,fHT)s 内12的fH连续模拟信号x(t),
如果以
秒的间隔对其进
行等间隔抽样,Ts (则t ) x(t)将被所得 到的抽样值完全确定
脉冲序列信 号 :间隔为Ts的
一串Ts脉(t)冲 ,即(t为kT一s)个周期信号 k
Ts
(f)1
(f
Ts k
kfs)
带在通频抽率样轴定上理延拓
fL、3 fffsfHHs 与2f2(s(m1之fs间mk))B的Bfs关k2系:X0( f
k
)fH
k f2s
fs
2 ffsLm 当当 k2mm3f==sf01s时时B取取2m 的得最最小大值值,,24BB
fs2B2(1k)B2BkB
fHffsLm in f2 s k fH X s2 ((fm ) kk)B fs 2 f(L1 fHm k)B
它的平均功率:
其中p(x)为输入信N 号q的E 概 率eq 2 密 度k M 1x x kk 1(xyk)2p(x)dx
函数,将积分区域分为M个量化
区间:
Sq Eyk2
M k1
xk xk1
信源编码
应用
表1信源编码实例表以简单的数据压缩为例即可说明信源编码的应用。若有一离散、无失真、无记忆信源,它 含有五种符号U0~U4及其对应概率Pi,对它进行两种编码:等长码和最佳哈夫曼码(见表1)。
其中,等长码的平均码长:=3,即三位码。若采用哈夫曼编码,平均码长,即不足两位码。这就是说,数据 压缩了以上。
另外,在数字电视领域,信源编码包括通用的MPEG—2编码和H.264(MPEG—Part10 AVC)编码等。
相应地,信道编码是为了对抗信道中的噪音和衰减,通过增加冗余,如校验码等,来提高抗干扰能力以及纠 错能力。
定理
不同类型的信源,是否存在有每种信源的最佳的信源编码,这通常是用信源编码定理来表示。最简单、最有 实用指导意义的信源编码定理是离散、无记忆型信源的二进制变长编码的编码定理。它证明,一定存在一种无失 真编码,当把N个符号进行编码时,平均每个符号所需二进码的码长满足。
信源编码
以提高通信有效性为目的而对信源符号 进行的变换,或者说为了减少或消除信
源冗余度而进行的信源符号变换
01 编码结果
03 方式
目录
02 作用 04 定理
目录
05 分类
07 通信系统模型
06 应用 08 专业表述
信源编码是一Βιβλιοθήκη 以提高通信有效性为目的而对信源符号进行的变换,或者说为了减少或消除信源冗余度而进 行的信源符号变换。具体说,就是针对信源输出符号序列的统计特性来寻找某种方法,把信源输出符号序列变换 为最短的码字序列,使后者的各码元所载荷的平均信息量最大,同时又能保证无失真地恢复原来的符号序列。
通信系统模型
[信源]->[信源编码]->[信道编码]->[信道传输+噪声]->[信道解码]->[信源解码]->[信宿] 一般信息论的书上都会有信源编码和信道编码的具体讲解,包括具体的编码方法。
信源编码
信源编码的原理、方法、优缺点及应用信源编码就是从信源产生的信号到码符号的一种映射,它把信源输出的符号变换成码元序列。
信源编码主要是利用信源的统计特性,解决信源的相关性,去掉信源冗余信息,从而达到压缩信源输出的信息率,提高系统有效性的目的。
冗余信息是指信源产生信息所用数据位数与消息中包含的实际信息数据位的数目差值。
解决信源的相关性本质就是降低信源中的冗余,常用消除信源相关性的方法:“合并法”和“预测法”。
如果信源的符号序列中,只在相邻的少数几个符号之间有相关性,而相距较远的符号之间的相关性可以忽略不计,那么,这种信源称为弱记忆信源。
在这种情况下,可以把具有较强相关性的邻近几个符号看成一个大符号。
于是,这些大符号之间的相关性就变得很小了。
实际上就是把原来的基本信源空间变换成了多重空间。
多重空间的重数越高,这种大符号之间的相关性越小,最终可以获得相互独立的情况。
这种方法称为合并法。
如果信源的符号序列之间存在较强的相关性联系,以至根据其中一部分符号能够以一定的准确性推测出其余的符号,这种信源就称为强记忆信源。
在传递这样的信息时,那些可以被精确推断出来的符号就不必传送,从而可以节省时间,提高传输的效率。
但是,大多数情况下,完全可以精确推断出来的情况是极少的,只能根据信源的统计相关性作近似的预测,这就是预测法。
信源编码的作用之一是设法减少码元数目和降低码元速率,即通常所说的数据压缩:作用之二是将信源的模拟信号转化成数字信号,以实现模拟信号的数字化传输。
最原始的信源编码就是莫尔斯电码,另外还有电报码都是信源编码,它们主要用于传输电报信息。
但现代通信应用中常见的信源编码方式有:香农编码、费诺编码、Huffman 编码、算术编码、L-Z编码等,另外还有一些有损的编码方式。
信源编码的目标就是使信源减少冗余,更加有效、经济地传输,最常见的应用形式就是压缩。
另外,在数字电视领域,信源编码包括通用的MPEG—2编码和H.264(MPEG—Part10 AVC)编码等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
霍夫曼编码
n n
n
霍夫曼于1952年提出了一种编码方法 它的基本原理是对那些出现概率较大的信源 符号编以较短的代码,而对那些出现概率较 小的信源符号编以较长的代码 码字的平均长度为 可以证明,如果码字长度严格按照对应符 号出现概率的大小逆序加以排列,则其平 均码字长度最小,它的理论极限值就是信 源的熵。
自然抽样的PAM方式
ms ( t ) = m ( t ) ⋅ s ( t )
∞ Aτ ⎡ ⎤ 1 = M (ω ) ∗ ∑ Sa ( nω Hτ ) δ (ω − 2nω H ) ⎥ ⎡ M s (ω ) = M (ω ) ∗ S (ω ) ⎤ ⎢ ⎣ ⎦ T ⎣ 2π n = −∞ ⎦
Aτ = T
29
!
!
量化信噪比
设 m(t) 是均值为零,概率密度为 f(x) 的平稳随机过程
1 H (ω )
M S (ω )
LPF
M (ω )
28
量化的定义
n n
抽样:时间连续!时间离散 量化:取值连续!取值离散 n 定义:利用预先规定的有限个电平表示模拟抽样值
!
!
量化误差
!
!
qi : 量化电平 mi : 量化区间端点
mi −1 ≤ m ( kTs ) ≤ mi时, mq ( kTs ) = qi 误差:m ( kTs ) − mq ( kTs )
模拟信号!抽样、量化、编码!数字方式传输 理论基础:抽样定理 实现
17
均匀抽样定理
n
一个频带限制在(0, fH)内的时间连续信号m(t),如果以 T ≤ 1/2fH 秒的间隔对它进行等间隔抽样(即在信号最高 频率分量的每一个周期内至少抽样两次),则m(t)将被 所得到的抽样值完全确定。
m (t )
11
n
标准:
n n n n n
图象编码
n
冗余:
n n n n
统计冗余:空间、时间、信息熵(等比特编码) 知识冗余:先验知识,如人脸 视觉冗余:视觉缺陷,细节的不敏感 结构冗余:局部的纹理、相似等
n n
性能指标:压缩效率(比)、压缩质量、编解码时延、算法复杂度 算法:
n = −∞
∑ Sa ( nτω ) M (ω − 2nω )
H H
∞
已抽样信号频谱的包络按 Sa(x) 函数逐渐衰减。
27
平顶(瞬时)抽样的PAM方式
ms(t) h(t) mH(t)
mH ( t ) = ms ( t ) ∗ h ( t ) =
t = −∞
∑ m δ ( t − nT ) ∗ h ( t ) = ∑ m h ( t − nT )
第2章 信源编码
本章主要参考书
n
n
n
n
J.G.Proakis 等编著、叶芝慧等译,通信系 统工程,电子工业出版社 樊昌信等编著,通信原理,第5(4)版,国防 工业出版社 曹志刚等编著,现代通信原理,清华大学出 版社 J.G.Proakis. Digital Communication (3rd Edition). 电子工业出版社(影印版: 数字通信)
7
率失真理论(续)
n
重构失真小于或者等于D的无记忆信源所 需要的最小比特数 / 信源输出(符号), 称为率失真函数,记为R(D),即
R( D ) =
E [ d ( X , X ')]≤ D
min
I(X; X ')
n
给出了编码速率和失真之间折中的基本极 限
8
信源编码的实现:有损压缩编码
n
24
脉冲调制
n
脉冲调制:脉冲串作为载波
n
模拟调制
n n n
PAM PDM PPM PCM DPCM ADPCM
n
数字调制
n n n
25
自然抽样的PAM方式
s(t) ~ 周期性矩形脉冲序列(周期为T =1/2fH)
⎛ ωτ ⎞ ⎛t⎞ ST (ω ) = Aτ Sa ⎜ sT ( t ) = Arect ⎜ ⎟ ⎟ 2 τ ⎝ ⎠ ⎝ ⎠ 1 2π Sn = ST (ω ) ω = nω , ωs = = 2ω H s T T ∞ 2π ∞ S (ω ) = 2π ∑ S nδ (ω − 2nω H ) = Aτ Sa ( nω Hτ ) δ (ω − 2nω H ) ∑ T n = −∞ n = −∞ 26
T
×
δT ( t )
ms ( t )
ms ( t ) = m ( t ) δT ( t )
=
n = −∞
∑ m δ ( t − nT )
n
∞
18
均匀抽样定理
δ ω (ω ) = ω s
s
n = −∞
∑ δ (ω − nω s ), ω s =
∞
2π T
T
M s (ω ) =
1 ⎡ M (ω ) ∗ δ ω (ω ) ⎤ s ⎦ 2π ⎣
LPF
m (t )
⎛ ω M s (ω ) ⋅ rect ⎜ ⎝ 2ω H
⎞ 1 ∞ ⎛ ω ⎟ = ∑ M (ω − nω s ) ⋅ rect ⎜ ⎠ T n = −∞ ⎝ 2ω H
T=1/2fH
⎞ 1 ⎟ = M (ω ) ⎠ T
ω ⎡ ⎤ ∴ m ( t ) = T ⎢ ms ( t ) ∗ H Sa (ω H t ) ⎥ π ⎣ ⎦
10
语音编码
n n
指标:语音质量、编码速率、编解码时延、算法复杂度 算法:
n n
n
波形编码:16-64k,PCM、ADPCM、子带编码SBC等 参数编码(模型编码):编码速率低(低于 2.4k )质量稍差, 声码器,线性预测声码器LPC等 混合编码:4-16k之间的满意质量,CELP(码本激励线性预 测编码) G.711:PCM,64k G.721,723,726,727:ADPCM,16/32/24/40k G.728:LD-CELP(低时延码本激励) ,16k G.723.1:MP-MLQ/ACELP,6.3/5.3k G.729:CS-ACELP(共轭结构-代数码激励),8k
6
率失真理论
n n
n
n
n
采用无失真编码,以接近信源熵的速率进行传输,可以 无差错地进行恢复。但在很多情况下,这几乎不可能。 模拟信源的抽样值为实数,需要无穷多比特来表示,不 可能无失真。 有损信源编码,在一定失真率的条件下进行压缩编码。 最小失真率?如何实现最小失真率? 为了重构(译码)信源信号,为了达到所要求的失真, 每个信源输出对应的最小比特数为多少? 失真 D :重构信号 X’ 与原始信源信号 X 之间保真度或者 近似程度的度量,可以是距离、平方距离等。对信源应 是统计平均意义上的度量。D=E[d(X,X’)]
2
基本内容
n n
信源及数学模型 信源编码
n n
矢量量化 霍夫曼编码
3
信源及其数学模型:信源
n
信源
n
模拟信源:
n n
语音: 0.3~3.4kHz 图象: 0~6.5MHz
n
数字信源:数据序列 对接受者而言,不可预知——随机 带限性——抽样定理离散化
n
共性:
n n
14
霍夫曼编码
n
霍夫曼编码实例:
7 个信源符号 的出现概率分别为 0.20 、 0.19 、 0.18 、 0.17 、0.15、0.10和0.01
15
霍夫曼编码
需要注意的是,霍夫曼编码方法给 出的最佳编码方案不是唯一的,但 是所有方案得到的平均码字长度相同
16
模拟信号的数字化传输
n n n
=
∞ n = −∞ n H
∑ m δ ( t − nT ) ∗ Sa (ω t ) = ∑ m
n = −∞
∞
n
Sa ⎡ ⎣ω H ( t − nT ) ⎤ ⎦
20
带通型连续信号的抽样速率
n
带通型信号(频带受限于(fL, fH),B= fH – fL ) n fH = nB, n为整数
M (ω )
带宽为B的高频窄带信号,其抽样频率近似等于2B。
23
随机基带信号的抽样
n
一个宽平稳的随机信号,当其功率谱密度函数 限于 fH 以内时,若以不大于 1/2fH 秒的间隔对 其进行均匀抽样,则可得一随机样值序列。如 果让该随机样值序列通过一截止频率为 fH 的 低通滤波器,那么其输出信号与原来的宽平稳 随机过程的均方差在统计平均意义下为零。
n t = −∞ n
n = −∞
∞
∞
1 M H ( ω ) = M s ( ω ) H (ω ) = T
矩形脉冲
∑ M (ω − 2nω ) ⋅ H (ω )
H
∞
Aτ = T
⎛ ωτ Sa ⎜ ∑ ⎝ 2 n = −∞
∞
⎞ ⎟ M (ω − 2nω H ) ⎠
~ M (ω ) 的非线性搬移
M H (ω )
直观上:
n n
信源(模拟和数字)自身内部的相关性 数字化——带宽增加——压缩;
n
n
通过对信源信息冗余的研究和处理,提高 传输效率 针对不同结构的信源,显示方式、要求的 不同,编码方式也有差异
n n
语音编码 图象编码
9
信源压缩编码算法
n n
n
n
概率匹配编码:根据编码对象出现的概率分配 不同程度的代码,以保证总的代码长度最短 预测编码:利用信号之间的相关性,预测未来 的信号,对预测的误差(或残差)进行编码 变换编码:利用信号在不同函数空间分布的不 同,选择合适的函数变换将信号从一种信号空 间变换到另一个更有利于压缩编码的信号空间, 再进行编码 识别编码:分解文字、语音、图象的基本特征, 与汇集这些基本特征的样本集对照识别,选择 失真最小的样本编码传送