第3章 信源编码理论

合集下载

信源编码_3

信源编码_3

X:信源
x :信号单元、消息、信源符号
W:代码、码组或码书
w:码字
A:构成码字的符号集
a :码元、符号、字符
X = {x1 , x2 , ..., xn }
信源符号集
编编码码器器
W = {w1 , w2 , ..., wn }
码字
A = {a1 , a 2 , ..., a m }
码符号集
Coding Theory 3-5
② X~W对应关系:顺序的一一对应关系:
R2 = {( x1, w1 )( x2, w2 ),( x3, w3 ),( x4, w4 )}
定长码 变长码 信源符号 码1 码2
x1
00 0
x2
01 01
x3
10 001
x4
11 111
Coding Theory 3-8
编码分类
非奇异码:所有信源符号映射到不同的码字
冗余度越低,信源输出信号携带信息的有效性越高,反之越低
0 ≤ Hn ( X ) ≤ Hn−1( X ) ≤ K ≤ H1( X ) ≤ H0 ( X ) = log m < ∞
Coding Theory 3-2
信源编码
3、信源输出信息的有效表示:如何用适当的码 符号有效表示信源输出的信息
无失真信源编码:可完整地恢复原信源符号 有失真信源编码:引入量化,按一定的失真度恢复源 符号序列,同时保留尽可能多的信息量
10
111
111 0111 111
11
Coding Theory 3-12
分组码
1、非奇异码:码中所有码字各不相同
码A是奇异码,有两个码字相同,所以信源符号与码字不是一 一对应的,一定不是唯一可译码(虽然有最小码长)

第三章 无失真离散信源编码解析

第三章 无失真离散信源编码解析

10
3.2 离散无失真信源编码定理
一、香农理论对数据压缩的指导意义
1、数据压缩的途径 途径一:使序列中的各个符号尽可能地互相
独立,即解除相关性,去冗余; 途径二:使编码中各个符号出现的概率尽可
能地相等,即概率均匀化。
2、数据压缩的理论极限
11
3.2 离散无失真信源编码定理
二、编码的指标
1. 平均码长
第三章 无失真离散信源编码
1
3.1 基本概念
例1:
N个消息集合 X={a、b、c… z、空格…}
信源 编码器
信道基本 符号(0、1)
N个代码组集合 C={c1、 c2、…cN}
2
3.1 基本概念
一、信源编码的定义:
信源编码是以提高通信的ቤተ መጻሕፍቲ ባይዱ效性为目的编码。
信源编码
适合信道传输 减少冗余度
3
3.1 基本概念
5
3.1 基本概念
二、信源编码的分类
(1) 二元码和r元码 若码符号集 X {0,1},编码所得码字为一些
适合在二元信道中传输的二元序列,则称二元码。 二元码是数字通信与计算机系统中最常用的一种 码。若码符号集共有 r 个元素,则所得之码称为 r 元码。
6
3.1 基本概念
二、信源编码的分类
(2) 基本源编码和N次扩展源编码 (3) 无失真编码 和有失真编码
• 信源熵: H ( X ) = 1/4 log4 +3/4 log3/4 = 0. 811 bit / 信源符号
若用二元定长编码 (0,1) 来构造一个即时码:
• 平均码长: • 编码效率:
二元码符号 / 信源符号 L1 1
R H (x) 0.811L bit/code

通信原理课件第3讲 信源编码:信息论部分

通信原理课件第3讲 信源编码:信息论部分
H ( X , Y ) H ( X ) H (Y | X ) H (Y ) H ( X | Y ) H(X ) H(X |Y) H (Y ) H (Y | X )
j 1
信源冗余度:
假设某个信源X可以输出L个符号X1、X2…XL,这L个符号之间存 在记忆,即相互关联,则信源熵可表示为:
在已知一个符号的前提下, 另一个符号所产生的信息熵 联合熵与条件熵的计算:
H (Y ) E{I [ P( y j )]} E[ log P( y j )] P( y j ) log P( y j )
m
两个符号先后到达,这时两个符号 一个符号在没有任何前兆时 n m H ( X | Y ) 两个符号共同产生的信息熵 E{I [ P( xi | y j )]} E[ log P( xi | y j )] P( xi y j ) log P( xi | y j ) 所带来的信息熵 = 带来的信息量肯定大于等于 某个符号带来的 i 1 j 1 n m 在已知这个符号的前提下 有前兆时所带来的信息量。 H (Y | X ) E{I [ P( y j | 信息熵 xi )]} E[+ log P( y j | xi )] P( xi y j ) log P( y j | xi ) i 1 j 1 另一个符号所带来的信息熵 若两个符号相互独立,则等 n m H ( X , Y ) E{I [ P( xi y j )]} E[ log P( xi y j )] P( xi y j ) log P( xi y j ) 号成立,否则大于号成立 i 1 j 1 这三者之间的关系:
x x1
P( x) P( x1
xl
xL
P( xL | xL1

第三章 信源编码-离散无记忆源等长编码

第三章 信源编码-离散无记忆源等长编码

第三章 信源编码——离散信源无失真编码本章分析问题:在信宿要求无失真接收时,或所有信源信息无损的条件下,离散信源输出的表示——即信源编码问题。

内容:信源分类,信息速率的计算,编码定理,有效编码方法等。

一、信源及其分类 1. 离散信源和连续信源离散信源表示:…U-2U-1U0U1U2…其中UL随机变量,取值范围:A={a1,a2,…ak} 2.无记忆源和有记忆源无记忆源:各UL彼此统计独立简单信源:各UL彼此统计独立且服从同一概率分布 P(UL=ak)=Pk,k=1,2,…,K∑=Kk 1Pk=1有记忆源:各UL取值相关。

UL=(U1,U2,…,UL)∈UL,其概率分布由L维随机矢量表示,P(UL=a)=P(U1=ak1,…,UL=akL) 3.平稳信源:概率分布与起始下标无关P(U1=ak1,…,UL=akL)=P(Ut+1=ak1,…,UL=akL)4.各态历经源:信源输出的随机序列具有各态历经性。

5.有限记忆源:用条件概率P(UL,UL-1,UL-2,UL-m)表述。

m为记忆阶数。

6.马尔可夫源:有限记忆源可用有限状态马尔可夫链描述,当m=1时为简单马尔可夫链。

7.时间离散的连续源:各随机变量UL取值连续。

8.随机波形源:时间和取值上均连续的信源;由随机过程u(t)描述,时间或频率上有限的随机过程可展开成分量取值连续的随机矢量表示,即时间上离散,取值连续的信源。

9.混合信源二、离散无记忆源的等长编码离散无记忆源:DMSL长信源输出序列:UL=(U1,U2,…,UL),Ul取值{a1,a2,…ak},共KL种不同序列。

对每个输出序列用D元码进行等长编码,码长为N,则可选码共有DN个。

1.单义可译码或唯一可译码:条件:DN≥KL=M,即N≥LlogK/logDN/L:每个信源符号所需的平均码元数;N/L→3.322;2.信息无损编码要求:设每个信源符号的信息量为H(U),则L长信源序列的最大熵值为LH(U),编码时由于D个码元独立等概时携带信息量最大,使码长最短。

《信源编码》课件

《信源编码》课件
(2)若抽样频率为
= 31
则有

= ෍
=−∞

− = 31 ෍
=−∞
′ − 31
例题12-5

= 31 ෍
′ − 31
=−∞
(3)接收网络的传输函数2()应设计为
1
2 = ෍1
0
此时能由()不失真地恢复 。

= ෍
=−∞


− = 5 ෍
=−∞
− 5
例题12-4
其频谱图为
例题12-5
【例题12-5】已知某信号 的频谱 如题图(a)所示,将它通过传输函数为1()的滤波器(见题
图(b))后再进行理想抽样。
(1)抽样速率应为多少?
(2)若抽样速率 = 31,试画出已抽样信号()的频谱。
(3)接收网络的传输函数2()应如何设计,才能由()不失真地恢复 ?
例题12-5
解:(1) 通过1 变为 ′ , ′ 与()相乘,所以采样的对象是 ′ 。欲求采样速率,首
先须求得 ′ 的最高频率。
可见, 通过1()后的最高频率仍为1,故抽样频率为 ≥ 21。
1

= 400时

= 400 ෍
其频谱图为
=−∞
− 400
例题12-4
【例题12-4】对基带信号 = 2000 + 24000进行理想抽样,为了在接收端能不失真地从已
抽样信号()中恢复 。
(1)抽样间隔应如何பைடு நூலகம்择?
(2)若抽样间隔取为0.2,试画出已抽样信号的频谱图。


0.25

信息论与编码课件第三章

信息论与编码课件第三章
入侵检测技术
利用信息论中的信号分析原理,检 测网络中的异常流量和行为,及时 发现和防范网络攻击。
THANKS FOR WATCHING
感谢您的观看
解码卷积码的方法包括最大似然解码、维特比解 码等,其中维特比解码算法具有较低的复杂度。
03 第三章 加密编码
加密编码的基本概念
加密编码是信息隐藏的一种形式, 通过将信息转化为难以理解的形 式,保护信息的机密性和完整性。
加密编码的基本要素包括明文、 密文、加密算法和解密算法。
加密编码的目标是确保只有授权 用户能够解密和读取密文,而未 经授权的用户无法获取明文信息。
离散无记忆信源的熵计算公式为$H(X) = - sum p(x) log_2 p(x)$,其中 $p(x)$表示输出符号$x$的概率。
离散无记忆信源的熵
离散无记忆信源的熵是用来度量其信 息量的一个重要参数,它表示在给定 概率分布下,输出符号所包含的平均 信息量。
离散有记忆信源的熵
离散有记忆信源的定义
信息论与编码课件第三章
contents
目录
• 第三章 信源编码 • 第三章 信道编码 • 第三章 加密编码 • 第三章 信息论与编码的应用
01 第三章 信源编码
信源编码的基本概念
01
信源编码的定义
信源编码是对信源输出的符号序列进行变换,使其满足某种特定规则的
过程。
02
信源编码的目的
信源编码的主要目的是在保证通信质量的前提下,尽可能地压缩信源输
对称密钥密码体制
对称密钥密码体制是指加密和 解密使用相同密钥的密码体制。
对称密钥密码体制的优点是加 密和解密速度快,适合于大量 数据的加密。
常见的对称密钥密码体制包括 AES(高级加密标准)和DES (数据加密标准)。

第3章-信源编码理论PPT课件

第3章-信源编码理论PPT课件
因为实际应用中使信号恢复的低通滤波器不可能是理想的,如 图4所示。因此为了防止减弱因幅度和相位不理想造成的失真, 通常选择抽样速率略大于奈奎斯特速率。
H(f )
0
f
理想特性
0
Fm
2021/3/12
f
( f )
图4 收端低通滤波器频率特性
理想特性 9
c. 抽样时,采用的抽样脉冲序列一般都是高度有限,宽度很 窄的脉冲序列。因为在实际应用中,理想抽样所需的周期性
2
F
(
)
2
Ts
(
n
ns
)
1 Ts
F (
n
ns )
上式表明,已抽样信号频谱 Fs ()是低通信号频谱 F ( ) 以抽样
速率为周期进行延拓形成的周期性频谱,它包含了F ( ) 的全部
信2息021。/3/1图2 3所示为抽样过程的波形及其频谱。
7
f (t)
F ()
t 0 (a)
Ts (t )
2021/3/12
S Nq
dB
20lgN20lg2l
6l
19
(3) 非均匀量化
① 定义: 根据信号的不同区间来确定量化间隔的。对于信号取 值小的区间,量化间隔小;对信号取值大的区间,量 化间隔大。
② 优点: 与均匀量化相比,在输入信号不变的前提下,由于小 信号时量化间隔变小,其相应的量化噪声功率也减小, 从而使小信号时的量化信噪比增大,即改善了小信号 时的量化信噪比,使输入信号的动态范围增大。
f (t)
fs (t)
fs (t) 低通滤波器 f (t)
Ts (t)
2021/3/12
图2 抽样与恢复
6
假设 f (t)、Ts (t)和 f s (t ) 的频谱分别是 F()、s() 和 Fs ()

3 信源编码

3 信源编码
x2 x3 x4 x5 x6 x7 x8 X x1 P( X ) 0.4 0.18 0.1 0.1 0.07 0.06 0.05 0.04
试对该信源编二进制哈夫曼码。
x1
编码过程
0 .4
0.6 0.37 0.23
1
0 0
0
1
1
x2 0.18
x3 x4
0.13
其码字平均长度 K 满足: 其码字平均信息率 R 满足:
LH ( X ) LH ( X ) 1 K log m log m
H(X ) R H(X )
5.1.1 码字唯一可译的条件
5.1.2 香农编码
5.1.3 费诺编码 5.1.4 赫夫曼编码 5.1.5 游程编码
5.1.6 冗余位编码
对信源进行缩减时,两个概率最小的符号合 并后的概率与其它信源符号的概率相同时,这 两者在缩减信源中进行概率排序,其位置放置 次序是可以任意的,故会得到不同的哈夫曼码。
此时将影响码字的长度,一般将合并的概率放
在上面,这样可获得较小的码方差。 如下面的例子
例 设有离散无记忆信源
X x1 x2 x3 x4 x5 P( X ) 0.4 0.2 0.2 0.1 0.1
5.1.1 码字唯一可译的条件 5.1.2 香农编码 5.1.3 费诺编码 5.1.4 赫夫曼编码
5.1.5 游程编码
5.1.6 冗余位编码
5.1.5 游程编码
前面的几种编码方法主要时针对无记忆信源,对有记忆信 源,这些编码方法的效率并不高,特别是对二元相关信源,需 要一些其它的方法。游程编码就是这样的方法,对相关信源的 编码更有效。 游程:指数字序列中连续出现相同符号的一段。在二元信源 中,连续的一段‘0’称为一个‘0’游程,‘0’的个数称为 此游程的长度,同样,也有‘1’游程。 游程序列:用交替出现的‘0’游程、‘1’游程的长度, 来表示任意二元序列而产生的一个新序列。它和二元序列是一 个一一对应的变换。

信息论基础——信源编码

信息论基础——信源编码

有一个一次输出一个符号的信源X (a1, a2, a3, a4 ) : 若要用BSC信道来传输这个信源的信息, BSC信道只能传输0和1,而这个信源有4个符号,那么必须编码。 显然0,1不可能表示4个符号。因此我们用BSC信道两个 符号来表示一个信源输入。令: 信息 对应码字
a1 00
a2 01 ,这个被称为码表,其右边码字的集合称为码集
每个码字对应的是L长度的信源符号序列。 因此平均每传输一个信源符号a,使用的信息率为R KL log m
L 这个R被称为编码所能携带的最大信息率。
无失真定长信源编码的目的:找一种编码使得KL log m 最小, L
且满足不失真。
定长唯一可译码存在的充要条件是克劳夫特不等式:
n
m-Ki 1,在这儿,所有Ki相等且 KL,n nL
充分性:码树中路径足够,自然一定能编出唯一可译码。
唯一可译码的代价很高:
编码可以携带的最大熵要大于信源最大可能熵。
很自然的联想:如果编码携带的最大熵小于信源最大可能熵
但是大于等于信源熵时是什么情况呢?数学上就是:
log mKL
H(X)
log mKL
LHL (X )
KL L
log m
HL(X )
H ( X )是H L ( X )扩展L次后的大信源。
奇异码必然非唯一可译,非唯一可译必然非即时(非即时未必非唯一可译)
逆否就是即时必然唯一可译, 能判定是否完整当然唯一可译
即时码的另一种数学描述:码树
码树从一个点(树根)开始分裂成多个点(节点),末端节点对应于输入信息, 输入信息对应编码就是从树根开始沿最短路径到对应节点所有经过的 (节点/树枝)码字顺序排列。码的长度就等于节数。

第三章-信源编码定理与信道编码定理

第三章-信源编码定理与信道编码定理

第三章信源编码定理与信道编码定理通信系统的两个基本问题问题一:数据压缩的理论极限是什么。

问题二:通信传输速率的理论极限是什么。

问题一(理论):如何度量信源产生信息无失真信源编码定理离散无记忆信道离散无记忆信道容量计算时间离散的无记忆连续信道为什么要对信源进行编码?由于信源符号之间存在分布不均匀和相关性,使得信源存在冗余度。

信源编码的主要任务就是减少冗余,提高编码效率。

具体说,就是针对信源输出符号序列的统计特性,寻找一定的方法把信源输出符号序列变换为最短的码字序列。

为什么还要引入有失真编码呢?感觉无失真编码应该优于有失真编码编码器可以看作这样一个系统,它的输入端为原始信源U,其符号集为U:{u1,u2,…,u q};而信道所能传输的码符号集为X:{x1,x2,…,x r};编码器的功能是用符号集X中的元素,将原始信源的符号ui 变换为相应的码字符号Wi,(i=1,2,…,q),所以编码器输出端的符号集为W:{W1,W2,…,W q}。

码的类型信源的类型离散无记忆信源的等长编码无失真等长编码中文电报的汉字编码就是一种等长编码。

这里N=4,D=10 ,即每个汉字用4位十进制数表示。

例如,“西安”编码后就成为4687 16180。

此外,0, 1, 2, ... , 9这10个数字采用如右边的编码方法。

右边的表格中的码字有什么特点?A频率在[0.19,0.21 ]的序列的概率和A频率在[0.19,0.21 ]序列的比例结论●某些特定的信源序列的出现概率可能高于某个特定“常见”序列的出现概率;●随着序列长度的增加,常见序列构成的集合的总体概率趋于1 。

(弱大数定律)想法-渐近无失真编码•如果这些“常见”序列的概率之和接近于1,并且它们的数目相对2L小得多,那么我们就可以只对这些“常见”序列进行编码。

其他序列不做考虑。

•随着L 的增加,其它序列几乎不发生。

这样,这种编码方法也就几乎没有失真了。

如何用数学工具来描述“常见”序列弱典型序列渐进等同分割性质定理:如果U 1,U 2,…是独立离散随机变量,分布服从p (u ),则等价表述:设离散无记忆稳恒信源输出的一个特定序列u 1u 2…u L 。

信源编码

信源编码

信源编码的基本思想
信源编码提高信息传输有效性的基本思想, 就是针对信源输出符号序列的统计特性,通 过概率匹配的编码方法,将出现概率大的信 源符号尽可能编为短码,从而使信源输出的 符号序列变换为最短的码字序列。
二、编码定义
1、非奇异码和奇异码 2、等长码和变长码 3、单义码和非单义码 4、非续长码 5、码树 6、码字平均长度 7、编码效率
在进行编码时,为了得到码方差最小的码,应使合 并的信源符号位于缩减信源序列尽可能高的位置上, 以减少再次合并的次数,充分利用短码;
码方差例子
设离散无记忆信源如下,分别按如下两种方 式编码,分析哪种编码更好。
XP
x1 0.4
x2 0.2
x3 0.2
x4 0.1
0x.51
Huffman编码1
信源符号
例子
已知信源符号集合的概率分布为 X {x1, x2, x3, x4}
P(X ) {1 , 1 , 1 , 1}
则 H(X) = 1.75 bits/符号
2488
如采用 2bit 等长编码(如x1—>00, x2—>01, x3—>10, x4—>11),则 L = 2, η= 1.75/(2*log2) = 0.875;
例: C1 = (1, 01, 00) 是单义码,如码字序列 10001101只可唯一划分为1、00、01、1、 01; C2 = (0, 10, 01) 为非单义码,如序列01001 可划分为0、10、01或01、0、01。
非续长码
设 Ci={xi1,xi2,…,xim} 是码 C 中的任一码字,而其他码字 Ck={xk1,xk2,…,xkj} (j < m) 都不是码字 Ci 的前缀,则称此码 为非续长码,也称为即时码。

第三章--传播的基本过程

第三章--传播的基本过程

(一)线性传播模式

Who?
传者
说什么
Say what?
信息
经什么通道 In which channel? 媒体
对谁说
To whom?
受者
产生什么效果 With what effect? 效果
(一)线性传播模式
D·麦奎尔为“5W”模式做的图示

说什么
通过什么渠道
对谁
取得什么效果
传播者 控制分析
讯息 内容分析
(一)线性传播模式
但拉斯韦尔模式明显的不足之处,在于它忽略 了传播的反馈问题,使传播过程流于简单化、 线性化,并过高估计了传播的效果。这正反映 出了传播模式研究的早期特征。
直线性——传播被表述为一种直线型、单向型的过程 孤立性——丝毫不涉及传播过程和社会过程的联系
(一)线性传播模式
针对有人批评这一模式太简单和武断(认定必产生 效果)的情况,在拉斯韦尔提出“5W”模式10周年 之际,布雷多克在《“拉斯韦尔公式”的扩展》 (1958年)一文中又增加了两个“W”:即“在什么情 况下(In Which Circumstances)?为了什么目的 (With Which Aim )?”构成了“7W”模式,较 “5W”模式又前进了一步。
(二)双向循环与互动模式
为了克服上述性线模式的的局限性,一些传播学者开发 出了双向传播过程模式,引入了“反馈”的机制,从而 更客观、更准确地反映了现实的传播过程。
(二)双向循环与互动模式
2.奥斯古德的双行为模式
1954年,美国心理语言学家奥斯古德在充分认识到“香农—韦弗”模 式的缺陷后,采用了其中合理的内容,设计出了传播的双行为模式。
发出的 信号
收到的 信号

信源编码定理的内容和其意义

信源编码定理的内容和其意义

信源编码定理的内容和其意义
信源编码定理(Source Coding Theorem)是信息论的基本定理之一,由克劳德·香农于1948年提出。

该定理指出,对于一个字符的离散无记忆源,其熵是它的平均编码长度的下限。

具体来说,设X为离散无记忆源,其有N个可能输出符号
x_1, x_2, ..., x_N,相应的输出概率分布为P(X=x_1),
P(X=x_2), ..., P(X=x_N)。

则X的熵H(X)定义为:
H(X) = -Σ(P(X=x_i) * log2(P(X=x_i)))
信源编码定理表述如下:
对于给定的源,如果存在一种编码方式,使得该编码方式满足以下两个条件:
1. 平均编码长度L满足L ≤ H(X) + ε,其中ε为正数。

2. 随着编码长度的增加,编码方式的错误率趋近于0。

那么,对于任意小的ε和δ,当信号序列长度n足够大时,就能以概率大于1-δ找到一种编码方式,使得产生的编码序列长度为n的平均长度小于L+ε,并且错误率小于δ。

信源编码定理的意义在于,它告诉我们通过对信息进行适当的编码,可以将信息压缩到接近其熵的程度,从而提高信息的传输效率。

例如,在通信领域中,信源编码定理的应用可以帮助
我们设计更高效的编码算法,减小数据传输所需的带宽和存储空间,提高数据压缩的效果。

此外,信源编码定理也为信息论的其他重要结果提供了基础,如信道编码定理等。

信源编码-北邮信息论课件

信源编码-北邮信息论课件

信源编码贺志强信源编码:将信源符号序列按一定的数学规律映射成由码符号组成的码序列的过程。

成由码符号组成的码序列的过程信源译码:根据码序列恢复信源序列的过程。

信源译码根据码序列恢复信源序列的过程无失真信源编码:即信源符号可以通过编码序列无差错地恢复。

无差错地恢复(适用于离散信源的编码)限失真信源编码:信源符号不能通过编码序列无差错地恢复。

差错地恢复(可以把差错限制在某一个限度内)信源编码的目的:提高传输有效性,即用尽可能短的码符号序列来代表信源符号。

号序列来代表信源符号无失真信源编码定理证明,如果对信源序列进行编码,当序列长度足够长时,存在无失真编码使得传送每信源符号存在无失真编码使得传送每信源符号所需的比特数接近信源的熵。

因此,采用有效的信源编码会使信息传输效率得到提高。

会使信息传输效率得到提高概述一、信源编码器二、信源编码的分类三分组码三、分组码分组码单符号信源编码器符号集符号集AA 1{,,}q a a ii c a 编为1{,,}q c c 编码器码字集合信源序列码符号集1{,}r b b分组码单符号译码器1{,,}q c c 信源序列码字集合1{,,}q a a 译码器1{,}r b b 码符号集简单信源编码器摩尔斯信源编码器将英文字母变成摩尔斯电码将摩尔斯电码变成二进码信源编码器信源编码器(1)信源符号{英文字母英文字母}}(2)二进信道码符号集点、划、字母间隔、单词间隔信道基本符号{0,1}符号点划字母间隔单词间隔电平+ -+++ ---------二进代码 1 0111000000000摩尔斯信源编码器原信源的次扩展码原信源的N N将N个信源符号编成一个码字。

相当于对原信源的N次扩展源的信源符号进行编码。

例信源X={0,1}的二次扩展源的二次扩展源X X 2的符号集为:信源X={0,1}。

对X X2编码,即为原信源编码,即为原信源X X的二{00,01,10,11}。

对{00,01,10,11}编码即为原信源X {00011011}对即为原信源次扩展码。

第三章 信源编码

第三章  信源编码

编码就是从信源符号到码符号组成的码字之
间的一种映射。
S : s {1 ,, q }
C : c {W1 ,,Wq }
X : x {x1 ,, xr }
Wi ( xi1 , xi2 ,, xil )
c. 定义1. 若某一种码的任意一串有限长的符号序列 只能被惟一地译成所对应的信源符号,则该码称 为惟一可译码。 定义2. 若用r元码对信源 S N 进行编码,设S中每个 符号所需的平均码长为 LN / N ,则定义
x(t )
n


x(
n ) 2W
sin[2W (t
利用抽样定理可把模拟信源的输出转换成等效的 离散时间信源。
n )] 2W n 2W (t ) 2W
二. 信息的量度——熵及其性质
1. 熵 离散随机变量 xi
事件X
yi 事件Y 事件Y yi 的出现提供事件X xi 的信息量 xi 和 yi 间的互信息:
d (ui , v j ) (ui v j ) P ( P 2)
平均失真度定义:
D [d (ui , v j )] E[d (u, v)]
(2)信息率失真函数 a. R(D) min{p(v j | ui ), D D} {I (U ;V )} (比特 / 符号) 信息传输率 I (U ;V ) b. 无记忆高斯信源的率失真函数(香农,1959年)
p( xi | yi ) I ( xi ; yi ) log2 p( xi )
xi 的自信息:
1 I ( xi ) log2 p( xi )
平均互信息:( X ; Y ) p( xi , y j ) log2 I
i 1 j 1
n

信源编码定理

信源编码定理

§3.3信源编码定理由于信源具有渐进等分割性这一很有意义的性质,这使得它在数据压缩及图像压缩中发挥了巨大作用,下面我们引入信源编码定理。

设u = {u 1,u 2,u 3…u n }是服从分布p(u)的无记忆信源产生的n 长序列,我们总是希望找到一种有效的编码方法来描述这些序列,使得编码以后码子数长尽可能少,但又要使从码字复原原序列的错误概率尽可能小。

一个行之有效的方法是将║χ║n个序列序列分成典型序列与非典型序列两部分,对u ∈)(n W ε的每一个序列u 赋予一个编号,称每个编号为一个码字,码字集合I = {1,2,…,M },M = ║)(n W ε║,对于那些序列u ∈)(n W ε,统一编号为字母α,这样,在从编码后的码字复制原序列时,如果收到码字是i ∈I,则可唯一的复原成某个u ∈)(n W ε,否则如果收到的是α,则原序列无法正确复制。

我们记这种编码的码率为M n log 1(bit),其误差概率为e P= p{u ∈)(n W ε}。

为了给出信源编码正定理,我们作以下预备。

设N 长信源序列集合为S ,典型序列集合为)(n W ε,则 1 =∑∈su u p )(≥∑∈W u p n u )()(ε≥∑∈+-W n u U H n )(2])([εε =║)(n W ε║.2])([ε+-U H n ,从而 ║)(n W ε║≤2])([ε+-U H n 。

又因为1-δ< p(u)≤║)(n W ε║.max)()(u p W n u ε∈≤║)(n W ε║.2])([ε--U H n故有 ║)(n W ε║≥()2])([1εδ--⋅-U H n这样就有 ()2])([1εδ--⋅-U H n ≤║)(n W ε║≤2])([ε+U H n 。

于是其码率满足()ε-1log 1n +()U H -ε≤)(log 1n W nε≤()ε+U H 误差概率为}{εε<∈=)(n e W u P P令0→ε,当∞→n 时,码率接近()U H 而0→e P 。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
a a
因此量化信噪比为
S 2 2 N Nq 12
2 N2 12
如果以分贝为单位,则量化信噪比为
S N q
l 20 lg N 20 lg 2 6l dB
(3) 非均匀量化 ① 定义: 根据信号的不同区间来确定量化间隔的。对于信号取 值小的区间,量化间隔小;对信号取值大的区间,量 化间隔大。 ② 优点: 与均匀量化相比,在输入信号不变的前提下,由于小 信号时量化间隔变小,其相应的量化噪声功率也减小, 从而使小信号时的量化信噪比增大,即改善了小信号 时的量化信噪比,使输入信号的动态范围增大。 ③ 量化信噪比: SNR非均匀 (dB) SNR均匀 (dB) QdB
(b) 压扩特性
设压缩前的信号为 x ,压缩后的信号为 y ,则压缩特性可写
1 为 y g (x) ,扩张是压缩的反变换,故为 x g ( y)。
输出 输入
40
B2
40
30
20
压缩特性
30
扩张特性0 A1
20
10
30
40
输入
0
10
20
30
40
输出
A1 B1 B1
抽样是模拟信号数字化的第一步,它 是把时间上连续的模拟信号变成一系 列时间上离散的抽样值的过程。已抽 样信号在时间上是离散的,但其幅值 仍是连续的,因此还属于模拟信号的 范畴。
(2) 低通型抽样定理 ① 定理内容 一个频带限制在 Fm 赫以内的时间连续函数 f (t ) ,如果以 Ts ≤
1 2Fm 的间隔对其进行等间隔抽样,则所得的样值可以完全确定
t
s ( )
2 s
s
3Ts2Ts Ts 0 Ts 2Ts 3Ts
(c)
0
s
2 s

(d)
f s (t )
t
Fs ( )
s m 0 m s
3Ts 2TsTs 0 Ts 2Ts 3Ts
(e)
2 s
2 s

(f)
图3
抽样过程的波形及其频谱(理想抽样)
a ( i 1)
1 3 N 3 ( )( ) 12 24a i 1 2 a
式中,E 是求统计平均;xi a i ;qi a i 2 。
因为量化级数 N 2a ,所以
2 Nq 12
信号功率为
1 2 2 S E[( x)2 ] x 2 f ( x)dx x 2 dx N a a 2a 12
由图3可见,当s 2m ,即抽样间隔 Ts 1 2Fm时,已抽样信号
频谱无混叠现象。因此只要让信号通过一个截止频率为 m 赫的 理想低通滤波器,就可以从已抽样信号中无失真的恢复原始模拟 信号。
③ 实际抽样中应注意的问题 a. 抽样前,加截止频率为 Fm的低通滤波器,滤除 Fm 赫以上的 频谱成分,从而消除混叠现象和避免由此引起的失真。 b. 抽样时,抽样速率 f s 要比 2Fm 大,一般取 f s (2.5 : 3) Fm 。 因为实际应用中使信号恢复的低通滤波器不可能是理想的,如 图4所示。因此为了防止减弱因幅度和相位不理想造成的失真, 通常选择抽样速率略大于奈奎斯特速率。
Q 式中, dB 20 lg( dy ) 表示信噪比的改善程度。 dx
④ 非均匀量化的实现——压扩技术 (a) 压扩思想:压缩是将经量化的样值信号先进行非线性变换, 使原来的输入信号的动态范围变小,压缩器对小信号增益大,而 对大信号增益小,再将压缩器输出的信号进行均匀量化,从而使 小信号的量化信噪比得到改善,收端用扩张器恢复原抽样信号。

S ( )
Ts
(c)
t
2
2m 0 2m
(d)
2

Fs ( )
f s (t )
t
(e)
2
2m 0 2m
(f)
2

图5 实际抽样的频谱变换(自然抽样、曲顶抽样)
(3) 带通型抽样定理
带通信号的频带限制在 ( f L , f H ) ,其中 f L 为最低频率分量,f H 为最高频率分量,其带宽为 B f H f L 。任何带通信号都可 以通过混频将其频谱转换成低通型的基带信号。因而,原则上 说,只要抽样频率不低于带通信号带宽 B 的两倍,即抽样间
q2
x1
q1
x ( nTs )
量化器
xq ( nTs )
图10 均匀量化过程示意图
③ 量化信噪比:
S N q
l 20 lg N 20 lg 2 6l dB
均匀量化的量化信噪比随量化级数的增加而提高,或者说编码 位数每增加一位,量化信噪比可提高约6dB。但量化级数的增 加,编码位数的增多,会使编码信号的带宽增大。因此量化级 数要由量化信噪比和编码信号带宽的要求共同确定。 ④ 缺点: 小信号时量化信噪比小,输入信号的动态范围(满足信噪比要 求的输入信号的取值范围)受限。
2 a
量化噪声功率为
N q E[( x xq ) ] ( x xq ) 2 f ( x) dx
a

i 1 N
N
xi
xi 1
( x qi ) 2 f ( x ) dx ( x a i 2 1 ) dx 2 2a

i 1 N
a i
n
F ( n )
s

上式表明,已抽样信号频谱 Fs ( )是低通信号频谱 F ( )以抽样 信息。图3所示为抽样过程的波形及其频谱。
速率为周期进行延拓形成的周期性频谱,它包含了 F ( )的全部
f (t )
t
F ( )
0 (a)
m 0 m
(b)

Ts (t )
(4) 脉冲振幅调制信号
① 脉冲调制的定义
f (t )
模拟基带信号
t
以时间上离散的脉冲串
作为载波的调制技术。
PAM信号
脉冲高度在变化
t
② 脉冲调制的分类
脉冲幅度调制(PAM)
PDM信号
脉冲位置不变宽度在变化
t
脉冲宽度调制(PDM)
脉冲位置调制(PPM)
PPM信号 脉冲宽度不变位置在变化
t
③ 脉冲调制的波形
扩张器输出信号
压缩器输入信号
图11 压缩扩张特性
(c) 对数压缩:广泛采用的对数压缩律是 律和 A 律 。 归一化 律特性:(美国、日本)
y ln(1 x) 0 x 1 ln(1 )
式中,y ——归一化压缩器输出电压 x ——归一化压缩器输入电压 ——压缩参数,表示压缩程度 归一化 A律特性:(中国、欧洲)
因为
f s (t ) f (t ) Ts (t )
所以,按频域卷积定理可得
1 F ( ) s ( ) Fs ( ) 2 1 2 ( ns ) F ( ) 2 Ts n 1 Ts
f H (t )
f (t )

T (t )
s
f s (t )
脉冲形 成电路
f H (t )
Ts
t
图7 平顶抽样框图
图8 平顶抽样波形
3. 量化理论 (1) 量化的基本概念
① 定义:幅值上的离散化,即利用预先规定的有限个电平来表示 模拟抽样值的过程。
② 分类:按量化间隔分有均匀量化和非均匀量化; 按量化方法分有四舍五入法、舍去法、补足法及取中间
2 Nq 12
均匀量化噪声功率仅与量化间隔有关。当量化间隔确定时,或者 说当量化范围和量化级数一旦确定,量化噪声功率为一常量。
q7 x6
信号的实际值
q6 x5 q5
量化误差
信号的量化值
x (6Ts )
xq (6Ts )
x4
q4
x (t )
x3
q3
Ts
2Ts
3Ts
4Ts
5Ts
6Ts
7Ts
t
x2
H( f )
理想特性 理想特性 0 0 f
Fm
f
( f )
图4 收端低通滤波器频率特性
c. 抽样时,采用的抽样脉冲序列一般都是高度有限,宽度很
窄的脉冲序列。因为在实际应用中,理想抽样所需的周期性 单位冲激脉冲是不可能实现的。
F ( )
f (t )
t
(a)
m 0 m
(b)

s (t ) A
1 Ax x 0 1 ln A A y 1 1 ln Ax x 1 1 ln A A
式中, x、y 分别为归一化输入输出电压, 为压缩参量。 A
y
1.0 1.0
y
0.8
1

0.6
00

0 00 1
0.8

A


0.6

2
原信号。 ② 定理证明 考查模拟信号的抽样,它可看成是模拟信号与周期为 Ts 的单位冲 激脉冲序列的乘积,如图2所示。
f (t )
f s (t )
f s (t )
低通滤波器
f (t )
T (t )
s
图2 抽样与恢复
假设 f (t )、Ts (t )和 f s (t )的频谱分别是 F ()、 () 和 Fs ( ) s
第3章 信源编码理论
一 信源编码的基本原理 二 脉冲编码调制 三 自适应差分脉冲编码调制 四 增量调制 五 语音压缩编码简介
一 信源编码的基本原理
1. 信源编码的基本概念 2. 抽样定理 3. 量化理论
4. 编码理论
1. 信源编码的基本概念 (1) 定义 信源编码就是将信源输出的信号进行变换,使之变成合适的数
相关文档
最新文档