信息论第四章 信源编码

合集下载

信息论与编码2016(第4章)

信息论与编码2016(第4章)

§4.2 离散无记忆信道 对称DMC容量的计算

P的所有列都是第一列的一种置换,信 道是关于输出对称的
0 .8 0 .2 P 0 .5 0 .5 0 .2 0 .8
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)都 不大于此相同的值。 (2)此时此相同的值恰好就是信道容量C。
§4.2 离散无记忆信道
注解
如果对DMC信道没有任何简化,要计算最佳输 入分布并不容易。但是,通常使用的DMC是很简单 的(比如,以下的准对称信道和对称信道),最佳 输入分布很容易求出。
§4.2 ቤተ መጻሕፍቲ ባይዱ散无记忆信道
定理4.2.2(p91) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
第四章:信道及其容量
§4.1 §4.2 §4.5 §4.6 §4.7 信道分类 离散无记忆信道 信道的组合 时间离散的无记忆连续信道 波形信道
5
§4.1 信道分类

所有信道都有一个输入集A,一个输出集B以及 两者之间的联系,如条件概率P(y│x),x∈A, y∈B。这些参量可用来规定一条信道。

信息论与编码民大04-信源编码概述

信息论与编码民大04-信源编码概述
信源编码概述
2010-5-11
1/30
为什么要进行信源编码
信源的两个重要问题 信源输出的信息量计算问题; 信息量计算问题 信源输出的信息量计算问题; 如何更有效地表示信源输出的问题. 信源输出的问题 如何更有效地表示信源输出的问题. 为什么要进行信源编码 理论上只要有传送H 的手段, 理论上只要有传送 ∞的手段,就能把信源包含的信息全部发送 出去.但实际上确定H 非常困难,只好用实际信源熵H 来近似. 出去.但实际上确定 ∞非常困难,只好用实际信源熵 m来近似. 所以在传输手段上必然存在冗余, 而Hm>H∞,所以在传输手段上必然存在冗余,即造成一定的浪 这种浪费是由信源符号的相关性引起的. 费,这种浪费是由信源符号的相关性引起的. 信源编码正是通过减少或消除信源的冗余度来提高通信效率 正是通过减少或消除信源的冗余度来提高通信效率. 信源编码正是通过减少或消除信源的冗余度来提高通信效率.
2010-5-11
5/30
熵压缩编码
熵压缩编码, 熵压缩编码,不可逆压缩 压缩超过一定限度, 压缩超过一定限度,必然带来失真 允许的失真越大, 允许的失真越大,压缩的比例越大 译码时能按一定的失真容许度恢复, 译码时能按一定的失真容许度恢复,保留尽可能多的信息 采用的技术: 采用的技术: 量化: 量化: 标量量化SQ (Scalar Quantization), 标量量化 , 矢量量化VQ (Vector Quantization) 矢量量化 变换编码( 变换编码(DCT, DFT, Wavelet等 ) , , 等 预测编码(线性预测码LPC-10, ADPCM ) 预测编码(线性预测码 , 人的感知特性( 人的感知特性(如:对人耳听不到或感知极不灵敏的声音分 量都不妨视为冗余 ) 其它

信源编码的原理

信源编码的原理

信源编码的原理
信源编码是数字通信中的一种技术,用于将信源的离散信号转化为连续信号以便传输。

信源编码的主要原理是通过对信源进行编码来提高信息传输的效率,并减少传输所需的带宽。

下面就信源编码的原理进行具体描述:
信源编码的原理主要包括两个方面:信息熵和编码。

信息熵是指信源输出符号的平均信息量。

在信息论中,熵可以描述一个随机信源的不
确定性。

一个信源可以通过信息熵的度量来评估其具有的信息量。

信息熵的计算公式为:
H = -Σpilog2pi
其中,pi是信源输出符号的概率。

H表示信息熵,它的单位是比特。

常见的信源编码有霍夫曼编码、香农-费诺编码、赫夫曼分段编码、格雷码等。

其中,霍夫曼编码是在所有编码中使用最广泛的编码算法,它的基本思想是,将出现概率高的符
号用较短的码表示,出现概率低的符号用较长的码表示,这样可以使总的编码长度最短。

以二进制为例,设共有n种离散信源输出符号,则该n个符号的离散概率为pi,要对这n个符号进行编码,使得所有符号的码值长度和为L,则平均码长为:
通过对概率进行排序,对每个符号进行编码,可以构造一个符号-码字对的码表。


于给定的输入符号序列,可以通过码表中的对应关系将其转化为对应的码字序列。

发送方
发送的码字序列就成为了连续信号,接收方将其还原为离散符号序列进行解码即可。

总的来说,信源编码通过压缩信息内容,减少传输所需的带宽,提高了数据传输的效率,具有重要的意义和应用。

信息论与编码原理信源编码

信息论与编码原理信源编码

信息论与编码原理信源编码
信息论是一门涉及了信息处理的学科,它研究信息生成、传输、接收、存储、利用等过程的一般性理论。

它探讨涉及信息的一切问题,强调掌握
信息所必需的体系性的体系知识,其主要内容有:信息的定义、信息测度,信息的熵,信息编码,信息的可计量性,信息传输,信息和随机性,信息
编译,信息安全,信息认证,解码准确性,信息的保密,校验,系统复杂性,信息的加密等。

信源编码是一种在信息论中常用的编码技术,其目的是用最少的信息
量表示最多的信息内容,以提高信息发送效率。

它主要包括概率信息源编
码和确定性信息源编码两种。

概率信息源编码是根据一个信息源的发生概率来编码,是根据发出信
息的概率来决定编码方式的。

它根据一个消息源中发出的不同信息的概率
来决定信息的编码,并确定每种信息的编码长度。

在这种情况下,越高概
率的信息,编码长度越短。

确定性信息息源编码,是根据一个消息源中出现特定信息的概率确定
编码方式的。

在这种情况下,编码长度取决于消息源的熵,也就是期望的
信息量。

信源编码的基本思想是以最小的编码来传输最多的信息量。

第四章 信源编码技术

第四章  信源编码技术

越大,说明编码效率越高。
根据定理4.1可以得出最佳等长编码效率,表示


H (X ) R' H (X ) H (X )


1

H (X )
假设允许错误概率小于δ,那么信源序列的长度N为
N D [ I ( a i )]

2
将编码效率η与ε之间的关系代入,可得
N H D [ I ( a i )]
分组码需要一个对应的码表,将编码器的输入
序列xi按照事先确定的规则进行编码,产生输出序
列yi,输出序列也称为码字,是由码表产生的。 码
字取值于一个码字集合,称为码集,记作C={C1, C2,…,Cq}。 而码表中的每个码字Ci是由若干个
来自于同一个码符号集合的符号构成,如果码符号
集合为D={0,1,…,d-1},则称这样构成的码为 d元码。 码字Ci的符号数量称为码字长度,记作li, i=1,2,…,q。
显然,当序列长度N增加时,平均码长减小,编码效率 增加,所以通过增加序列长度可以提高编码效率。 不过序列 长度的增加,意味着编码复杂度的相应增加,编码付出的代 价就越大,可见通过无限制增加码长提高编码效率并不总是 一种有效的方法。
例4.4 设离散无记忆信源为
X a1 p ( x ) 0 .8 a2 0 .2
N H D [ I ( a i ) ]
2 2 2
( X ) (1 )
得到
N≥1.62×107 只有当序列的长度达到1.62×107以上时,才能够满足给定 要求。 从指标来看,编码效率和允许错误概率的要求并不 高,但是序列的长度却很大。 这是因为等长码的编码没有 充分利用信源统计特性的结果。

信息论与编码习题答案-曹雪虹

信息论与编码习题答案-曹雪虹

3-14
信源 符号 xi x1 x2 x3 x4 x5 x6 x7
符号概 率 pi 1/3 1/3 1/9 1/9 1/27 1/27 1/27 1/3 1/3 1/9 1/9 2/27 1/27 1/3 1/3 1/9 1/9 1/9
编码过程
编码 1/3 1/3 1/3 2/3 1/3 00 01 100 101 111 1100 1101
得p0p1p223当p0或p1时信源熵为0第三章无失真信源编码31321因为abcd四个字母每个字母用两个码每个码为05ms所以每个字母用10ms当信源等概率分布时信源熵为hxlog42平均信息传递速率为2信源熵为hx0198bitms198bitsbitms200bits33与上题相同351hu12log2?14log4?18log8?116log16?132log32?164log64?1128log128?1128log128?1984111111112481632641281282每个信源使用3个二进制符号出现0的次数为出现1的次数为p0p134相应的香农编码信源符号xix1x2x3x4x5x6x7x8符号概率pi12141811613216411281128累加概率pi00507508750938096909840992logpxi12345677码长ki12345677码字010110111011110111110111111011111110相应的费诺码信源符号概符号xi率pix1x2x3x4x5x6x7x812141811613216411281128111第一次分组0第二次分组0第三次分组0第四次分组0第五次分组011第六次分组01第七次分组01二元码0101101110111101111101111110111111105香农码和费诺码相同平均码长为编码效率为

信源编码文档

信源编码文档

信源编码概述信源编码是信息论的一个重要概念,用于将源信号转换成一系列编码的比特流。

在通信系统中,信源编码被广泛用于提高信息的传输效率和可靠性。

本文将介绍信源编码的基本概念、常见的信源编码方法和应用。

基本概念信源在通信系统中,信源是指产生信息的原始源头。

信源可以是任何可以生成离散或连续信号的设备或系统,比如人的语音、文本、图像等等。

信源编码信源编码是指将信源产生的原始信号转换成一系列编码的比特流。

它的主要目的是通过消除冗余、提高信号的压缩率以及提高传输的可靠性。

码字信源编码中的最小单位被称为码字(codeword)。

码字由编码器根据特定规则生成,每个码字可以表示一个或多个原始信号。

码长码长是指每个码字中的比特数。

它决定了编码器产生的每个码字传输所需的比特数,码长越短,传输效率就越高。

码率码率是指信源编码中每秒传输的码字数量。

它可以用比特/秒(bps)来表示,码率越高表示每秒传输的信息量越大。

常见的信源编码方法均匀编码均匀编码是一种简单的信源编码方法,它将每个原始信源符号映射到固定长度的码字上。

均匀编码适用于信源符号概率分布均匀的情况,例如二进制信源。

霍夫曼编码霍夫曼编码是一种基于信源符号概率分布的编码方法。

它通过将频率较高的信源符号映射到较短的码字,频率较低的信源符号映射到较长的码字来实现压缩。

高斯混合模型编码高斯混合模型编码是一种适用于连续信源的编码方法。

它假设源信号是由多个高斯分布组成的,通过对这些高斯分布进行建模来实现有效的压缩。

游程编码游程编码是一种用于压缩离散信号的编码方法,它基于信源连续出现相同符号的特性。

游程编码将连续出现的相同符号替换为一个计数符号和一个重复符号,从而实现压缩。

信源编码的应用数据压缩信源编码在数据压缩中起着关键作用。

通过使用有效的信源编码方法,可以大大减少传输数据的比特数,从而提高数据传输的效率和速率。

影音编码在数字媒体领域,信源编码常用于音频和视频的压缩。

通过采用适当的信源编码方法,可以减小音频和视频文件的大小,从而节省存储空间和传输带宽。

(信息论、编码及应用)第4章连续信源与连续信道

(信息论、编码及应用)第4章连续信源与连续信道
应用
连续信源的编码定理是信息论中最重 要的定理之一,它为信源编码提供了 理论依据和指导,广泛应用于数据压 缩、图像处理等领域。
02
连续信道
定义与特性
定义
连续信道是一种能够传输连续信号的通信通道,例如音频、 视频信号等。
特性
连续信道具有带宽限制、噪声干扰、信号衰减等特性,这些 特性会影响信号传输的质量和可靠性。
利用统计学习方法,如自适应滤 波、神经网络等,对信源和信道 进行学习和优化,实现动态匹配。
编码技术
采用适当的编码技术,如差分编 码、增量编码等,对信源进行编 码,使其更适应信道的传输特性。
匹配的优化策略
01
02
03
能效优先
在保证信息传输质量的前 提下,优先考虑能效,通 过优化信源和信道的参数, 降低能耗。
例如,在移动通信网络中,语音信号通常采用码分多址(CDMA)或长期演进(LTE) 等技术进行传输。这些技术能够提供较高的数据传输速率和较低的误码率,从而保 证语音信号的清晰度和可懂度。
图像信号传
图像信号传输是连续信源与连续信道的另一个重要应用领域。在电视广播、视频会议和在线教育等应用中,图像信号需要通 过连续信道进行传输。由于图像信号的数据量较大,因此需要采用高效的压缩编码技术来减小传输数据量,同时还需要保证 图像质量。
输速率,同时保证信息的可靠传输。
03
匹配理论的发展历程
随着信息论的不断发展,匹配理论也在不断完善,从早期的经典匹配理
论到现代的统计匹配理论,为连续信源与连续信道的匹配提供了更精确
的指导。
匹配的实现方法
参数调整
根据信源和信道的特性,调整相 关参数,如信源的压缩比、信道 的调制方式等,以实现匹配。

信息论基础——信源编码

信息论基础——信源编码

有一个一次输出一个符号的信源X (a1, a2, a3, a4 ) : 若要用BSC信道来传输这个信源的信息, BSC信道只能传输0和1,而这个信源有4个符号,那么必须编码。 显然0,1不可能表示4个符号。因此我们用BSC信道两个 符号来表示一个信源输入。令: 信息 对应码字
a1 00
a2 01 ,这个被称为码表,其右边码字的集合称为码集
每个码字对应的是L长度的信源符号序列。 因此平均每传输一个信源符号a,使用的信息率为R KL log m
L 这个R被称为编码所能携带的最大信息率。
无失真定长信源编码的目的:找一种编码使得KL log m 最小, L
且满足不失真。
定长唯一可译码存在的充要条件是克劳夫特不等式:
n
m-Ki 1,在这儿,所有Ki相等且 KL,n nL
充分性:码树中路径足够,自然一定能编出唯一可译码。
唯一可译码的代价很高:
编码可以携带的最大熵要大于信源最大可能熵。
很自然的联想:如果编码携带的最大熵小于信源最大可能熵
但是大于等于信源熵时是什么情况呢?数学上就是:
log mKL
H(X)
log mKL
LHL (X )
KL L
log m
HL(X )
H ( X )是H L ( X )扩展L次后的大信源。
奇异码必然非唯一可译,非唯一可译必然非即时(非即时未必非唯一可译)
逆否就是即时必然唯一可译, 能判定是否完整当然唯一可译
即时码的另一种数学描述:码树
码树从一个点(树根)开始分裂成多个点(节点),末端节点对应于输入信息, 输入信息对应编码就是从树根开始沿最短路径到对应节点所有经过的 (节点/树枝)码字顺序排列。码的长度就等于节数。

信息论与编码(第三版) 第4章 离散信源编码理论-0525

信息论与编码(第三版) 第4章 离散信源编码理论-0525

1
1
N log p(x1x2...xN ) N i log p(xi )
-E log p(x) 以概率
H(X)
定义4.1 关于p(x)的典型集合 A( N ) 是序列 (x1x2...xN ) X 的集合,具有下列性质 2N (H ( X ) ) p(x1x2...xN ) 2N (H ( X ) )
)
H(X
)
|
}
1
得到性质2
性质(3) 2 | A | 1 p(X)
p(X)
2N (H ( X ) )
XxN
XA ( N )
XA( N )
N (H ( X ) ) (N )
渐近等同 分割含义
典型序列 定义
相同数据 相加
性质(4) 对于充分大的N p{A (N)} 1
2 | A | 1 p{A(N)}


典型序列数量不大于2N(H(X)+ε)
编码:0+序列编号

码长 N(H ) 2
非典型序列
编码:1+序列编号
码长: N log | X | 1
这是一种无失 真编码方法
❖ 上述的编码方案具有下列性质:
码与序列之间是一一对应的,第一位是前缀码,表示码的长 度或者类型。
非典型序列采用的是枚举法,尽管没有考虑非典型序列的长
X p(x)
0 p(0)
p
1 p(1) q
主要关心典型序 列,典型序列的 任何特性都是以 大概率成立的, 而且决定了样点
值的主要特性
如果随机变量 X1, X2,..., X N 都服从独立同一分布
那么序列 (x1x2...xN ) 的概率为

信息论与编码第四章

信息论与编码第四章

r li ⒄1
i 1
码长 li ,码符号集中符号个数r,信源符号个数q,称作kraft
不等式。
说明:唯一可译码一定满足不等式,反之,满足不等 式的码不一定是唯一可译码。
• 充分性证明:假定满足不等式的码长为 l1,l2 , ,,lq 在q个码字
中可能有长度相同的码字。设码长为1的有n1个,长度为2
111111
同价码:每个码符号(元)所占的传输时间都相

§4.2 等长码和等长信源编码定理
实现无失真编码的条件:
1、信源符号与码字一一对应 2、任意一串有限长的码符号序列与信源s的符号序列也 是一一对应,即N次扩展后仍满足一一对应关系。 同时满足上述条件称为唯一可译码
s : s1 s2 s3 s4 w j c : 0 10 00 01
N
N
I (ai ) log p(ai ) log pik I (sik )
k 1
k 1
E[I (ai )] H (S N ) NH (S )
E(x) xP (x) m H(s)
x
D[I (ai )] ND[I (si )] N{E[I 2 (si )] [H (s)2 ]
q
n
r li
nl m ax
Ajr j
i 1
jn
q
n
r
li
nl max
r j •rj
上界 ⑻
1 (N, ) p(G) MG • max p(ai ) ⑼
max p(ai ) 2 N[H (s) ]
下界 M G [1 (N , )]2 N[H (⑽ s) ]
我们可以只对集G中MG个信源序列进行一一对应的等长编码,
这就要求码字总数不小于MG就行,即

信息论与编码第4章无失真信源编码

信息论与编码第4章无失真信源编码
9
4.1
无失真信源编码的概念
唯一可译码: 任意有限长的码元序列,只能被唯一地分割成一个一个的 码字,则称为唯一可译码,或单义可译码. 否则,就称为非 唯一可译码, 或非单义可译码. 例:码4是唯一可译码: 1000100 1000, 100 码3是非唯一可译码: 100010010, 00, 10, 0 或10, 0, 01, 00
信源符号
s1 s2 s3
概率分布
0.5 0.25 0.125
码1:C1
00 01 10
码2:C2
0 11 00
码3:C3
0 10 00
码4:C4
1 10 100
码5:C5
1 01 001
s4
备注
0.125
11
2
11
非唯一可译
01
非唯一可译
1000
唯一可译
0001
及时码
平均码长
2
1.5

1.875
L log m H ( X ) N
编码效率:
N H(X ) H(X ) . L log m H ( X )
19
4.2 等长编码
等长信源编码定理 设信源自信息方差为D(X)=D[I(pi)],编码效率为 , 当允许译码错误概率Pe < 时,有
D( X ) 2 N 2 2 . 2 H ( X ) (1 ) D( X )
满足克劳夫特不等式 m 1是异前置码的
ki i 1 n
充要条件。
7
4.1
无失真信源编码的概念
例4-1 几个二元码
信源符号 概率分布 码1:C1 00 01 10 11 码2:C2 0 11 00 11 码3:C3 0 10 00 01 码4:C4 1 10 100 1000 码5:C5 1 01 001 0001

信源编码定理的内容和其意义

信源编码定理的内容和其意义

信源编码定理的内容和其意义
信源编码定理(Source Coding Theorem)是信息论的基本定理之一,由克劳德·香农于1948年提出。

该定理指出,对于一个字符的离散无记忆源,其熵是它的平均编码长度的下限。

具体来说,设X为离散无记忆源,其有N个可能输出符号
x_1, x_2, ..., x_N,相应的输出概率分布为P(X=x_1),
P(X=x_2), ..., P(X=x_N)。

则X的熵H(X)定义为:
H(X) = -Σ(P(X=x_i) * log2(P(X=x_i)))
信源编码定理表述如下:
对于给定的源,如果存在一种编码方式,使得该编码方式满足以下两个条件:
1. 平均编码长度L满足L ≤ H(X) + ε,其中ε为正数。

2. 随着编码长度的增加,编码方式的错误率趋近于0。

那么,对于任意小的ε和δ,当信号序列长度n足够大时,就能以概率大于1-δ找到一种编码方式,使得产生的编码序列长度为n的平均长度小于L+ε,并且错误率小于δ。

信源编码定理的意义在于,它告诉我们通过对信息进行适当的编码,可以将信息压缩到接近其熵的程度,从而提高信息的传输效率。

例如,在通信领域中,信源编码定理的应用可以帮助
我们设计更高效的编码算法,减小数据传输所需的带宽和存储空间,提高数据压缩的效果。

此外,信源编码定理也为信息论的其他重要结果提供了基础,如信道编码定理等。

信源编码-北邮信息论课件

信源编码-北邮信息论课件

信源编码贺志强信源编码:将信源符号序列按一定的数学规律映射成由码符号组成的码序列的过程。

成由码符号组成的码序列的过程信源译码:根据码序列恢复信源序列的过程。

信源译码根据码序列恢复信源序列的过程无失真信源编码:即信源符号可以通过编码序列无差错地恢复。

无差错地恢复(适用于离散信源的编码)限失真信源编码:信源符号不能通过编码序列无差错地恢复。

差错地恢复(可以把差错限制在某一个限度内)信源编码的目的:提高传输有效性,即用尽可能短的码符号序列来代表信源符号。

号序列来代表信源符号无失真信源编码定理证明,如果对信源序列进行编码,当序列长度足够长时,存在无失真编码使得传送每信源符号存在无失真编码使得传送每信源符号所需的比特数接近信源的熵。

因此,采用有效的信源编码会使信息传输效率得到提高。

会使信息传输效率得到提高概述一、信源编码器二、信源编码的分类三分组码三、分组码分组码单符号信源编码器符号集符号集AA 1{,,}q a a ii c a 编为1{,,}q c c 编码器码字集合信源序列码符号集1{,}r b b分组码单符号译码器1{,,}q c c 信源序列码字集合1{,,}q a a 译码器1{,}r b b 码符号集简单信源编码器摩尔斯信源编码器将英文字母变成摩尔斯电码将摩尔斯电码变成二进码信源编码器信源编码器(1)信源符号{英文字母英文字母}}(2)二进信道码符号集点、划、字母间隔、单词间隔信道基本符号{0,1}符号点划字母间隔单词间隔电平+ -+++ ---------二进代码 1 0111000000000摩尔斯信源编码器原信源的次扩展码原信源的N N将N个信源符号编成一个码字。

相当于对原信源的N次扩展源的信源符号进行编码。

例信源X={0,1}的二次扩展源的二次扩展源X X 2的符号集为:信源X={0,1}。

对X X2编码,即为原信源编码,即为原信源X X的二{00,01,10,11}。

对{00,01,10,11}编码即为原信源X {00011011}对即为原信源次扩展码。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

W:{W1,W2,…,Wn}。
2013-12-20 2
S: {s1,s2…sn}
W: {w1,w2…wn} 编码器 A: {a1,a2…aq}
S=原始信源符号集; A=信道码元符号集; W=码字符号集;(码组) Wi=[w1,w2,…wLi] wi∈{a1,a2,…aq} L为码字Wi的码元个数,称为码字Wi的码字长度, 简称码长。 q=2时,称为二元编码,否则称为q元编码。
到一种编码方法,构成单义可译码,使信源S中每个符号所
需要的平均码长满足:
H lim L N log q
已知N次扩展信源的熵为H([S])=H(S1,S2,…,SN),根据平均码 长的界限定理,
H ([S ]) H ([S ]) LN 1 log q log q
2013-12-20 21
例如:W:{0,01}是单义的,但不是瞬时可译码。
2013-12-20 6
⑶单义可译码定理
设原始信源符号集为S:{s1,s2,…sn},码元符号集为 A:{a1,a2,…,aq},码字集合为W:{W1,W2,…Wn},其 码长分别为L1,L2,…,Ln;则单义可译码存在的充要 条件为码长组合满足Kraft不等式,即
2013-12-20 7
信源 符号 s1 s2 s3 s4
[W1]
0 01 011 0111
[W2]
0 10 110 1110
[W3]
0 11 100 110
[W4]
0 10 110 111
[W5]
0 10 11 110
[W6]
00 01 10 11
W1:满足Kraft不等式,但只是单义的,不是瞬时可译码;码长组合为1,2,3,4; W2:满足Kraft不等式,是单义的,也是瞬时可译码;码长组合为1,2,3,4;
i 1 i
i
11
2013-12-20
这时看一下信息传输效率:每个信道码元所 携带的平均信息量。 当信源S给定,信源的熵为H(S),则每 个信道码元所携带的平均信息量可以表 示为:
H (S ) R H ( X ) H ( A) L
2013-12-20 12
H (S ) R H ( X ) H ( A) L
2013-12-20 1
4.1.1 编码器(Encoder)
编码的作用可以分为以下面两点:
•一些原始信源符号不适应信道的传输;
•原始信源符号的传输效率很低;
编码器可以看作这样一个系统。它的输入端为原始信源S
,其符号集为S:{s1,s2,…,sn};si(i=1,2,…n);而信道所能传 输的符号集为A:{a1,a2,…,aq};编码器的功能是用符号集A 中的元素,将原始信源的符号si变换为相应的码字符号Wi , (i=1,2,…,n) , 所 以 编 码 器 输 出 端 的 符 号 集 为
W3:满足Kraft不等式,不是单义的,也不是瞬时可译码;码长组合为1,2,3,3;
W4:满足Kraft不等式,是单义的,也是瞬时可译码;码长组合为1,2,3,3; W5:不满足Kraft不等式,不可能为单义的;码长组合为1,2,2,3;
W6:满足Kraft不等式,是单义的,也是瞬时可译码;为等长码;
码效率的极限定理。
[定理一]: 离散无记忆信源S的N次扩展信源SN,其 熵 为 H(SN) , 并 且 编 码 器 的 码 元 符 号 集 为 A:{a1,a2,…aq},对信源SN 进行编码,总可以找到一 种编码方法,构成单义可译码,使信源S中每个符 号si所需要的平均码长满足:
N
2013-12-20
2013-12-20 16
例如:S:{s1,s2,s3,s4}; P(S):{1/2,1/4,1/8,1/8}时,
编码后码长为[1,2,3,3], 这时平均码长将为L=H(S)=1.74 码元/符号。
上界的证明思路:只要有一种方法使上界成立,就 说明总可以找到一种方法使上界成立。
平均码长大于这个上界当然也可以构成单义可译码,
q
i 1
n
Li
1
①Kraft不等式不仅是单义可译码的充要条件,也是瞬时可译码的充 要条件; ②这里所说的充要条件是对于码长组合而言,而不是对于码字本身 而言,就是说:满足Kraft不等式的码长组合一定能构成单义码,单 义码的码长组合一定满足Kraft不等式。 ③有些码字的码长组合满足Kraft不等式,但不是单义码。(编码方 法不对)
log p( si ) 1 Li log q p( si ) log q log q p( si )
可得:
p( si ) q
Li
当然这要求信源符号的先验概率满足其是以q为底的对数 为整数,这就要求信源符号的先验概率为p(si)=q-Li形式, 如果满足这一条件,编出的码字称为最佳码。
将上式除以N得:
H ([S ]) LN H ([S ]) 1 N log q N N log q N
可以注意到:对于平稳各态历经有记忆信源来说,当信源
稳定后,即当N趋于无穷时,每发一个符号携带的平均信息 量等于其极限熵。
1 lim H ( S1, S2 ,... S N ) lim H ( S N 1 / S1, S2 ,... S N ) H N N N
2013-12-20 8
⑷用码树图构成瞬时可译码
从根开始,画出q条分支,任选一个分支作为W1; 在另一个分支上再分出q条分支,任选一个分支作为 W2;继续进行,直至结束;从根到各端点,所经过的 状态即为码字;
2013-12-20
9
4.1.3 平均码字长度
如果一个码组的参数满足Kraft不等式,就 一定可以构成无噪声信道下的无失真传输 ,然而,在一个通信系统中,信源编码的 主要目的是提高编码效率,即每个码元符 号要携带更多的信息量。因此要定义平均 码长的概念。
lim L H q ( S )
18
说明:H(SN)=NH(S),根据平均码长的界限定理有:
H(S N ) H(S N ) LN 1 log q log q
则不等式都除N可以变为:
H(S N ) LN H(S N ) 1 N log q N N log q N
即得: H ( S )
又考虑到lim(1/N)=0,可知:
H lim L N log q
22
2013-12-20
比较定理一和定理二,由于H(S)≤H∞ ,所以,有记忆信源的 平均码长的下界将小于无记忆信源的平均码长的下界; 对于m阶马尔柯夫信源来说;H∞=Hm+1(S),则有:
H m 1 lim L N log q
即,记忆长度越长,平均码长的下界就越小。有:
H m ( S ) H1 ( S ) H 0 ( S ) H max ( S ) H
定理一和定理二说明:可以用信源扩展的方法,达到数据 压缩的目的,扩展程度越高,编码效率越高。
2013-12-20
23
[定理三]:
设信源S的熵为H(S),无噪声离散信道的信道容 量为C。则总可以找到一种编码方法,使信道上 的信源符号平均传输速率为[C/H(S)-ε]。其中ε可 以是任意小的正数。要使符号平均传输速率大于 C/H(S)是不可能的。
2013-12-20 5
⑵瞬时可译码(非续长码)定义
如果一个码组中的任一个码字都不是另一个码 字的续长,或者说,任何一个码字后加上若干 码元后都不是码组中另一个码字。则称为瞬时 可译码,也称为非续长码。
例如:
W:{0,10,100,111}不是瞬时可译码,100为10的 续长。
瞬时可译码一定是单义的,单义可译码却不一 定是瞬时可译码。
第四章 信源编码
4.1 离散信源的信源编码
通信的根本目的就是有效而可靠地传输信息。
Shannon信息论中的一个重要内容就是它给出了信
息传输的有效性和可靠性的极限能力。
具体表现为两个编码定理;一般称为Shannon第一
编码定理(信源编码定理,有效性编码定理)和
Shannon第二编码定理(信道编码定理,抗干扰编 码定理)。
但实际上总希望码长小; 当一个离散无记忆信源的统计特性确定后 ,信源熵
H(S)就确定了,平均编码长度下界也就确定了,编码
效率也就确定了,如果进一步提高效率,就要想其它 方法。下面的编码定理给出了进一步的方法。
2013-12-20 17
4.2 编码定理
以下是Shannon编码定理的三种形式。它们是进一步提高编
i 1
n
由单义可译码的存在定理可知,当满足∑q-Li≤1时,取对数
后为小于等于0。则有:
H ( S ) L log q 0;
2013-12-20

H (S ) L log q
15
平均码长最小不能小于极限值,H(S)/logq,若小于,则不存
在单义可译码; 当下界等号成立时,效率最高时,为
2013-12-20 3
4.1.2 单义可译码(Uniquely decodable code)
⑴单义可译码定义 如果一个码组的任一有限长的码字序 列(一串码字),只能唯一地被译成 一个一个码字,则称为单义可译码, 也称为异前置码。
2013-12-20
4
例如:
信源符号:S: {s1,s2,s3}; 码元符号:A:{0,1}; 码字集合:W: {w1=0, w2=10, w3=11}, 为单义可译码。 在无差错条件下,当接收码字序列为: 010011001111…,可以唯一地译为: w1,w2,w1,w3,w1,w1,w3,w3……; 如果码字集合为:W:{0,01,11} 则为非单义可译码。 当接收码字序列为:010011001111… 时, 可以译为:w2,w1,w1,w3,w1,w1,w3,w3,(w2,w3..),… 即可以有不同的译码方法。
相关文档
最新文档