信息论第5章

合集下载

《信息论》第五章

《信息论》第五章
(1)
=1 3
7
结论:错误概率不仅与信道的统计特性有关,而且与译 结论:错误概率不仅与信道的统计特性有关, 码规则有关. 码规则有关. 我们来定义译码规则 设信道的输入符号集为X =1, 设信道的输入符号集为X={ ai},i =1,2,…,r ; 输出符号集为Y =1, 输出符号集为Y= {bj},j =1,2,…,s. 制定译码规则就是设计一个单值函数F ),它对于 制定译码规则就是设计一个单值函数F(bj),它对于 每一个输出符号b 确定一个唯一的输入符号a 每一个输出符号bj确定一个唯一的输入符号ai与其对应 . F(bj)= ai 即 i =1,2,…,r =1, j =1,2,…,s =1, 种译码规则可供选择. 注:对于同一有噪信道共有 r s 种译码规则可供选择.
15
编码1 编码1:将每个码元重复三次 纠正任一位上的错误 设码字记为 (c8c7c6c5c4c3c2c1c0 ) 由编码方法知
c8 = c7 = c6 c5 = c4 = c3 c2 = c1 = c0
纠错: c c 位出错. 纠错:如果 8 = c6 ≠ c7,则 7位出错.在同一组中以 相同二 — ( ). 元数多的为正确 — — —大数判决法 择多译码"规则 "择多译码"
3×10-4 2×10-2 2.23×10-2 7.8×10-4 3×10-2 × × × × ×
14
错误概率与编码方法
重复发送——大数判决规则 重复发送——大数判决规则 信息数据 000 001 010 011 100 101 110 111 编码1 编码1 000000000 000000111 000111000 000111111 111000000 111000111 111111000 111111111 编码2 编码2 000000000 001001001 010010010 011011011 100100100 101101101 110110110 111111111

信息论:第5章 无失真信源编码定理

信息论:第5章 无失真信源编码定理
23
(7)码的N次扩展码
假定某码C,它把信源 S {s1 , s2 ,, sq }中的符号
s i 一一变换成码C中的码字 Wi ,则码C的N次扩展 码是所有N个码字组成的码字序列的集合。
24
例如:若码 C {W1 ,W2 ,,Wq } 满足:si Wi ( xi1 , xi 2 ,, xil ), si S , xil X 则码C的N次扩展码集合 B {B1 , B2 , , Bq } ,其中:
为了解决这两个问题,就要引入信源编码和信 道编码。
2
一般来说,抗干扰能力与信息传输率二者相互矛盾。 然而编码定理已从理论上证明,至少存在某种最佳 的编码能够解决上述矛盾,做到既可靠又有效地传 输信息。 信源虽然多种多样,但无论是哪种类型的信源, 信源符号之间总存在相关性和分布的不均匀性,使 得信源存在冗余度。
q r
N
l
(5.2)
36
25
(8)惟一可译码
若任意一串有限长的码符号序列只能被惟一地 译成所对应的信源符号序列,则此码称为惟一可译 码(或称单义可译码)。否则就称为非惟一可译码 或非单义可译码。
若要使某一码为惟一可译码,则对于任意给定 的有限长的码符号序列,只能被惟一地分割成一个 个的码字。
26
例如:对于二元码 C1 {1, 01, 00},当任意给定一串 码字序列,例如“10001101”,只可唯一地划分为 1,00,01,1,01,因此是惟一可译码; 而对另一个二元码 C 2 {0,10, 01},当码字序列 为“01001”时,可划分为0,10,01或01,0,01,所以是 非惟一可译的。
i
N
Bi {Wi1 ,Wi2 ,,WiN }; i1 ,, i N 1,, q; i 1,, q N

信息论第5章-1

信息论第5章-1

log m K log m
L
K log m

K log m
22
二元编码:编码效率=编码后的信息传输率
定长编码
基本源编码:
对单个符号X进行编码, X∈{x1 ,x2 ,…, xn},输入符号 总共有 n 种 若对信源进行定长编码 Ki=K,实现无失真编码 (存在 唯一可译码)的条件——Kraft不等式
码 表 码0 00 01 10 11 码1 0 11 00 11 码2 0 10 00 01 码3 1 10 100 1000 码4 1 01 001 0001
11
信源符号 x1 x2 x3 x4
码的分类
奇异码 → 非唯一可译码
非奇异码中既有唯一可译码也有非唯一可译码
等长码:非奇异 → 唯一可译码 变长码:任意N次扩展码( N ≥ 1)均为非奇异码
第五章
信源编码
信源编码
5.1 信源编码的定义 5.2 无失真信源编码 5.3 限失真信源编码
5.4 常用信源编码方法简介
2
信源编码
5.1 信源编码的定义 5.2 无失真信源编码 5.3 限失真信源编码
5.4 常用信源编码方法简介
3
信源编码的定义
例:英文电报信源符号X={a,b,c…z,空格符,…},n=32。数字信道只允 许{0, 1}两种状态的信号,因此为了在数字信道中传输,需要对信源符 号进行编码
i i
i
码元符号/信源符号
L长符号序列编码: K K L L
p(x ) K
i i
Li
L
码元符号 /信源符号
编码后的信息传输率R:编码后平均每个码元传送的 信息量 H L ( X) H(X )

5--第5章信息论课件共47页PPT资料

5--第5章信息论课件共47页PPT资料

信 源 编
码字:码符号序列Y=(Y1Y2…Yk…Yki)称为码字。
码长/码字长度: ki称为码字长度或简称码长。

编码就是从信源符号到码符号的一种映射。若
要实现无失真编码,这种映射必须是一一对应的,
可逆的。
2020/1/4
14
信息论与 编码
编码的定义
西北大学信息学院
一些码的定义
二元码:码符号集为X={0,1},所得码字都是一些二元序
西北大学信息学院
第5章
信源编码
2020/1/4
信息论与编码
1
信息论与
编码 CONTENT
西北大学信息学院

TEXT
TEXT


信 源
5.1
5.2
编 编码概念 等长码与

等长信源
编码定理
TEXT
TEXT
5.3 变长码
5.4 变长信源 编码定理
2020/1/4
2
信息论与 编码
第 五 章 信 源 编 码
但不能低于符号熵;
第 五
达到这目标的途径就是使概率与码长匹配。
章 统计匹配编码:
信 根据信源的不同概率分布而选用与之匹配的编码,以
源 编
达到在系统中传信速率最小。

2020/1/4
12
信息论与
编码 无失真信源编码器
信源
码字
第 五
S:{s1, s2,…, sq}

信源编码器
C:{w1, w2,…, wq}
2020/1/4
5
信息论与 编码
(2) 信源编码的概念
西北大学信息学院
第 信源编码定义:指定能够满足信道特性/适合于信道传

信息论 基础理论与应用第三版(傅祖芸) 第5章 讲义

信息论 基础理论与应用第三版(傅祖芸) 第5章 讲义
l H ( S ) 2 N log r
则不可能实现无失真编码,当N趋向于无穷大时,译码错误 率接近于1。
•分析:定理中的条件式可写成
l log r NH (S )
左边: 长为 l 的码符号(码字)所能载荷的最大信息量; 右边: 长为N的信源符号序列平均携带的信息量。 因此,定理说明了:只要码字传输的最大信息量大于信源序 列携带的信息量,则可以实现无失真编码 。
第5章 无失真信源编码定理
5.1 编码器 5.2 等长码 5.4 等长信源编码定理 5.5 变长码 5.6 变长信源编码定理
引 言
信息通过信道传输到信宿的过程。要做到既不失真又快速地 通信,需要解决两个问题: 信源编码: 在不失真或允许一定失真条件下,提高信息传输率. 信道编码: 在信道受到干扰的情况下,增加信号的抗干扰能力,同时又 使得信息传输率最大.
信源 符号
码字
00: W1W1=B1
001:W1W2=B2 0001:W1W3=B3 0111:W1W4=B4
信源 符号
码字
010:W2W1=B5
信源 符号
码字
α1
α2 α3 α4
α5
: : :

: : α16

: :
111111:W4W4=B16
: : :
6、唯一可译码(单义可译码)
由码构成的任意一串有限长的码符号序列只能被唯一的 译成所对应的信源符号序列。 否则,就为非惟一可译码或非单义可译码。

最佳编码: 一般来说,抗干扰能与信息传输率二者相互矛盾。而编码 定理理论上证明,至少存在某种最佳的编码能够解决上述矛盾, 做到既可靠又有效地传输信息。 信源编码: 信源虽然多种多样,但无论是哪种类型的信源,信源符号 之间总存在相关性和分布的不均匀性,使得信源存在冗余度。 信源编码的目的就是要减少冗余,提高编码效率。

信息论与编码第五章部分PPT课件

信息论与编码第五章部分PPT课件
a
符号概率
pi
0.100(1/2)
符号累积概率
Pr
0.000(0)
b 0.010(1/4) 0.100(1/2)
c 0.001(1/8) 0.110(3/4)
d 0.001(1/8) 0.111(7/8)
译码
C(abda)=0.010111<0.1[0,0.1] 第一个符号为a 放大至[0,1](×pa-1):
可以纠正一位错码 dmin=3
可以纠正一位错码
可纠正一位错码同时 检出二位错码dmin=4
定理(1)能检出e个错码的条件是d0>=e+1;
(2)能纠正t个错码的条件是t=INT[(dmin-1)/2];
(3)能纠正t个错码,同时检出e个错码的条件是d0>=e+t+1。
刚才的发言,如 有不当之处请多指
正。谢谢大家!
2021/3/9
28
信源消息
符号ai
a1 a2 a3 a4 a5 a6 a7
符号概
率(ai)
0.20 0.19 0.18 0.17 0.15 0.10 0.01
累加概 -log p(ai)
率Pi
0 0.2 0.39 0.57 0.74 0.89 0.99
2.32 2.39 2.47 2.56 2.74 3.32 6.64
C ( ) 0, A( ) 1
C ( Sr
A
(
Sr
) )
C (S A(S
) )
pi
A(S
) Pr
L log 1 A(S )
C() 0, A() 1
C(Sr) A(Sr)
C(S) A(S)pi
A(S)Pr

信息论与编码第五章习题参考答案

信息论与编码第五章习题参考答案

5.1某离散无记忆信源的概率空间为采用香农码和费诺码对该信源进行二进制变长编码,写出编码输出码字,并且求出平均码长和编码效率。

解:计算相应的自信息量1)()(11=-=a lbp a I 比特 2)()(22=-=a lbp a I 比特 3)()(313=-=a lbp a I 比特 4)()(44=-=a lbp a I 比特 5)()(55=-=a lbp a I 比特 6)()(66=-=a lbp a I 比特 7)()(77=-=a lbp a I 比特 7)()(77=-=a lbp a I 比特根据香农码编码方法确定码长1)()(+<≤i i i a I l a I平均码长984375.164/6317128/17128/1664/1532/1416/138/124/112/1L 1=+=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=由于每个符号的码长等于自信息量,所以编码效率为1。

费罗马编码过程5.2某离散无记忆信源的概率空间为使用费罗码对该信源的扩展信源进行二进制变长编码,(1) 扩展信源长度,写出编码码字,计算平均码长和编码效率。

(2) 扩展信源长度,写出编码码字,计算平均码长和编码效率。

(3) 扩展信源长度,写出编码码字,计算平均码长和编码效率,并且与(1)的结果进行比较。

解:信息熵811.025.025.075.075.0)(=--=lb lb X H 比特/符号 (1)平均码长11=L 比特/符号编码效率为%1.81X)(H 11==L η(2)平均码长为84375.0)3161316321631169(212=⨯+⨯+⨯+⨯=L 比特/符号 编码效率%9684375.0811.0X)(H 22===L η(3)当N=4时,序列码长309.3725617256362563352569442569242562732562732256814=⨯+⨯+⨯⨯+⨯⨯+⨯⨯+⨯+⨯⨯+⨯=L平均码长827.04309.34==L %1.98827.0811.0X)(H 43===L η可见,随着信源扩展长度的增加,平均码长逐渐逼近熵,编码效率也逐渐提高。

信息论-第五章

信息论-第五章
当d ( y,u(0) ) min d ( y,u)时, u跑遍所有码字
将输出值 y译为码字 u(0)。
2024/10/2
14
§5.1 离散信道编码问题
命题 最大似然概率准则等价于最小距离准则。 证明
pN(y|u)=P(Y1=y1|U1=u1)P(Y2=y2|U2=u2)…P(YN=yN|UN=uN) =(p/(D-1))d(1-p)N-d,
记w(y)=P((Y1Y2…YN)=y)。我们知道
w( y) q(u) pN ( y | u); u跑遍所有的码字 (全概率公式)
b(u | y) q(u) pN ( y | u) w( y)
q(u) pN ( y | u) ;
q(c) pN ( y | c)
c跑遍所有的码字
(贝叶斯公式)
一些。发送哪个码字的条件下,最可能收到y,就认为发送 的是哪个码字。 最大似然概率准则(最小距离准则)的实现比最大后验概率 准则的实现更简单:前者只需要看哪个码字与y的Hamming 距离最小;后者需要知道各码字的概率分布,然后用贝叶 斯公式计算并比较后验概率。 两种准则都可以用在没有编码(直接发送)情况下的纠错译 码。
道响应特性,而且 pN(y|u)=P(Y1=y1|U1=u1)P(Y2=y2|U2=u2)…P(YN=yN|UN=uN) =(p/(D-1))d(1-p)N-d, 其中d是(y1y2…yN)与(u1u2…uN)对应位置值不相同的位数;
(以后将称d为Hamming距离)
2024/10/2
11
§5.1 离散信道编码问题
C40
p0 (1
p)4
C41
p1 (1
p)3
1 2
C42
p2 (1

信息论基础与编码(第五章)

信息论基础与编码(第五章)

5-1 有一信源,它有六种可能的输出,其概率分布如下表所示,表中给出了对应的六种编码12345C C C C C 、、、、和6C 。

(1) 求这些码中哪些是唯一可译码; (2) 求哪些是非延长码(即时码);(3) 对所有唯一可译码求出其平均码长。

解:(1(2)1,3,6是即时码。

5-2证明若存在一个码长为12,,,q l l l ⋅⋅⋅的唯一可译码,则一定存在具有相同码长的即时码。

证明:由定理可知若存在一个码长为Lq L L ,,2,1 的唯一可译码,则必定满足kraft 不等式∑=-qi l ir1≤1。

由定理44⋅可知若码长满足kraft 不等式,则一定存在这样码长的即时码。

所以若存在码长Lq L L ,,2,1 的唯一可译码,则一定存在具有相同码长P (y=0)的即时码。

5-3设信源126126()s s s S p p p P s ⋅⋅⋅⎡⎤⎡⎤=⎢⎥⎢⎥⋅⋅⋅⎣⎦⎣⎦,611i i p ==∑。

将此信源编码成为r 元唯一可译变长码(即码符号集12{,,,}r X x x x =⋅⋅⋅),其对应的码长为(126,,,l l l ⋅⋅⋅)=(1,1,2,3,2,3),求r 值的最小下限。

解:要将此信源编码成为 r 元唯一可译变长码,其码字对应的码长(l 1 ,l 2 ,l 3, l 4,l 5, l 6)=(1,1,2,3,2,3) 必须满足克拉夫特不等式,即132321161≤+++++=------=-∑r r r r r r ri li所以要满足122232≤++r r r ,其中 r 是大于或等于1的正整数。

可见,当r=1时,不能满足Kraft 不等式。

当r=2, 1824222>++,不能满足Kraft 。

当r=3,127262729232<=++,满足Kraft 。

所以,求得r 的最大值下限值等于3。

5-4设某城市有805门公务和60000门居民。

作为系统工程师,你需要为这些用户分配。

信息论与编码技术第五章课后习题答案

信息论与编码技术第五章课后习题答案

码,并求出其编码效率。
解:
信源符号 概率 编码
码字 码长
X1
3/8 0
0
1
X2
1/6 1
0
10 2
X3
1/8
1
11 2
X4
1/8 2
0
20 2
X5
1/8
1
21 2
X6
1/12
2
22 2
H(X)=-((3/8)*log(3/8)+(1/6)*log(1/6)+(1/8)*log(1/8)+(1/8)*log(1/8)+(1/8)*log(1/8)+(1/12)*log(1/12))
=2.3852 (三进制单位/信源符号)
H3(X)= H(X)/ 1.5850=2.3852/1.5850= 1.5049(三进制单位/信源符号)
L =(3/8)*1+ (1/6)*2+ (1/8)*2+ (1/8)*2+ (1/8)*2+ (1/12)*2=1.625(码符号/信源符号)
η= H3(X)/ L =1.5049/1.625= 92.61 %
5.8 已知符号集合 {x1, x2 , x3,"} 为无限离散消息集合,它们出现的概率分别为 p(x1) = 1/ 2 , p(x2 ) = 1/ 4 , p(x3 ) = 1/ 8 , p(xi ) = 1/ 2i ,……。
(1) 用香农编码方法写出各个符号消息的码字。 (2) 计算码字的平均信息传输速率。
L =4*(1/4)*1=1(码符号/信源符号)
Rt= H(X)/(t* L )=1/(1*10*10-2)=10(比特/秒)

信息论基础 第5章 限失真信源编码和率失真函数

信息论基础 第5章 限失真信源编码和率失真函数

构成一个码本,为对应信源的重构
定义5.1.2 率失真对(R,D)可达,若存在一个(2nR , n)率失真码
序列,满足
lim
n
Ed
(
X
n
,gn
(f
n
(X
n
)))
D
率失真区域:可达(R, D)的闭包
定义5.1.3 率失真函数:给定D时,R(D) min R ( R,D)可达 失真率函数:给定R时,D(R) min D ( R,D)可达
1
...
0
...
1
1
1
...
0
在二元情况下:
D
1 0
0
1
失真度和平均失真度
2:
2
d (xi , y j ) xi y j
3: d(xi , y j ) xi y j
平方误差失真 绝对失真
例1:对称信源n=m,定义失真度为:
2
d (xi , y j ) xi y j
当n=m=3时, X 0 1 2 Y 0 1 2
nm
D P(x, y)d (x, y)
P(xi )P( y j / xi )d (xi , y j )
X ,Y
i1 j 1
信息率失真函数及其性质
选择试验信道满足
p( y j | xi ) 1
j p( y j | xi ) 0
所有d (xi , y j ) 最小值的y j Y i 1, 2,L , m
失真度和平均失真度
长度为n的信源符号序列的失真度
定义:符号序列X N X1, X 2 ,L , X N ,其中每个随机变量Xi
取值于同一符号集 x1, x2 ,L , xn , X N共有nN个不同符号i, 而接收端的符号序列为Y N Y1,Y2,L ,YN ,Yj y1, y2,L , ym ,

信息论与编码第五章

信息论与编码第五章

ai 101111
j 111100
D( i , j ) 3
再定义,由0,1构成的二进制码C中,任意两个码字的汉明
距离的最小值称为该码C的最小距离,即:
Dmin min{ D(ci , c j )}
ci c j
ci , c j c
c(A) {000,111}
c(B) :{000,011,101,110} c(C) :{000,001,100,010}
左: H ( pE )
pE
log(r
1)
pE
log
1 pE
(1
1 pE ) log 1 pE
pE
log(r 1)
pE
log
r 1 (1 pE
1 pE ) log 1 pE
s r
r 1 s
1
p(aibj ) log
j1 i*
pE
j 1
i *
p(ai
bi
)
log
1
pE
右: H(x |
§5.1 译码规则和平均错误概率
信源符号编码后经信道传输到达信道的输出端并不表 示通信过程的终结,还要经过一个译码过程,或称判决过 程,才能到达消息的终端(信宿),因此,采用什么样的 译码规则,对通信系统的可靠性影响很大。
0 p 1/ 3
0
p
2/3
1
1
p
p(a 0 | b 0) p(a 1| b 1) p 1 3
s j 1
r i*
p(aibj
)
log
r 1 pE
s j 1
i*
p(ai
bi
)
log
1
1 pE
s j 1

信息论讲义-第五章(13讲)

信息论讲义-第五章(13讲)

信息理论基础第13讲北京航空航天大学201教研室陈杰21.编码器—信源符号集S =(s 1,s 2, …s q )—码符号集X =(x 1,x 2…x r )—代码组(Source Code ) C =(W 1, W 2,…W q )—码字(Codeword ) W i =(x l1,x l2,…x li )2. 分组码—奇异性(Non-singular )—唯一可译性(Uniquely decodable )—即时码(Instantaneous )All codesNon-singular codesUniquely decodable codesInstantaneous codesFigure 5.1. Classes of codes343. 定长编码3.1 唯一可译定长码编码速率编码效率log log L ql N r=≥log 1log q r +>log log L r R qN=≥()()log H S H S R qη=≤例:英文字符数q =27,且log 2q=4.754 bit 信源熵H (S )=4.03 bit ,取编码速率R=log 2q 则编码效率η=85%53. 定长编码3.2 定长码编码定理(1)正定理:(2)逆定理:log ()L rR H S Nε=≥+2[()]i E D I s p N ε≤log ()2L rR H S Nε=≤−12N E p ε−≥−0E p →1E p →63. 定长编码3.2 定长码编码定理根据正定理,令p E <δlog ()L rR H S Nε=≥+2[()]i E D I s p N δε≤<2[()]i D I s N εδ≥()H S Rη=()()H s H s ε≤+[]222()()(1)i D I s N H S ηηδ≥⋅−1()H s ηεη−=75.4 变长码•引入1. 变长码无需很长的码长就能实现高效率的无失真信源编码2.变长码必须是唯一可译码,才能实现无失真编码3.变长码是唯一可译码的充要条件:(1)非奇异码(2)任意有限次扩展码是非奇异码4. 变长码必须即时码85.4.1码的分类和主要编码方法信源编码方法:⑴匹配编码:概率大的信源符号,代码长度短;反之,代码长度长⑵变换编码:从一种空间变换成另一种空间,然后进行编码⑶识别编码:对有标准形状的文字、符号和数据进行编码9定理:设信源符号集为S=(s 1,s 2, …,s q,),码符号集为X=(x 1,x 2, …x r ),对信源进行编码,代码组C=(W 1,W 2, …W q ),相应码长分别l 1,l 2,…l q ,即时码存在(唯一可译码存在)的充要条件为:11≤∑=−qi l ir10释:(1)克拉夫特(Kraft)不等式为即时码存在充要条件(2)麦克米伦(McMilan )不等式为唯一可译码存在充要条件(3)该定理不能作为判别一种码是否为即时码(唯一可译码)的判据(4)当码字长度和码符号满足该不等式时,必可构造出即时码(唯一可译码)115.4.3 唯一可译码判别准则•唯一可译码:如果一个分组码对于任意有限的整数N ,其N 次扩展码均为非奇异码,则为唯一可译码•唯一可译码的充要条件:(见书上128页)121.码平均长度离散无记忆信源为编码后的码子码字的长度因为是唯一可译码,s i 和W i 一一对应则码字平均长度为[]1212()()()q q s s s S P p s p s p s ⎡⎤=⎢⎥⎣⎦""12,,,qW W W "ql l l ,,,21"()()i i p s p W =11()()q qi i i ii i L p W l p s l ====∑∑13释:(1)是每个信源符号编码需要的平均码符号个数;(2) 编码后,每个信源符号s i 平均用个码符号来表示,平均每个码符号携带的信息量是信道的信息传输率(3) 若传输一个码符号需要t 秒,则每秒传输率为故L L L s H X H R )()(==Ls H R t R t )(1==bit/码符号bit/秒L R t 信息传输率高2.紧致码定义:对于某一个信源和某一码符号集,若有一L个唯一可译码,其平均码长度小于所有其它唯一可译码的平均码长度,则称该码为紧致码(也称最佳码)•释:无失真信源编码核心问题是寻找紧致码14153.定理:(平均码长下界)设离散无记忆信源的信源熵为H (S ),用码符号集进行编码,则存在一种编码方式构成唯一可译码,平均码长满足[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""},,,{21q x x x X "=L rS H L r S H log )(1log )(+<≤16释:(1) 的极限值为,即下界;小于下界,则唯一可译码不存在(2) 当选择时,才能达到下界(3) 紧致码平均码长不一定达到下界(4) 达到下界的唯一可译码是紧致码(5) 紧致码最短码长L ()log H S r Llog ()log i i p s l r=−rS H L log )(=174 变长无失真信源编码定理(香农第一定理)定理:设离散无记忆信源其信源熵为H (S ),它的N 次扩展信源为[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""1212()()()N N qN q S P p p p αααααα⎡⎤⎡⎤=⎢⎥⎣⎦⎢⎥⎣⎦""18扩展信源熵为H (S N ),码符号集X =(x 1,x 2, …x r ),用X 对S N 编码,则总可以找到一种编码方法,构成唯一可译码,使信源S 中的每个信源符号所需要的码字平均长度满足或rS H N L N r S H N log )(1log )(≥>+)(1)(S H NL N S H r N r ≥>+19当时,则其中,是扩展信源中每个信源符号对应的平均码长式中,是对应的码字长度∞→N )(lim S H N L r N N =∞→rS H N L N N log )(lim =∞→N L i α1()Nq N i ii L p αλ==∑i λi α20释:对于平稳遍历的离散有记忆信源(如马尔可夫信源),有其中,为有记忆信源的极限熵N L N L 原始信源平均码长N次扩展信源编码后每原始信源符号的平均码长≥rH N L N N log lim ∞∞→=∞H5.4.4变长信源编码定理5.编码速率、编码效率、剩余度(1) 编码速率:变长编码的编码速率为 LN R= log r N (2) 编码效率:编码效率定义为H ( S ) NH r ( S ) NH ( S ) = = η= R LN LN log r(3) 剩余度:定长码的剩余度为NH r ( S ) γ = 1 −η = 1 − LN21例题 例5.2 设离散无记忆信源Ss2 ⎤ ⎡S ⎤ ⎡ s1 ⎢ P( S ) ⎥ = ⎢0.75 0.25⎥ ⎣ ⎦ ⎣ ⎦ 对信源S及其扩展信源进行二元变长编码, 求当信源扩展次数N=2,3,4时的平均码长和 编码效率。

信息论讲义-第五章(13讲)

信息论讲义-第五章(13讲)

信息理论基础第13讲北京航空航天大学201教研室陈杰21.编码器—信源符号集S =(s 1,s 2, …s q )—码符号集X =(x 1,x 2…x r )—代码组(Source Code ) C =(W 1, W 2,…W q )—码字(Codeword ) W i =(x l1,x l2,…x li )2. 分组码—奇异性(Non-singular )—唯一可译性(Uniquely decodable )—即时码(Instantaneous )All codesNon-singular codesUniquely decodable codesInstantaneous codesFigure 5.1. Classes of codes343. 定长编码3.1 唯一可译定长码编码速率编码效率log log L ql N r=≥log 1log q r +>log log L r R qN=≥()()log H S H S R qη=≤例:英文字符数q =27,且log 2q=4.754 bit 信源熵H (S )=4.03 bit ,取编码速率R=log 2q 则编码效率η=85%53. 定长编码3.2 定长码编码定理(1)正定理:(2)逆定理:log ()L rR H S Nε=≥+2[()]i E D I s p N ε≤log ()2L rR H S Nε=≤−12N E p ε−≥−0E p →1E p →63. 定长编码3.2 定长码编码定理根据正定理,令p E <δlog ()L rR H S Nε=≥+2[()]i E D I s p N δε≤<2[()]i D I s N εδ≥()H S Rη=()()H s H s ε≤+[]222()()(1)i D I s N H S ηηδ≥⋅−1()H s ηεη−=75.4 变长码•引入1. 变长码无需很长的码长就能实现高效率的无失真信源编码2.变长码必须是唯一可译码,才能实现无失真编码3.变长码是唯一可译码的充要条件:(1)非奇异码(2)任意有限次扩展码是非奇异码4. 变长码必须即时码85.4.1码的分类和主要编码方法信源编码方法:⑴匹配编码:概率大的信源符号,代码长度短;反之,代码长度长⑵变换编码:从一种空间变换成另一种空间,然后进行编码⑶识别编码:对有标准形状的文字、符号和数据进行编码9定理:设信源符号集为S=(s 1,s 2, …,s q,),码符号集为X=(x 1,x 2, …x r ),对信源进行编码,代码组C=(W 1,W 2, …W q ),相应码长分别l 1,l 2,…l q ,即时码存在(唯一可译码存在)的充要条件为:11≤∑=−qi l ir10释:(1)克拉夫特(Kraft)不等式为即时码存在充要条件(2)麦克米伦(McMilan )不等式为唯一可译码存在充要条件(3)该定理不能作为判别一种码是否为即时码(唯一可译码)的判据(4)当码字长度和码符号满足该不等式时,必可构造出即时码(唯一可译码)115.4.3 唯一可译码判别准则•唯一可译码:如果一个分组码对于任意有限的整数N ,其N 次扩展码均为非奇异码,则为唯一可译码•唯一可译码的充要条件:(见书上128页)121.码平均长度离散无记忆信源为编码后的码子码字的长度因为是唯一可译码,s i 和W i 一一对应则码字平均长度为[]1212()()()q q s s s S P p s p s p s ⎡⎤=⎢⎥⎣⎦""12,,,qW W W "ql l l ,,,21"()()i i p s p W =11()()q qi i i ii i L p W l p s l ====∑∑13释:(1)是每个信源符号编码需要的平均码符号个数;(2) 编码后,每个信源符号s i 平均用个码符号来表示,平均每个码符号携带的信息量是信道的信息传输率(3) 若传输一个码符号需要t 秒,则每秒传输率为故L L L s H X H R )()(==Ls H R t R t )(1==bit/码符号bit/秒L R t 信息传输率高2.紧致码定义:对于某一个信源和某一码符号集,若有一L个唯一可译码,其平均码长度小于所有其它唯一可译码的平均码长度,则称该码为紧致码(也称最佳码)•释:无失真信源编码核心问题是寻找紧致码14153.定理:(平均码长下界)设离散无记忆信源的信源熵为H (S ),用码符号集进行编码,则存在一种编码方式构成唯一可译码,平均码长满足[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""},,,{21q x x x X "=L rS H L r S H log )(1log )(+<≤16释:(1) 的极限值为,即下界;小于下界,则唯一可译码不存在(2) 当选择时,才能达到下界(3) 紧致码平均码长不一定达到下界(4) 达到下界的唯一可译码是紧致码(5) 紧致码最短码长L ()log H S r Llog ()log i i p s l r=−rS H L log )(=174 变长无失真信源编码定理(香农第一定理)定理:设离散无记忆信源其信源熵为H (S ),它的N 次扩展信源为[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""1212()()()N N qN q S P p p p αααααα⎡⎤⎡⎤=⎢⎥⎣⎦⎢⎥⎣⎦""18扩展信源熵为H (S N ),码符号集X =(x 1,x 2, …x r ),用X 对S N 编码,则总可以找到一种编码方法,构成唯一可译码,使信源S 中的每个信源符号所需要的码字平均长度满足或rS H N L N r S H N log )(1log )(≥>+)(1)(S H NL N S H r N r ≥>+19当时,则其中,是扩展信源中每个信源符号对应的平均码长式中,是对应的码字长度∞→N )(lim S H N L r N N =∞→rS H N L N N log )(lim =∞→N L i α1()Nq N i ii L p αλ==∑i λi α20释:对于平稳遍历的离散有记忆信源(如马尔可夫信源),有其中,为有记忆信源的极限熵N L N L 原始信源平均码长N次扩展信源编码后每原始信源符号的平均码长≥rH N L N N log lim ∞∞→=∞H5.4.4变长信源编码定理5.编码速率、编码效率、剩余度(1) 编码速率:变长编码的编码速率为 LN R= log r N (2) 编码效率:编码效率定义为H ( S ) NH r ( S ) NH ( S ) = = η= R LN LN log r(3) 剩余度:定长码的剩余度为NH r ( S ) γ = 1 −η = 1 − LN21例题 例5.2 设离散无记忆信源Ss2 ⎤ ⎡S ⎤ ⎡ s1 ⎢ P( S ) ⎥ = ⎢0.75 0.25⎥ ⎣ ⎦ ⎣ ⎦ 对信源S及其扩展信源进行二元变长编码, 求当信源扩展次数N=2,3,4时的平均码长和 编码效率。

(完整版)信息论第五章答案

(完整版)信息论第五章答案

5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。

解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。

%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。

解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。

信息论5

信息论5
i1 =1
r
r
( )
( ) −∑ p ( a ) log p ( a )
r i2 =1 i2 i2
……
− ∑ p aiN log p aiN
iN =1
( )
( )
= H ( X1 ) + H ( X 2 ) + ⋯ + H ( X N )
= NH ( X )
例 有一离散无记忆信源
X a1 P(x ) = 1 2
概率 P(α i )
1 1 1 1 1 1 1 1 1 4 8 8 8 16 16 8 16 16
(比特/符号) (比特/符号)
H ( X ) = 1.5
H X
( )= 3
2
2.6 离散平稳信源
信源发出的消息 =(…,X1,X2,…,Xi, …),其中 i表示 发出的消息X= 其中X 发出的消息 其中 t=i时刻所发出的符号 若 时刻所发出的符号,若 时刻所发出的符号
3)
H ( X ) 2.1 × 10 N= = = 158037 H(X ) 13.288
N 6
作业:15,16
i1
a i2 ⋯ a i N
)
= ∑∑ ⋯ ∑ p ai1 p ai2 ⋯ p aiN = ∑ p ai1
i1 =1 r
( )( ) ( )
i2 iN iN
( )∑ p(a )⋯ ∑ p(a ) = 1
的熵 H(X N ) 是单符号离散信源 [ X ⋅ P ]
− ∑ p(α i ) log p(α i ) = NH ( X )

离散二维平稳信源
联合概率 P (a i a
X 0 = 11 P(x ) 36
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

RB H ( X ) H ( X / Y ) H t ( X ) H t ( X / Y )
其中, RB为每秒钟传送的符号数,即码元传输速率。 Ts为传送一个符号所需的平均时间。
1 Rt I(X;Y) RB I ( X ; Y ) Ts
H t ( X ) RB H ( X ) 表示单位时间信源输出的信息量。
f(q)
f [p (1 )q]
f ( p) (1 ) f (q)
f(p)
p
p (1 ) q
q
p
2)信道容量的定义 对于某特定信道,可找到某种信源的概率分布p(ai), 使得 I(X;Y)达到最大。
C max I(X;Y) 单位: 比特 /符号 C t =R B * max I(X;Y) 单位:比特 /秒
图 5.3 二元无记忆对称信道
《信息论基础》
5.3 信道容量
一、信道的信息传输率
1、信息传输率R:信道中平均每个符号所能传送的信息量。
R = I (X;Y )= H (X)-
H(X/Y)
单位:bit/符号
2、信息传输速率Rt:信道中单位时间平均传送的信息量,即收 信者在单位时间内接收到的信息量。 单位:bit/秒
注:对于特定的信道,信道容量是个定值,但是在传 输信息时信道能否提供其最大传输能力,则取决于输 入端的概率分布。
当信道提供其最大传输能力时,相应的输入概
率分布称为最佳输入分布。
信道容量 C 只是信道传输概率的函数,只与信道的 统计特性有关, 而与输入信源的概率分布无关。 对于一个 特定的信道,其信道容量 C 是确定的,是不随输入信源 的概率分布变化而改变的。信道容量 C 取值的大小,直 接反映了信道质量的高低。 所以, 信道容量是完全描述信 道特性的参量,是信道能够传输的最大信息量。 能使平均互信息达到信道容量 C 的信源,称为匹配 信源。
C log2 0.5.0.3,0.2 0.8log0.8 0.2log0.4 0.036bit/ 符号
二. 串联信道及其信道容量
假设有一离散单符号信道 I,其输入变量为 X ,输出变量 Y ,并设另有 一离散单符号信道 II,其输入变量为 Y ,输出变量为 Z ,这两信道串接起来, 组成如图所示的串联信道。其中, X 取值于集合 {a1 , a2 , 合 {b1 , b2 ,
2) 信道容量
可以证明:
准对称信道取得信道容量时,输入符号分布为
等概分布。
即:准对称信道的最佳输入分布为等概分布。
准对称DMC信道信道容量的求解方法:
方法一:计算等概输入时的平均互信息。
方法二:将转移概率矩阵划分为n个互不相交的对 称的子集。根据下面的公式来计算。
C log r pij log pij N k log M k
该信道输入符号和输出符号的个数相同,都为r,且 正确的传输概率为1-p,错误概率p被均匀分给r-1个 输出符号,此类信道称为强对称信道或均匀信道,计 算信道容量。
解:
p p C log r Η p, , , r 1 r 1
3、准对称DMC信道
1) 定义:
准对称信道按列可以划分成几个互不相交的子集合, 而每个子矩阵(由子集所对应的信道转移矩阵中的列所组 成)具有下述性质: ( 1)每一行都是第一行的一种排列; ( 2)每一列都是第一列的一种排列。 则该信道为准对称1 2
YN 。
转移概率为
P(h k ) P( y1 y2
yN x1x2
xN )
(k 1,
, r N ) (h 1,
, sN )
多符号离散信道的传递矩阵
1 1 P( 1 1 ) 2 P( 1 2 ) r
N
2
P( 2 1 ) P( 2 2 )
可以证明,对于 N 个单符号信道组成的串联信道,若其输入输出变量之 间组成一个马尔可夫链,设信道的转移矩阵分别为 P 1, P 2, 的总信道转移矩阵为
, PN ,则串联信道
P总 P 1P 2
PN Pi
i 1
N
【例】 设有两个离散二元对称信道, 其组成的串联信道如图 5.8 所示,求该串联信道的信道容量。
二. 多符号离散信道的数学模型
由于信道输入的随机矢量 X 和输出的随机矢量 Y 往往不是确定关系, 信 道特性通常采用在输入已知的情况下输出的条件概率 P ( y | x) 来表示。离散信 道的数学模型如图所示,也可用数学符号表示为 {X, P(y | x), Y} ,其中信道输 入 X X1 X 2
从 数 学 上 来说 , 信 道容 量 C 就 是 平 均 互信 息 I [ P( x)] 在
P( x) 1 的约束条件下,对信源概率分布 P( x) 取条件极大值。
X
对于一般信道,信道容量的计算是比较复杂的,从数学上来 说, 就是对互信息 I ( X ; Y ) 求极大值的问题。 但对于某些特殊信道, 可利用其特点,运用信息理论的基本概念,简化信道容量的计算, 直接得到信道容量的数值。下面我们先讨论某些特殊离散信道的 信道容量,然后再讨论一般离散信道的信道容量的计算。
1 6 1 3
1 6 1 3
计算信道容量。 解:
1 1 1 1 C log 4 Η , , , 0.082bit / 符号 3 3 6 6
例题:
已知信道转移矩阵为
p p P r -1 p r -1
p p r -1 r - 1 p p r - 1 p p r -1
P( z x) P( y x) P( z y)
Y
(对所有 x,y,z)
称这两信道的输入和输出(即 X 、 Y 和 Z 序列)构成马尔可夫链,此时串联 信道的信道矩阵为
P ( z x ) P ( y x ) P( z y ) rt rs st
, ar } ,Y 取值于集
, bs } , Z 取值于集合 {c1 , c2 ,
, ct } 。信道 I 的转移概率记为
P( y x) P(b j ai ) ,而信道 II 的转移概率一般与前面 X 和 Y 都有关,记为 P( z xy) P(ck ai b j ) 。
若信道 II 的输出只与输入 Y 有关,与前面的输入 X 无关,即满足
根据下面的公式可以求得信道容量:
0.2 0.2
C log r pij log pij N k log M k
j 1 k 1
s
n
因为: r 2, N1 0.5 0.3 0.8, M1 0.5 0.3 0.8,
N 2 0.2, M 2 0.2 0.2 0.4, n 2 所以,信道容量为
【例 5.2】 已知某信道的转移概率矩阵为
1 2 P 1 2
1 2 1 4
0 1 4
试计算信道容量,并说明达到信道容量的最佳输入分布。
《信息论基础》
5.4 单符号离散信道及其信道容量
一、几种离散信道的信道容量: 1、无噪信道 2、对称信道 3、准对称信道
1、无噪信道:输入输出一一对应.
a1 a2 an b1 b2 bn
其信道转移概率为
1 0 0 0 1 0 P1 0 0 0 1
疑义度H(X/Y)=0 噪声熵H(Y/X)=0 I (X ;Y )= H (X )= H (Y ) 信道容量: C = max H(X)= max H(Y)
j 1 k 1
s
n
其中,r为输入符号集的个数; pij为信道矩阵任一行中的 元素; N k 为第k个子矩阵中行元素之和 ; M k 为第k个子矩阵中列元素之和 ;
0.5 0.3 0.2 已知信道转移矩阵为 P ,计算信道容量。 0.3 0.5 0.2
解:
例题:
0.5 0.3 将上面的信道矩阵分解为两个子集: 0 . 3 0 . 5
H t ( X / Y ) RB H ( X / Y )表示单位时间信道损失的信息量。
二、信道容量C
1)理论基础: 对于固定的信道,平均互信息 I ( X ; Y ) 是信源概率分布 P ( x) 的上凸函数。也就是说,存在一个使 某一特定信道的平均互信息达到极大值的信源分布,该极大 值可以用来表述信道传送信息的最大能力,即信道容量。
二元对称信道的串联信道
二. 串联信道及其信道容量
假设有一离散单符号信道 I,其输入变量为 X ,输出变量 Y ,并设另有 一离散单符号信道 II,其输入变量为 Y ,输出变量为 Z ,这两信道串接起来, 组成如图所示的串联信道。其中, X 取值于集合 {a1 , a2 , 合 {b1 , b2 ,
它表示接收到符号 Y 后,平均获得的信息量就是信源 发出每个符号所含的平均信息量,信道中无信息损失。所 以其信道容量为
C max I ( X ; Y ) max H ( X ) log r (比特 /符号)
P( x) P( x)
r 为输入信源 X 的符号个数。
这表明, 无噪信道的信道容量 C , 只取决于信源 X 的 符号数 r ,所以当信源等概率分布时信源熵 H ( X ) 最大。
1 3 1 2 1 6
1 6 1 3 1 2
2) 信道容量
当输入符号分布为等概分布时,取得信道容量
, p2 , log s H ( p1
) log s H (P的行矢量) , ps
1 3 已知信道转移矩阵为 P 1 6
例题:
1 3 1 6
2、对称离散信道
1) 定义:如果转移概率矩阵P的每一行包含同样元 素,则为输入对称矩阵;如果转移概率矩阵P的 每一列包含同样元素,则为输出对称矩阵;如果 输入输出都对称,则为对称离散信道。 例如:
相关文档
最新文档