《信息论》第五章
信息论第5章-1

log m K log m
L
K log m
K log m
22
二元编码:编码效率=编码后的信息传输率
定长编码
基本源编码:
对单个符号X进行编码, X∈{x1 ,x2 ,…, xn},输入符号 总共有 n 种 若对信源进行定长编码 Ki=K,实现无失真编码 (存在 唯一可译码)的条件——Kraft不等式
码 表 码0 00 01 10 11 码1 0 11 00 11 码2 0 10 00 01 码3 1 10 100 1000 码4 1 01 001 0001
11
信源符号 x1 x2 x3 x4
码的分类
奇异码 → 非唯一可译码
非奇异码中既有唯一可译码也有非唯一可译码
等长码:非奇异 → 唯一可译码 变长码:任意N次扩展码( N ≥ 1)均为非奇异码
第五章
信源编码
信源编码
5.1 信源编码的定义 5.2 无失真信源编码 5.3 限失真信源编码
5.4 常用信源编码方法简介
2
信源编码
5.1 信源编码的定义 5.2 无失真信源编码 5.3 限失真信源编码
5.4 常用信源编码方法简介
3
信源编码的定义
例:英文电报信源符号X={a,b,c…z,空格符,…},n=32。数字信道只允 许{0, 1}两种状态的信号,因此为了在数字信道中传输,需要对信源符 号进行编码
i i
i
码元符号/信源符号
L长符号序列编码: K K L L
p(x ) K
i i
Li
L
码元符号 /信源符号
编码后的信息传输率R:编码后平均每个码元传送的 信息量 H L ( X) H(X )
5--第5章信息论课件共47页PPT资料

信 源 编
码字:码符号序列Y=(Y1Y2…Yk…Yki)称为码字。
码长/码字长度: ki称为码字长度或简称码长。
码
编码就是从信源符号到码符号的一种映射。若
要实现无失真编码,这种映射必须是一一对应的,
可逆的。
2020/1/4
14
信息论与 编码
编码的定义
西北大学信息学院
一些码的定义
二元码:码符号集为X={0,1},所得码字都是一些二元序
西北大学信息学院
第5章
信源编码
2020/1/4
信息论与编码
1
信息论与
编码 CONTENT
西北大学信息学院
第
TEXT
TEXT
五
章
信 源
5.1
5.2
编 编码概念 等长码与
码
等长信源
编码定理
TEXT
TEXT
5.3 变长码
5.4 变长信源 编码定理
2020/1/4
2
信息论与 编码
第 五 章 信 源 编 码
但不能低于符号熵;
第 五
达到这目标的途径就是使概率与码长匹配。
章 统计匹配编码:
信 根据信源的不同概率分布而选用与之匹配的编码,以
源 编
达到在系统中传信速率最小。
码
2020/1/4
12
信息论与
编码 无失真信源编码器
信源
码字
第 五
S:{s1, s2,…, sq}
章
信源编码器
C:{w1, w2,…, wq}
2020/1/4
5
信息论与 编码
(2) 信源编码的概念
西北大学信息学院
第 信源编码定义:指定能够满足信道特性/适合于信道传
信息论第五章答案解析

5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码; (3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑= (2)(3)%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
解:%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:二进制哈夫曼码:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η三进制哈夫曼码:%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LKX H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制香农码:二进制费诺码:(3)香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η (4)(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
信息论第五章答案

5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
信息论-第五章

将输出值 y译为码字 u(0)。
2024/10/2
14
§5.1 离散信道编码问题
命题 最大似然概率准则等价于最小距离准则。 证明
pN(y|u)=P(Y1=y1|U1=u1)P(Y2=y2|U2=u2)…P(YN=yN|UN=uN) =(p/(D-1))d(1-p)N-d,
记w(y)=P((Y1Y2…YN)=y)。我们知道
w( y) q(u) pN ( y | u); u跑遍所有的码字 (全概率公式)
b(u | y) q(u) pN ( y | u) w( y)
q(u) pN ( y | u) ;
q(c) pN ( y | c)
c跑遍所有的码字
(贝叶斯公式)
一些。发送哪个码字的条件下,最可能收到y,就认为发送 的是哪个码字。 最大似然概率准则(最小距离准则)的实现比最大后验概率 准则的实现更简单:前者只需要看哪个码字与y的Hamming 距离最小;后者需要知道各码字的概率分布,然后用贝叶 斯公式计算并比较后验概率。 两种准则都可以用在没有编码(直接发送)情况下的纠错译 码。
道响应特性,而且 pN(y|u)=P(Y1=y1|U1=u1)P(Y2=y2|U2=u2)…P(YN=yN|UN=uN) =(p/(D-1))d(1-p)N-d, 其中d是(y1y2…yN)与(u1u2…uN)对应位置值不相同的位数;
(以后将称d为Hamming距离)
2024/10/2
11
§5.1 离散信道编码问题
C40
p0 (1
p)4
C41
p1 (1
p)3
1 2
C42
p2 (1
信息论与编码(第五章)

线性码
线性码是一类重要的纠错码,其生成矩阵和校验矩阵都是 线性矩阵。线性码具有较好的代数结构和高效的编码与解 码算法。
循环码
循环码是一类重要的纠错码,其生成多项式和校验多项式 都是循环的。循环码具有较低的编码复杂度和较好的检错 性能。
卷积码
卷积码是一种动态纠错码,适用于连续传输的信号。卷积 码通过对输入信号进行连续处理,能够提供更好的纠错性 能和更低的编码复杂度。
互信息的性质
互信息具有可加性、可 乘性和可数性,同时互 信息还具有非负性,即 对于任何两个随机变量 ,其互信息值都不小于 0。
条件互信息的概 念
条件互信息是在一个随 机变量给定的条件下, 两个随机变量之间的相 关性。
条件互信息的性 质
条件互信息具有可加性 、可乘性和可数性,同 时条件互信息还具有非 负性,即对于任何两个 随机变量和一个给定的 随机变量,其条件互信 息值都不小于0。
根据编码方式的不同,可以将纠错码分为卷积码和分组码。卷积码适 用于连续传输的信号,而分组码适用于离散的块状信号。
03
线性码
线性码的生成矩阵与校验矩阵
生成矩阵
线性码的生成矩阵是用于将信息比特 转化为码字的矩阵,其定义了码字的 生成方式。
校验矩阵
校验矩阵是用于计算码字校验位的矩 阵,通过校验矩阵可以确定码字的正 确性。
线性码的编码方法
线性编码
线性码的编码方法是将信息比特通过生成矩阵转换为码字的过程,生成的码字具有线性的性质。
编码规则
线性码的编码规则是按照特定的算法,将信息比特转换为具有固定长度的码字,确保生成的码字满足线性关系。
线性码的解码方法
错误检测与纠正
线性码的解码方法包括错误检测和纠正,通过校验矩阵可以检测出码字中的错误,并采取相应的措施 纠正错误。
信息论与编码第五章课后习题答案

第五章课后习题【5.1】某信源按43)0(=P ,41)1(=P 的概率产生统计独立的二元序列。
(1)试求0N ,使当0N N >时有01.005.0)()(≤≥−S H N I P i α 式中,)(S H 是信源的熵。
(2)试求当0N N =时典型序列集N G ε中含有的信源序列个数。
解:(1)该信源的信源熵为811.0)(log )()(=−=∑i i s p s p S H 比特/符号自信息的方差为4715.0811.04log 4134log 43)()]([)]([22222=−+=−=S H s I E s I D i i 根据等长码编码定理,我们知道δεα−≤≥−1)()(S H N I P i 根据给定条件可知,05.0=ε,99.0=δ。
而[]2)(εδN s I D i =因此[]5.19099.0*05.04715.0)(220==≥δεi s I D N 取1910=N 。
(2)ε典型序列中信源序列个数取值范围为:])([])([22)1(εεεδ+−<<−S H N N S H N G代入上述数值得451.164351.1452201.0<<×N G ε【5.2】有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A 、B 、C 、D 、E 和F 。
表5.2消息 )(i a P A B C D E F 1a 1/2 000 0 0 0 0 0 2a 1/4 001 01 10 10 10 100 3a 1/16 010 011 110 110 1100 101 4a 1/16 011 0111 1110 1110 1101 110 5a 1/16 100 01111 11110 1011 1110 111 6a1/1610101111111111011011111011(1) 求这些码中哪些是惟一可译码; (2) 求哪些码是非延长码(即时码); (3) 求对所有惟一可译码求出其平均码长L 。
信息论与编码第五章答案

|=<j “26 5 他 Q ①”(X)」— [0・20.19 0.18 0.17 0.15 0.1 0.01求信源^H(X), 编二进制香农码; 计算平均码长和编码效率.H(X)= -另/Xt/Jlogn p(di) i ・l=-0.2 x log 三 02 - 0」9 x log 0」9-0.18xlog 20.18-0.17xlog 20.17-0.15xlog 20.15-0.1xlog 20.1-0.01xlog 2 0.01 =2.609肋/ symbol⑵斤=丫出卩(齐)=0・2乂3 + 0」9x3 + 0」8x3 + 0」7x3 + 0.15x3 +0.1x4 + 0.01x7 = 3」4177 = Z yl£2 = H(X)/^ = 2.609^3.141 =83.1%对习题的信源编二进制费诺码,计算编码效率.解:设信源 1 2 3I ?:D /(\r = 2fc/X^) = 2x0_2 + 3x0_19+3x0_lg+2x0_17+3x0_15+ 4x01+4x001 = 274 R X 2_74019 01g 017 015 01编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率.解:X60110 4 X :101114r = 2fc /X^) = 2xO_2 + 2xO_19+3xO_18+3xOJ7+3xO_15+ 4x01+4x001 = 2_72就 K 2_72Xi p(xj编码码字kiS31StS11Xi22 1 -Yr(00 2 Xs101 2 Xi2022 i Xs■102 X61 11 2X :2122- 1_8- - 7;_12821m;一64 132耳116A-1 - 8比1-4-源言求信源^H(X),编二进制香农码和二进制费诺码;计算二进制香农码和二进制费诺码的平均码长和编码效率; 编三进制费诺码; 计算三进制费诺码的平均码长和编码效率;= 一迟卫(坊bg 2 pfc)=—xkig 22 十丄 xlog 2 4+ixkig 28+—xkig 216+—xlog 232+—xlog 264 + 24 8 163264= 1_9S4 Intfsymbol(2)X9/ \9/ \—/ \—/ \—/1 2 3 4 5军1 /(\ z/<\吉xlogg 十吉(3)香农编码效率:r = = + X4+J-X5 +—x6+—x7 + —X7 T r 2 4 8 16 32 64 128 128 =1_984"叽叫叫WO%R K 1_984费诺编码效率:^W=S = 1^4=100% 頁K 1_984X P(xJ■编码码字Xi0 0 ¥1x: 1 1 1xs (0 20 2XiA121 2Xs20 220 3X62 1 221%3Xr0 2220 4Xs ・2 1 2221 4⑸^=S^X^) = -xl+-xl+lx2+ —x2+—x3 + —x3+—x4+—x4 T z z 2 4 8 16 32 64128 128 1111110 mini 7= 1_9X4=13281^4 =^J%R X 1328x1^,3先把信源序列编成数字0, 1, 2,……,8,再替换成二进制变长码字,如下表所示.(1)验证码字的可分离性:(2)求对应于一个数字的信源序列的平均长度疋1;(3)求对应于一个码字的信源序列的平均长度毛:(4)计算$ ,并计算编码效率;(5)若用4位信源符号合起来编成二进制哈夫曼码,求它的平均码长乐,并讣算编码效率.有二元平稳马氏链,已知P(0/0)二,p(l/l)二,求它的符号爛•用三个符号合成一个来编写二进制哈夫曼码,求新符号的平均码字长度和编码效率.对题的信源进行游程编码•若“0”游程长度的截至值为16, “1”游程长度的截至值为8, 求编码效率.选择帧长A* = 64(1)对 00000000000000000000000000000000000000 適 L-D 码:(2)对 000000000010 遍 L-D 码再译码:(3)对 0000000000000000000000000000000000000000000000000000000000000000 遍 L-D 码:(4)对0遍L-D码:(5)对上述结果进行讨论.。
信息论与编码 第五章

i
i
i
1
2
3
N
1 N 1 ( b1 a 1 )( b 2 a 2 ) ( b N a N ) ( bi a i ) i 1 p(x ) 0
x ( bi a i )
i 1 N
N
x ( bi a i )
i 1
满足以上条件的多维连续信源称为在N维 区域体积中的均匀分布的 N维连续信源 下面计算N维均匀分布连续信源的相对熵 这里对于多维连续信源,其相对熵为:
2 1 2 2
令
h( X 1) h( X )
1 2 1 2
ln 2 e ln 2 e
2 1
2
2 2
他们分别为高斯随机变量各自的相对熵。上式中的 第三项是一个与相关系数有关的量。显然, 可见,对于二维高斯信源而言:
ln 1
2
0
h ( X ) h ( X 1 X 2 ) [ h ( X 1 ) h ( X 2 )]
f (x) 1 2 1 2
d
f ( ) e
j ( x )
d
可改写为
f (x)
{
f ( ) e
j
d }e
j x
d
现令
F ( )
1
f ( )e
j
d
则有
f (x) 2
F ( )e
j x
d
上式所示的F-反变换公式,由频谱函数 F ( )求 得其时间函数 f (t )。 F-变换和反变换是限时、限频 函数的抽样定理的主要数学工具。
信息论与编码第五章

ai 101111
j 111100
D( i , j ) 3
再定义,由0,1构成的二进制码C中,任意两个码字的汉明
距离的最小值称为该码C的最小距离,即:
Dmin min{ D(ci , c j )}
ci c j
ci , c j c
c(A) {000,111}
c(B) :{000,011,101,110} c(C) :{000,001,100,010}
左: H ( pE )
pE
log(r
1)
pE
log
1 pE
(1
1 pE ) log 1 pE
pE
log(r 1)
pE
log
r 1 (1 pE
1 pE ) log 1 pE
s r
r 1 s
1
p(aibj ) log
j1 i*
pE
j 1
i *
p(ai
bi
)
log
1
pE
右: H(x |
§5.1 译码规则和平均错误概率
信源符号编码后经信道传输到达信道的输出端并不表 示通信过程的终结,还要经过一个译码过程,或称判决过 程,才能到达消息的终端(信宿),因此,采用什么样的 译码规则,对通信系统的可靠性影响很大。
0 p 1/ 3
0
p
2/3
1
1
p
p(a 0 | b 0) p(a 1| b 1) p 1 3
s j 1
r i*
p(aibj
)
log
r 1 pE
s j 1
i*
p(ai
bi
)
log
1
1 pE
s j 1
信息论讲义-第五章(13讲)

信息理论基础第13讲北京航空航天大学201教研室陈杰21.编码器—信源符号集S =(s 1,s 2, …s q )—码符号集X =(x 1,x 2…x r )—代码组(Source Code ) C =(W 1, W 2,…W q )—码字(Codeword ) W i =(x l1,x l2,…x li )2. 分组码—奇异性(Non-singular )—唯一可译性(Uniquely decodable )—即时码(Instantaneous )All codesNon-singular codesUniquely decodable codesInstantaneous codesFigure 5.1. Classes of codes343. 定长编码3.1 唯一可译定长码编码速率编码效率log log L ql N r=≥log 1log q r +>log log L r R qN=≥()()log H S H S R qη=≤例:英文字符数q =27,且log 2q=4.754 bit 信源熵H (S )=4.03 bit ,取编码速率R=log 2q 则编码效率η=85%53. 定长编码3.2 定长码编码定理(1)正定理:(2)逆定理:log ()L rR H S Nε=≥+2[()]i E D I s p N ε≤log ()2L rR H S Nε=≤−12N E p ε−≥−0E p →1E p →63. 定长编码3.2 定长码编码定理根据正定理,令p E <δlog ()L rR H S Nε=≥+2[()]i E D I s p N δε≤<2[()]i D I s N εδ≥()H S Rη=()()H s H s ε≤+[]222()()(1)i D I s N H S ηηδ≥⋅−1()H s ηεη−=75.4 变长码•引入1. 变长码无需很长的码长就能实现高效率的无失真信源编码2.变长码必须是唯一可译码,才能实现无失真编码3.变长码是唯一可译码的充要条件:(1)非奇异码(2)任意有限次扩展码是非奇异码4. 变长码必须即时码85.4.1码的分类和主要编码方法信源编码方法:⑴匹配编码:概率大的信源符号,代码长度短;反之,代码长度长⑵变换编码:从一种空间变换成另一种空间,然后进行编码⑶识别编码:对有标准形状的文字、符号和数据进行编码9定理:设信源符号集为S=(s 1,s 2, …,s q,),码符号集为X=(x 1,x 2, …x r ),对信源进行编码,代码组C=(W 1,W 2, …W q ),相应码长分别l 1,l 2,…l q ,即时码存在(唯一可译码存在)的充要条件为:11≤∑=−qi l ir10释:(1)克拉夫特(Kraft)不等式为即时码存在充要条件(2)麦克米伦(McMilan )不等式为唯一可译码存在充要条件(3)该定理不能作为判别一种码是否为即时码(唯一可译码)的判据(4)当码字长度和码符号满足该不等式时,必可构造出即时码(唯一可译码)115.4.3 唯一可译码判别准则•唯一可译码:如果一个分组码对于任意有限的整数N ,其N 次扩展码均为非奇异码,则为唯一可译码•唯一可译码的充要条件:(见书上128页)121.码平均长度离散无记忆信源为编码后的码子码字的长度因为是唯一可译码,s i 和W i 一一对应则码字平均长度为[]1212()()()q q s s s S P p s p s p s ⎡⎤=⎢⎥⎣⎦""12,,,qW W W "ql l l ,,,21"()()i i p s p W =11()()q qi i i ii i L p W l p s l ====∑∑13释:(1)是每个信源符号编码需要的平均码符号个数;(2) 编码后,每个信源符号s i 平均用个码符号来表示,平均每个码符号携带的信息量是信道的信息传输率(3) 若传输一个码符号需要t 秒,则每秒传输率为故L L L s H X H R )()(==Ls H R t R t )(1==bit/码符号bit/秒L R t 信息传输率高2.紧致码定义:对于某一个信源和某一码符号集,若有一L个唯一可译码,其平均码长度小于所有其它唯一可译码的平均码长度,则称该码为紧致码(也称最佳码)•释:无失真信源编码核心问题是寻找紧致码14153.定理:(平均码长下界)设离散无记忆信源的信源熵为H (S ),用码符号集进行编码,则存在一种编码方式构成唯一可译码,平均码长满足[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""},,,{21q x x x X "=L rS H L r S H log )(1log )(+<≤16释:(1) 的极限值为,即下界;小于下界,则唯一可译码不存在(2) 当选择时,才能达到下界(3) 紧致码平均码长不一定达到下界(4) 达到下界的唯一可译码是紧致码(5) 紧致码最短码长L ()log H S r Llog ()log i i p s l r=−rS H L log )(=174 变长无失真信源编码定理(香农第一定理)定理:设离散无记忆信源其信源熵为H (S ),它的N 次扩展信源为[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""1212()()()N N qN q S P p p p αααααα⎡⎤⎡⎤=⎢⎥⎣⎦⎢⎥⎣⎦""18扩展信源熵为H (S N ),码符号集X =(x 1,x 2, …x r ),用X 对S N 编码,则总可以找到一种编码方法,构成唯一可译码,使信源S 中的每个信源符号所需要的码字平均长度满足或rS H N L N r S H N log )(1log )(≥>+)(1)(S H NL N S H r N r ≥>+19当时,则其中,是扩展信源中每个信源符号对应的平均码长式中,是对应的码字长度∞→N )(lim S H N L r N N =∞→rS H N L N N log )(lim =∞→N L i α1()Nq N i ii L p αλ==∑i λi α20释:对于平稳遍历的离散有记忆信源(如马尔可夫信源),有其中,为有记忆信源的极限熵N L N L 原始信源平均码长N次扩展信源编码后每原始信源符号的平均码长≥rH N L N N log lim ∞∞→=∞H5.4.4变长信源编码定理5.编码速率、编码效率、剩余度(1) 编码速率:变长编码的编码速率为 LN R= log r N (2) 编码效率:编码效率定义为H ( S ) NH r ( S ) NH ( S ) = = η= R LN LN log r(3) 剩余度:定长码的剩余度为NH r ( S ) γ = 1 −η = 1 − LN21例题 例5.2 设离散无记忆信源Ss2 ⎤ ⎡S ⎤ ⎡ s1 ⎢ P( S ) ⎥ = ⎢0.75 0.25⎥ ⎣ ⎦ ⎣ ⎦ 对信源S及其扩展信源进行二元变长编码, 求当信源扩展次数N=2,3,4时的平均码长和 编码效率。
信息论讲义-第五章(13讲)

信息理论基础第13讲北京航空航天大学201教研室陈杰21.编码器—信源符号集S =(s 1,s 2, …s q )—码符号集X =(x 1,x 2…x r )—代码组(Source Code ) C =(W 1, W 2,…W q )—码字(Codeword ) W i =(x l1,x l2,…x li )2. 分组码—奇异性(Non-singular )—唯一可译性(Uniquely decodable )—即时码(Instantaneous )All codesNon-singular codesUniquely decodable codesInstantaneous codesFigure 5.1. Classes of codes343. 定长编码3.1 唯一可译定长码编码速率编码效率log log L ql N r=≥log 1log q r +>log log L r R qN=≥()()log H S H S R qη=≤例:英文字符数q =27,且log 2q=4.754 bit 信源熵H (S )=4.03 bit ,取编码速率R=log 2q 则编码效率η=85%53. 定长编码3.2 定长码编码定理(1)正定理:(2)逆定理:log ()L rR H S Nε=≥+2[()]i E D I s p N ε≤log ()2L rR H S Nε=≤−12N E p ε−≥−0E p →1E p →63. 定长编码3.2 定长码编码定理根据正定理,令p E <δlog ()L rR H S Nε=≥+2[()]i E D I s p N δε≤<2[()]i D I s N εδ≥()H S Rη=()()H s H s ε≤+[]222()()(1)i D I s N H S ηηδ≥⋅−1()H s ηεη−=75.4 变长码•引入1. 变长码无需很长的码长就能实现高效率的无失真信源编码2.变长码必须是唯一可译码,才能实现无失真编码3.变长码是唯一可译码的充要条件:(1)非奇异码(2)任意有限次扩展码是非奇异码4. 变长码必须即时码85.4.1码的分类和主要编码方法信源编码方法:⑴匹配编码:概率大的信源符号,代码长度短;反之,代码长度长⑵变换编码:从一种空间变换成另一种空间,然后进行编码⑶识别编码:对有标准形状的文字、符号和数据进行编码9定理:设信源符号集为S=(s 1,s 2, …,s q,),码符号集为X=(x 1,x 2, …x r ),对信源进行编码,代码组C=(W 1,W 2, …W q ),相应码长分别l 1,l 2,…l q ,即时码存在(唯一可译码存在)的充要条件为:11≤∑=−qi l ir10释:(1)克拉夫特(Kraft)不等式为即时码存在充要条件(2)麦克米伦(McMilan )不等式为唯一可译码存在充要条件(3)该定理不能作为判别一种码是否为即时码(唯一可译码)的判据(4)当码字长度和码符号满足该不等式时,必可构造出即时码(唯一可译码)115.4.3 唯一可译码判别准则•唯一可译码:如果一个分组码对于任意有限的整数N ,其N 次扩展码均为非奇异码,则为唯一可译码•唯一可译码的充要条件:(见书上128页)121.码平均长度离散无记忆信源为编码后的码子码字的长度因为是唯一可译码,s i 和W i 一一对应则码字平均长度为[]1212()()()q q s s s S P p s p s p s ⎡⎤=⎢⎥⎣⎦""12,,,qW W W "ql l l ,,,21"()()i i p s p W =11()()q qi i i ii i L p W l p s l ====∑∑13释:(1)是每个信源符号编码需要的平均码符号个数;(2) 编码后,每个信源符号s i 平均用个码符号来表示,平均每个码符号携带的信息量是信道的信息传输率(3) 若传输一个码符号需要t 秒,则每秒传输率为故L L L s H X H R )()(==Ls H R t R t )(1==bit/码符号bit/秒L R t 信息传输率高2.紧致码定义:对于某一个信源和某一码符号集,若有一L个唯一可译码,其平均码长度小于所有其它唯一可译码的平均码长度,则称该码为紧致码(也称最佳码)•释:无失真信源编码核心问题是寻找紧致码14153.定理:(平均码长下界)设离散无记忆信源的信源熵为H (S ),用码符号集进行编码,则存在一种编码方式构成唯一可译码,平均码长满足[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""},,,{21q x x x X "=L rS H L r S H log )(1log )(+<≤16释:(1) 的极限值为,即下界;小于下界,则唯一可译码不存在(2) 当选择时,才能达到下界(3) 紧致码平均码长不一定达到下界(4) 达到下界的唯一可译码是紧致码(5) 紧致码最短码长L ()log H S r Llog ()log i i p s l r=−rS H L log )(=174 变长无失真信源编码定理(香农第一定理)定理:设离散无记忆信源其信源熵为H (S ),它的N 次扩展信源为[]1212()()()q q s s s SP p s p s p s ⎡⎤=⎢⎥⎣⎦""1212()()()N N qN q S P p p p αααααα⎡⎤⎡⎤=⎢⎥⎣⎦⎢⎥⎣⎦""18扩展信源熵为H (S N ),码符号集X =(x 1,x 2, …x r ),用X 对S N 编码,则总可以找到一种编码方法,构成唯一可译码,使信源S 中的每个信源符号所需要的码字平均长度满足或rS H N L N r S H N log )(1log )(≥>+)(1)(S H NL N S H r N r ≥>+19当时,则其中,是扩展信源中每个信源符号对应的平均码长式中,是对应的码字长度∞→N )(lim S H N L r N N =∞→rS H N L N N log )(lim =∞→N L i α1()Nq N i ii L p αλ==∑i λi α20释:对于平稳遍历的离散有记忆信源(如马尔可夫信源),有其中,为有记忆信源的极限熵N L N L 原始信源平均码长N次扩展信源编码后每原始信源符号的平均码长≥rH N L N N log lim ∞∞→=∞H5.4.4变长信源编码定理5.编码速率、编码效率、剩余度(1) 编码速率:变长编码的编码速率为 LN R= log r N (2) 编码效率:编码效率定义为H ( S ) NH r ( S ) NH ( S ) = = η= R LN LN log r(3) 剩余度:定长码的剩余度为NH r ( S ) γ = 1 −η = 1 − LN21例题 例5.2 设离散无记忆信源Ss2 ⎤ ⎡S ⎤ ⎡ s1 ⎢ P( S ) ⎥ = ⎢0.75 0.25⎥ ⎣ ⎦ ⎣ ⎦ 对信源S及其扩展信源进行二元变长编码, 求当信源扩展次数N=2,3,4时的平均码长和 编码效率。
(完整版)信息论第五章答案

5.1 设信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;(3) 计算平均码长和编码效率。
解: (1)symbolbit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()(log )()(2222222712=⨯+⨯+⨯+⨯+⨯+⨯+⨯-=-=∑=%1.8314.3609.2)()(14.301.071.0415.0317.0318.0319.032.03)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.2 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制费诺码,计算编码效率。
%2.9574.2609.2)()(74.201.041.0415.0317.0218.0319.032.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η5.3 对信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡01.01.015.017.018.019.02.0)(7654321x x x x x x x X P X 编二进制和三进制哈夫曼码,计算各自的平均码长和编码效率。
解:%9.9572.2609.2)()(72.201.041.0415.0317.0318.0319.022.02)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η%4.913log 8.1609.2log )()(8.1)01.01.015.017.018.019.0(22.01)(22=⨯====+++++⨯+⨯==∑m LK X H R X H x p k K ii i η5.4 设信源⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);(2) 编二进制香农码和二进制费诺码;(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;(5) 计算三进制费诺码的平均码长和编码效率;解: (1)symbolbit x p x p X H i i i /984.1128log 1281128log 128164log 64132log 32116log 1618log 814log 412log 21)(log )()(22222222812=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=-=∑==127/64 bit/symbol (2)二进制费诺码:香农编码效率:%100984.1984.1)()(64/127984.17128171281664153214161381241121)(======⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η费诺编码效率:%100984.1984.1)()(984.17128171281664153214161381241121)(=====⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑KX H R X H x p k K ii i η(5)%3.943log 328.1984.1log )()(328.14128141281364133212161281141121)(22=⨯=⋅===⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯==∑m K X H R X H x p k K ii i η5.5 设无记忆二进制信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡1.09.010)(X P X先把信源序列编成数字0,1,2,……,8,再替换成二进制变长码字,如下表所示。
信息论 基础理论与应用第三版(傅祖芸) 第5章 讲义

则不可能实现无失真编码,当N趋向于无穷大时,译码错误 率接近于1。
•分析:定理中的条件式可写成
l log r NH (S )
左边: 长为 l 的码符号(码字)所能载荷的最大信息量; 右边: 长为N的信源符号序列平均携带的信息量。 因此,定理说明了:只要码字传输的最大信息量大于信源序 列携带的信息量,则可以实现无失真编码 。
第5章 无失真信源编码定理
5.1 编码器 5.2 等长码 5.4 等长信源编码定理 5.5 变长码 5.6 变长信源编码定理
引 言
信息通过信道传输到信宿的过程。要做到既不失真又快速地 通信,需要解决两个问题: 信源编码: 在不失真或允许一定失真条件下,提高信息传输率. 信道编码: 在信道受到干扰的情况下,增加信号的抗干扰能力,同时又 使得信息传输率最大.
信源 符号
码字
00: W1W1=B1
001:W1W2=B2 0001:W1W3=B3 0111:W1W4=B4
信源 符号
码字
010:W2W1=B5
信源 符号
码字
α1
α2 α3 α4
α5
: : :
:
: : α16
:
: :
111111:W4W4=B16
: : :
6、唯一可译码(单义可译码)
由码构成的任意一串有限长的码符号序列只能被唯一的 译成所对应的信源符号序列。 否则,就为非惟一可译码或非单义可译码。
最佳编码: 一般来说,抗干扰能与信息传输率二者相互矛盾。而编码 定理理论上证明,至少存在某种最佳的编码能够解决上述矛盾, 做到既可靠又有效地传输信息。 信源编码: 信源虽然多种多样,但无论是哪种类型的信源,信源符号 之间总存在相关性和分布的不均匀性,使得信源存在冗余度。 信源编码的目的就是要减少冗余,提高编码效率。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
=1 3
7
结论:错误概率不仅与信道的统计特性有关,而且与译 结论:错误概率不仅与信道的统计特性有关, 码规则有关. 码规则有关. 我们来定义译码规则 设信道的输入符号集为X =1, 设信道的输入符号集为X={ ai},i =1,2,…,r ; 输出符号集为Y =1, 输出符号集为Y= {bj},j =1,2,…,s. 制定译码规则就是设计一个单值函数F ),它对于 制定译码规则就是设计一个单值函数F(bj),它对于 每一个输出符号b 确定一个唯一的输入符号a 每一个输出符号bj确定一个唯一的输入符号ai与其对应 . F(bj)= ai 即 i =1,2,…,r =1, j =1,2,…,s =1, 种译码规则可供选择. 注:对于同一有噪信道共有 r s 种译码规则可供选择.
15
编码1 编码1:将每个码元重复三次 纠正任一位上的错误 设码字记为 (c8c7c6c5c4c3c2c1c0 ) 由编码方法知
c8 = c7 = c6 c5 = c4 = c3 c2 = c1 = c0
纠错: c c 位出错. 纠错:如果 8 = c6 ≠ c7,则 7位出错.在同一组中以 相同二 — ( ). 元数多的为正确 — — —大数判决法 择多译码"规则 "择多译码"
3×10-4 2×10-2 2.23×10-2 7.8×10-4 3×10-2 × × × × ×
14
错误概率与编码方法
重复发送——大数判决规则 重复发送——大数判决规则 信息数据 000 001 010 011 100 101 110 111 编码1 编码1 000000000 000000111 000111000 000111111 111000000 111000111 111111000 111111111 编码2 编码2 000000000 001001001 010010010 011011011 100100100 101101101 110110110 111111111
≥
p(ai bj ) p(bj ) p(bj )
p(a*bj ) ≥ p(ai bj ) p(a* ) p(bj a* ) ≥ p(ai ) p(bj ai )
12
则最大后验概率准则可另表述为 选择译码函数 F(bj ) = a* , a* ∈ X, bj ∈Y 使成立
p(a* ) p(bj a* ) ≥ p(ai ) p(bj ai )
最大似然译码准则(最大后验概率准则特例) 最大似然译码准则(最大后验概率准则特例) 特例 设输入符号的先验概率等概, 设输入符号的先验概率等概,选择译码函数 使成立
F(bj ) = a* , a* ∈ X, bj ∈Y
p(bj a* ) ≥ p(bj ai )
ai ∈ X, ai ≠ a*
译码: 译码:当收到 bj 后,译成信道矩阵中第 j 列中最大 的元素所对应的信源符号. 的元素所对应的信源符号.
19
M = 4 第Ⅱ种 0 0 0 1 0 0 1 0 0 1 0 0
000 p3 2 p p 2 p2 p p p
001 p p p
3 2 2 2
010 p p pp p
2 3 2 2
011 100 101 110 111 pp
2 2 2
000 001 010 100
p p pp pp p
13
最大后验概率准则: 依赖于先验概率p 最大后验概率准则 : 依赖于先验概率 p(ai) 和信 道传递概率p 道传递概率p(bj|ai)选定译码函数. 选定译码函数. 最大似然译码准则: 最大似然译码准则 : 直接从信道矩阵的传递概 率中去选定译码函数. 率中去选定译码函数. 当先验概率p 为等概率分布时, 当先验概率 p(ai) 为等概率分布时 , 最大似然译 码准则与最大后验概率准则等价. 码准则与最大后验概率准则等价. 平均错误概率P 与译码规则(译码函数)有关. 平均错误概率PE与译码规则(译码函数)有关. 而译码规则又由信道特性来决定. 而译码规则又由信道特性来决定. 费诺不等式 H(X | Y)≤H(PE)+ PE log (r-1) (r
码字长度 n 消息数 M 码的最小距离 Dmin 信息传输速率R 信息传输速率 比特/符号 符号) (比特 符号) 错误概率PE 错误概率 (最大似然译码) 最大似然译码)
3 2 3 1/3
3 4 2 2/3
3 4 1 2/3
5 4 3 2/5
码 E 000 001 010 011 100 101 110 111 3 8 1 1
18
M = 4 第Ⅰ种 0 0 1 1 0 1 0 1 0 1 1 0
0.01 0.01
0.99
错误概率 p = 0 .01 正确概率 p = 0.99 必有 p > p p > p p 2 > p 3
3 2
0.99
最大似然译码规则下,计算平均错误概率P 最大似然译码规则下,计算平均错误概率PE=?
20
在选择编码规则时,要使码字之间的最小距离Dmin越大 在选择编码规则时,要使码字之间的最小距离D 越好. 越好. 结论:错误概率与编码方法有关. 结论:错误概率与编码方法有关.
21
码字
码 A 000 111
码 B 000 011 101 110
码 C 000 001 010 100
码 D 00000 01101 10111 11010
译码规则总数为: 译码规则总数为: r s = 27
9
目标:在 r s 个规则中找到理想的一个. 个规则中找到理想的一个. 目标: 原则:使平均错误概率最小. 原则:使平均错误概率最小. 平均错误概率 PE 如何计算? 如何计算?
a 发送符号为 i: 正确译码 F(bj ) = ai a 发送符号非 i: 错误译码
10
平均错误概率P 平均错误概率PE : 对输出空间Y 条件错误概率 p(e bj ) 对输出空间Y 取统计平均
PE = E[ p(e bj )] = ∑ p(bj ) p(e bj )
物理意义:译码后平均收到一个符号所产生的错误的大小 物理意义:
m PE = m ∑ p(bj )P(e bj ) in in
以上这两种重复码编码后的信息传输率相同为
R= log M log 8 1 = = n 9 3 (bit / 码符号 )
但纠错能力不同,平均错误概率不同. 错误概率不同 但纠错能力不同,平均错误概率不同. 如何选择编码规则呢? 如何选择编码规则呢? 例:对 4个等概消息编码
M = 4 第Ⅰ种 0 0 1 1 0 1 0 1 0 1 1 0 M = 4 第Ⅱ种 0 0 0 1 0 0 1 0 0 1 0 0
第五章 信道编码
1
本章主要内容
错误概率与译码规则 错误概率与编码方法 信道编码定理
2
信源
信源 编码器
u
信道 编码器
x
信道 干扰
信宿
信源
信道编码 目的:提高抗干扰能力,使差错率最小. 目的:提高抗干扰能力,使差错率最小. 实质:增加冗余度,扩大信号空间,增大信 实质:增加冗余度,扩大信号空间, 号间距离. 号间距离. 重要意义:通过信道编码的方法,可以用不 重要意义:通过信道编码的方法, 可靠的信道实现可靠的传输. 可靠的信道实现可靠的传输.
译码 1 0
正确概率 错误概率
0 0 1 1
0 1 1 0
1 0 0 1
(0)
pe(0) = 1/3 p(0)= 2/3 pe(1) = 1/3 p(1)= 2/3
则在此译码器下,平均错误概率为(设输入为等概) 则在此译码器下,平均错误概率为(设输入为等概)
pE = p(0) pe + p(1) pe
p 满足 (a* bj ) ≥ p(ai bj ), ai ∈ X, ai ≠ a*
译码:将每一个输出符号译成具有最大后验概率的 译码: 输入符号,则信道的错误概率此时最小. 输入符号,则信道的错误概率此时最小. 分析: 分析: *
p(a bj ) ≥ p(ai bj )
* i
p(ai bj ) p(bj ) p(bj )
j =1 s
s
j =1
in in m P(e bj ) = m [ 1 p[F(bj ) bj ]] ax m p[F(bj ) bj ]
要使P 最小就应该选择p 要使PE 最小就应该选择p[F(bj)|bj]为最大 . )|b
11
最大后验概率准则(最小错误概率准则) 最大后验概率准则(最小错误概率准则) 选择译码函数: (bj ) = a* , a* ∈ X, bj ∈Y 选择译码函数:F
"择多译码"规则的依据: 连续出现两个错误的概 择多译码"规则的依据: 率 远远小于出现一个错误的概率. 远远小于出现一个错误的概率.
16
编码2 编码2:将每个码字重复三次 纠正任一位上的错误 纠正连续三位和三位以下码元的错误 由编码方法知
c8 = c5 = c2 c7 = c4 = c1 c6 = c3 = c0
收到符号b 收到符号bj 条件下译码正确的条件概率为
p[F(bj ) bj ] = p(ai bj )
为条件错误概率, 令p(e bj )为条件错误概率, e F 其中 是除 (bj ) = ai以外所有输入符号的集 . 合
p(e bj ) = 1 p(ai bj ) = 1 p[F(bj ) bj ]
8
例5.1: 5.1:
b1
b2
b3
a1 0.5 0.3 0.2 P = a2 0.2 0.3 0.5 a3 0.3 0.3 0.4
可设计译码准则 译码准则 A:
F(b1 ) = a1 F(b2 ) = a2 F(b3 ) = a3
译码准则 B: