信息论与编码 第四章 (1)
信息论与编码 第四章

4. 信息率失真函数 R(D)
R( D) = min I ( X ; Y )
PD '
�
说明:
n pij ∈pD ' m
对于离散无记忆信源, R(D)函数可写成
R(D) = min ∑∑ p(xi ) p( y j / xi ) log
i=1 y j )
例4-1-2
�
说明: Dk是第k个符号的平均失真。
4.1.3 信息率失真函数 R(D)
�
1. 信息率失真函数R(D)问题产生? 对于信息容量为 C 的信道传输信息传输率为 R的信源时,如果R>C,就必须对信源压缩, 使其压缩后信息传输率R 小于信道容量 C ,但 同时要保证压缩所引人的失真不超过预先规定 的限度,信息压缩问题就是对于给定的信源,在 满足平均失真
■
2. R(D)函数的下凸性和连续性
定理 R(D)在定义域内是下凸的 证明: 令
�
D = αD'+(1 − α)D' ' , 0 ≤α ≤1 R(D' ) = min I ( pij ) = I ( p'ij )
pij∈pD'
α
其中: p 是使I(Pij)达到极小值的 证D≤D’。
' ij
p ij ,且保
说明: (1) 由于xi和yj都是随机变量,所以失真函 数d(xi,yj)也是随机变量,限失真时的失真 值,只能用它的数学期望或统计平均值,因 此将失真函数的数学期望称为平均失真。
�
�
(2) p(xi,yj), i=1,2,…,n, j=1,2,…,m是联合分布; p(xi)是信源 符号概率分布; p(yj /xi),i= l, 2,…,n,j= l,2,…,m是转移概率 分布;d(xi,yj),i=1,2,…, n,j=1,2,… ,m是离散随机变量的 失真函数. (3)平均失真 D是对给定信源分布 p(xi) 在给定转移概率分布为 p(yj/xi)的信 道中传输时的失真的总体量度。
信息论与编码第三版 第4章

p( x)
信息论与编码
3. 根据平均互信息量I(X; Y)达到信道容量的充要条件式对C进行验证:
p ( y j ) p ( xi ) p ( y j / xi )
i 1 3
1 P 0 0
0 1/ 2 0
0 1/ 2 0
0 0 1/6
x1 x2 x3 x4 x5
1 1 1 1 1
y1 y2 y3 y4 y5
1 0 P 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
【解】 该信道的信道容量为:
C max I ( X ; Y ) max H ( X ) log 5
C max I ( X ; Y ) max H (Y )
p( x) p( x)
由于
p( y ) p( x) p( y / x),由于信道转移概率是确定的,求使H (
X
Y)
达到最大值的p ( x )的最佳分布就转化为求p ( y )的最佳分布。由极大离 散熵定理知,在p ( y )等概率分布时,H ( Y ) 达到最大,则
I ( x2 ; Y ) p ( y j / x2 ) log
j 1 2
p ( y j / x2 ) p( y j ) p ( y j / x3 ) p( y j ) p ( y j / x4 ) p( y j ) p ( y j / x5 ) p( y j )
1 log
1 1/ 2
log 2
I ( x3 ; Y ) p ( y j / x3 ) log
j 1 2
1 log
信息论与编码习题答案-曹雪虹

3-14
信源 符号 xi x1 x2 x3 x4 x5 x6 x7
符号概 率 pi 1/3 1/3 1/9 1/9 1/27 1/27 1/27 1/3 1/3 1/9 1/9 2/27 1/27 1/3 1/3 1/9 1/9 1/9
编码过程
编码 1/3 1/3 1/3 2/3 1/3 00 01 100 101 111 1100 1101
得p0p1p223当p0或p1时信源熵为0第三章无失真信源编码31321因为abcd四个字母每个字母用两个码每个码为05ms所以每个字母用10ms当信源等概率分布时信源熵为hxlog42平均信息传递速率为2信源熵为hx0198bitms198bitsbitms200bits33与上题相同351hu12log2?14log4?18log8?116log16?132log32?164log64?1128log128?1128log128?1984111111112481632641281282每个信源使用3个二进制符号出现0的次数为出现1的次数为p0p134相应的香农编码信源符号xix1x2x3x4x5x6x7x8符号概率pi12141811613216411281128累加概率pi00507508750938096909840992logpxi12345677码长ki12345677码字010110111011110111110111111011111110相应的费诺码信源符号概符号xi率pix1x2x3x4x5x6x7x812141811613216411281128111第一次分组0第二次分组0第三次分组0第四次分组0第五次分组011第六次分组01第七次分组01二元码0101101110111101111101111110111111105香农码和费诺码相同平均码长为编码效率为
信息论与编码课件(第四章)

• 信源编码基本思想:尽可能缩短出现概率大的信 源符号的码字
电气信息工程学院
4.1 编码器及码的分类
• 码的分类 • 二元码:若码符号集X={0,1},所得码字为一
些二元序列,则称二元码。[在二元信道中传输]
• 允许错误概率越小,编码效率要求越高,则信源 序列长度N就必须越长。
• 实际情况下,要实现几乎无失真的等长编码,N 需要非常大。
电气信息工程学院
4.4 等长信源编码定理
• 例 设离散无记忆信源
S P(s)
s1 3
4
, ,
s2 1 4
• 信源熵 H (S)1lo4 g3lo4g 0.81 (b1istym ) bol • 自信息方差 4 4 3
• 编码的意义: • 通信的基本问题:如何高速、高质地传送信息。 • 高速和高质=鱼和熊掌。 • 编码讨论的问题: • (1)质量一定,如何提高信息传输速度(提高
编码效率或压缩比)---- 信源编码(本章讨论 问题) • (2)信道传输速度一定,如何提高信息传输质 量(抗干扰能力)----信道编码(下一章讨论)
• 当进行二元编码时,r=2,则:
等长编码时平均每个 信源符号所需的二元 码符号的理论极限
l H(S)
N
信源等 概分布
l log q N
时
• 一般情况下,信源符号并非等概率分布,且符号
之间有很强的关联性,故信源的熵H(S)<<logq。
电气信息工程学院
4.4 等长信源编码定理
• 从定理4.3可知,在等长编码中每个信源符号平 均所需的二元码符号可大大减少,从而使编码效 率提高。
信息论与编码(第四章PPT)

变长编码
l p( si )li (码元 / 信源符号).
i 1
编码速率:编码后每个信源符号所能承载的的最大信 息量
R l log m(比特 / 码符号).
编码效率:
H(X ) H(X ) . R l log m
码的多余度(剩余度):
l H ( X ) / log m 1 . l
0级节点
0 1 1 2 2
1级节点
2 0 1 2
w1
0
0
w2 w3 w4 w8
w5
2
2级节点
1
0 1
3级节点
w6 w7
w9
w10
w11
26
4.3
r
变长编码
克拉夫不等式( L.G.Kraft, 1949) 长度为l1, l2,…,lr的m元 即时码存在的充分必要条件是:
li m 1 i 1
唯一可译码: 任意有限长的码元序列,只能被唯一地分割成一个一个的 码字,则称为唯一可译码,或单义可译码. 否则,就称为非 唯一可译码, 或非单义可译码. 例:码4是唯一可译码: 1000100 1000, 100 码3是非唯一可译码: 100010010, 00, 10, 0 或10, 0, 01, 00 或10, 0, 01, 00
麦克米伦定理(麦克米伦: B. McMillan, 1956). 长度为l1, l2,…,lr的m元唯一可译码存在的充分必要条件是:
li m 1 i 1 r
27
4.3
变长编码
例 对于码长序列1,2,2,2, 有 + + + = >1,
1 1 1 1 5 2 4 4 4 4 不存在这样码长序列的唯一可译码, 如码2,码3 1 1 1 1 15 对于码长序列1,2,3,4, 有 + + + = <1, 2 4 8 16 16 存在这样码长序列的唯一可译码! 码4与码5都是唯一可译码!码5是即时码,但码4不是即时码!
信息论与编码第四章课后习题答案

∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1
−
log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1
−
sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π
−
2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x
《信息论与编码》第四章习题解答

习题 4.4(3)图
(3)N 个相同 BSC 的积信道,求这时积信道容量 C N ,且证明 lim C N = ∞
N →∞
[证明] (1)见例 4.3.2 (2)首先因为
I ( X ; Y1 , Y2 ,L , YN ) = H ( X ) − H ( X | Y1 , Y2 LYN )
≤ H(X )
利用切比雪夫不等式
1 P[ Z N = 1| X = 0] = P Z ' N > | X = 0 2 1 = P Z ' N − p > − p | X = 0 2 1 ' ≤ P| Z N − p |> − p p 2 p(1 − p ) = 1 N ( − p )2 2
2
2
二元对称信道C2
4
退化信道容量为 C1 = 0 ,二元对称信道容量为 C2 = 1 − H (ε ) , 所以和信道的容量为
C = log 1 + 21− H ( ε )
达到信道容量的输入分布为
[
]
p ( X = 0) = 2 C1 − C 1 = 1 + 21− H (ε ) p ( X = 1) = p( X = 2)
所以满足定理 4.2.2 所规定的达到信道容量的充要条件,信道容量为
C=
(e)
3 bit/次 4
1 3 P = 0 1 3
1 3 1 3 0
0 1 3 1 3
1 3 1 3 1 3
信道是准对称信道,当输入分布为均匀分布时达到信道容量,即
p ( X = 0) = p( X = 1) = p ( X = 2) =
0 1
0 1
信息论与编码技术第四章课后习题答案

''
a − a | x| 2 e − D a e− a|x| , (6) 2 2
s
R( D) ≥ R L( D) = h(u ) − h( g )
2 1 = a log e − log (2eD) 2
当(5)式大于零时, R ( D ) = a log e − 4.8
2 1 log (2eD) 2
4.10
X ⎤ ⎡0 1 ⎤ 一二元信源 ⎡ ,每秒钟发出 2.66 个信源符号。将此信源的输出符号送入某二元 ⎢ p( x) ⎥ = ⎢0.5 0.5⎥ ⎣ ⎦ ⎣ ⎦
无噪无损信道中进行传输,而信道每秒钟只传递二个二元符号。 (1)试问信源能否在此信道中进行无失真的传输。 (2)若此信源失真度测定为汉明失真,问允许信源平均失真多大时,此信源就可以在信道中传输。 解:(1)此信源的熵 H(s)=1 (比特/符号) 所以信源输出的信息传输率为 Rt=2.66 (比特/秒) 将此信源输出符号送入二元无噪无损信道进行传输,此信道每秒钟只传送两个二元符号。 此信道的最大信息传输速率:Ct=2 比特/秒 因为 Rt>Ct 根据信道编码定理, 不论进行任何编码此信源不可能在此信道中实现无错误地传输, 所以信源在此 信道中传输会引起错误和失真。 (2)若设此信源的失真度为汉明失真。因为是二元信源,输入是等概率分布,所以信源的信息率 失真函数 R(D)=1-H(D) 若当 Ct>=Rt(D) 则此信源在此信道中传输时不会引起错误, 也就是不会因信道而增加信源新的失真。 总的信源的失 真是信源压缩编码所造成的允许失真 D 所以有 2=2.66*[1-H(D)] 2.66H(D)=0.66 H(D) ≈ 0.2481 故 D ≈ 0.0415 允许信源平均失真 D ≈ 0.0415 时,此信源就可以在此信道中传输。 比特/信源符号 比特/秒 Rt(D)=2.66*R(D)
《信息论与编码》课程教学大纲

《信息论与编码》课程教学大纲一、课程基本信息课程代码:16052603课程名称:信息论与编码英文名称:Information Theory and Coding课程类别:专业课学时:48学分:3适用对象:信息与计算科学考核方式:考试先修课程:数学分析、高等代数、概率论二、课程简介《信息论与编码》是信息科学类专业本科生必修的专业理论课程。
通过本课程的学习,学生将了解和掌握信息度量和信道容量的基本概念、信源和信道特性、编码理论等,为以后深入学习信息与通信类课程、为将来从事信息处理方面的实际工作打下基础。
本课程的主要内容包括:信息的度量、信源和信源熵、信道及信道容量、无失真信源编码、有噪信道编码等。
Information Theory and Coding is a compulsory professional theory course for undergraduates in information science. Through this course, students will understand and master the basic concepts of information measurement and channel capacity, source and channel characteristics, coding theory, etc., lay the foundation for the future in-depth study of information and communication courses, for the future to engage in information processing in the actual work.The main contents of this course include: information measurement, source and source entropy, channel and channel capacity, distortion-free source coding, noisy channel coding, etc。
信息论 第4章(哈夫曼编码和游程编码)

游程编码的基本原理
很多信源产生的消息有一定相关性,往往 连续多次输出同样的消息,同一个消息连续输 出的个数称为游程(Run-Length).我们只需要 输出一个消息的样本和对应重复次数,就完全 可以恢复原来的消息系列.原始消息系列经过 这种方式编码后,就成为一个个编码单元(如下 图),其中标识码是一个能够和消息码区分的特 殊符号.
文件传真压缩方法具体流程
主要利用终止码和形成码(见书本P43-44), 一般A4的纸每行的像素为1728,具体编码规则 如下: (1)当游程长度小于64时,直接用一个对应 的终止码表示。 (2)当游程长度在64到1728之间时,用一个 形成码加一个终止码表示。 例如:白游程为662时用640形成码(白)加22终 止码(白)表示,即:01100111 0000011. 黑游程为256时用256形成码(黑)加0终止码(黑) 表示,即:000001011011 0000110111.
哈夫曼(Huffman) (3)哈夫曼(Huffman)编码
哈夫曼编码:将信源中的各个消息按概率排序, 不断将概率最小的两个消息进行合并,直到合 并为一个整体,然后根据合并的过程分配码字, 得到各个消息的编码。 该方法简单明了,并且可以保证最终的编 码方案一定是最优编码方案。
哈夫曼(Huffman) 哈夫曼(Huffman)编码的例子
香农编码的例子
《信息论与编码》PPT第四章

L
L
2)误差准则:
→ → e( f , g ) p ε 即P g f (uL ) ≠ uL p ε差准则: E [e ( f , g )] p ε 即E P g f (u ) ≠ u p ε ,
四、 密码 它是研究信息与通信系统在传输最安全的指标下, 系统中的信源和信宿,在什么样条件下能实现统计匹 配,即最优的加、解密密码存在; 反之,又在什么样条件下不能实现统计匹配,即 最优的加、解密密码不存在。
定理: 设掌握密钥的信宿V,它对应的系统传送的互信息 R=I(U,V,)不掌握密钥的信宿V’,它对应的系统传 送的互信息R’=I(U,V’),信源的信息熵为H(U)。 则:掌握密钥的信宿V,通过最优化的加、解密码 V (f2,g2),使得R=I(U,V)=H(U)。 反之,对不掌握密钥的信宿V’,几乎找不到最优化密钥 (f2,g2’)=(f2,g2),即R’=I(U,V’)→0. ——1949年,香农给出的密码学基本定理。 * 概率分布分析: P (ϕ ) = P (u L ).P (cm | sm ).P ( sm | cm ) ′ ′
定理:若系统要求达到的实际传输速率为R,无失真 信源的可用信息熵为H(U),则若R>H(U)时, 最有效的信源编、译码 ( f1 , g1 ) 存在,反之R< H(U)则不存在。——香农编码第一定理。 从另一角度来理解定理——用系统的概率分布函数
′ 由无失真准则,则 即 P ( sm | uL ) = P (vL | sm ) → → 所以 P(ϕ ) = p(uL ) f .g = p(uL ) 即系统与信源匹配。
•系统优化其物理实质: 就是要研究系统在某种优化指标下,上述两类 参数在满足什么条件时对应的编、译码存在; 又在什么条件下,对应的编、译码不存在。
信息论与编码第四章

r li ⒄1
i 1
码长 li ,码符号集中符号个数r,信源符号个数q,称作kraft
不等式。
说明:唯一可译码一定满足不等式,反之,满足不等 式的码不一定是唯一可译码。
• 充分性证明:假定满足不等式的码长为 l1,l2 , ,,lq 在q个码字
中可能有长度相同的码字。设码长为1的有n1个,长度为2
111111
同价码:每个码符号(元)所占的传输时间都相
同
§4.2 等长码和等长信源编码定理
实现无失真编码的条件:
1、信源符号与码字一一对应 2、任意一串有限长的码符号序列与信源s的符号序列也 是一一对应,即N次扩展后仍满足一一对应关系。 同时满足上述条件称为唯一可译码
s : s1 s2 s3 s4 w j c : 0 10 00 01
N
N
I (ai ) log p(ai ) log pik I (sik )
k 1
k 1
E[I (ai )] H (S N ) NH (S )
E(x) xP (x) m H(s)
x
D[I (ai )] ND[I (si )] N{E[I 2 (si )] [H (s)2 ]
q
n
r li
nl m ax
Ajr j
i 1
jn
q
n
r
li
nl max
r j •rj
上界 ⑻
1 (N, ) p(G) MG • max p(ai ) ⑼
max p(ai ) 2 N[H (s) ]
下界 M G [1 (N , )]2 N[H (⑽ s) ]
我们可以只对集G中MG个信源序列进行一一对应的等长编码,
这就要求码字总数不小于MG就行,即
信息论与编码精品课件

内容
4.1 平均失真和信息率失真函数 4.2 离散信源和连续信源的R(D)计算
• 失真 o 信道编码定理——欲无失真,必 R < C
若 R > C,必失真 o 失真必要性—— ➢ 连续信源R趋向于无穷大,必有失真 ➢ 压缩亦有失真 o 失真可能性——终端性能有限,如人眼,人耳 • 研究:信息率~允许失真——信息率失真理论
1 L
dL (xi , y j ) L l1 d( xil , y jl ) • 平均失真
1 L
DL L l1 Dl
4.1.3 信息率失真函数R(D)
X
Y
xa1,a2, an 信源编码器 y b 1,b2, bn
假想信道
将信源编码器看作信道
4.1.3 信息率失真函数R(D)
• 无论是无噪信道还是有噪信道:
R(D) min I(X ,Y ) PD
• 在信源给定后,我们希望在满足一定失真的情况下,使信 源必须传输给收信者的信息传输率R尽可能地小。
• 若从接收端来看,就是在满足保真度准则下,寻找再现信 源消息所必须获得的最低平均信息量。即在满足保真度 准则的条件下寻找平均互信息I(X,Y)的最小值。
信息率失真函数
• 失真函数定义为:
d(xi
,
yj
)
0, a,
a0
xi y j xi y j
失真函数
• 将所有的d(xi,yj)排列起来,用矩阵表示为:
失真矩阵
d (a1 , b1 )
d
d(an ,b1)
d(a1,bm )
d(an ,bm )
• 例:设信源符号序列为X={0,1},接收端收到符号
序列为Y= {0,1,2},规定失真函数为
信息论编码第四章答案

解:
唯一可译码是A,B,C,E 唯 可译码是A,B,C,E,非延长码为A,C,E A的平均码长:n = p( si )ni
i =1 6
= 3(1 / 2 + 1 / 4 + 1 / 16 + 1 / 16 + 1 / 16 + 1 / 16)
= 3码符号 / 信源符号
编码效率:
η=
H (s) 2 = * 100% = 66.67% n log r 3
2. 有一个信源X如下:
x2 x3 x4 x5 x6 X x1 p ( x) = 0.32 0.22 0.18 0.16 0.08 0.04
(1)、求信源熵; (2)、用Shannon编码法编成二进制变长码,并计算其编码效 率; (3)、用 用Fano编码法编成二进制变长码,并计算其编码效率; 编码法编成二进制变长码 并计算其编码效率 (4)、用Huffman码编码成二进制变长码,并计算其编码效率; (5)、用Huffman码编码成三进制变长码,并计算其编码效率; (6)、比较三种编码方法的优缺点。
H ( X ) 2.3522 = × 100% = 98% n log l r 2.4 log l 2
三进制Huffman编码 ? 首先, 判断q − (r − 1)α = r 6 − (3 − 1) × 2 = 2 < 3
选择m = r − [q − (r − 1)α ] = 3 − 2 = 1个虚假符号
0.40 0.60 0 0.37 0 0.40 1 0 0.23 1 1
L = P( si )li = 2.63
i =1
二元符号/灰度级
通过哈夫曼最佳二元编码后,每个像素平均需要用 2.63个二元符号,则此图象平均共需要用263个二元符 号来表示。因此,需2.63秒才能传送完这幅图象。 (3)在(2)题中计算时没有考虑图象的像素之间的依赖 关系,但实际此图象的像素之间是有依赖的。例如,若 考虑像素前后之间灰度的依赖关系,就有灰度“1”后 面只可能出现灰度“1”或 “2”;灰度“2”后只可能 出现“2” 或“3” ,等等。这时,此图象灰度值信源 S可以看成一阶马尔可夫信源。还可以进一步看成为m 阶马尔可夫信源。因此,在考虑了这些依赖关系后,像 素的灰度值信源S的实际信息熵 H ∞ < H ( S ) 。根据香农第 一理,总可以找到一种编码,使每个灰度级的平均码 长L → H ∞ (极限熵)。所以,这幅图象还可以进一步压缩, 平均每个像素(灰度)所需要的二元码符号数 L < H ( S ) 。
信息论与编码理论-第4章无失真信源编码-习题解答-20071202

第4章无失真信源编码习题及其参考答案4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F(1)求这些码中哪些是唯一可译码;(2)求哪些码是及时码;(3)对所有唯一可译码求出其平均码长l。
4-2 设信源61261126()1()()()()iis s sXp sp s p s p sP X=⎡⎤⎡⎤==⎢⎥⎢⎥⎣⎦⎣⎦∑。
对此次能源进行m元唯一可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。
(提示:用kraft不等式)4-3设信源为1234567811111111()248163264128128s s s s s s s sXp X⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎢⎥⎣⎦,编成这样的码:(000,001,010,011,100,101,110,111)。
求(1)信源的符号熵;(2)这种码的编码效率;(3)相应的仙农码和费诺码。
4-4求概率分布为11122(,,,,)3551515信源的二元霍夫曼编码。
讨论此码对于概率分布为11111(,,,,)55555的信源也是最佳二元码。
4-5有两个信源X和Y如下:121234567()0.200.190.180.170.150.100.01X s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦123456789()0.490.140.140.070.070.040.020.020.01Y s s s s s s s s s p Y ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X 和Y 进行编码,并计算其平均码长和编码效率;(2)从X ,Y 两种不同信源来比较三种编码方法的优缺点。
4-6设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样 霍夫曼码的信源的所有概率分布。
4-7设信源为12345678()0.40.20.10.10.050.050.050.05X s s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,求其三元霍夫曼编码。
信息论与编码第四章习题参考答案

4.1某离散无记忆信源概率空间为分别使用长度为10和100的序列进行等长无失真编码,分别计算最短平均码长和编码效率。
解:信源的熵为881.03.03.07.07.0)(H =--=lb lb X 比特/符号当N=10时,序列码长应当满足 81.81881.0102)(L 1=⨯=>lb X NH 比特/序列考虑到序列码长应该为整数,取L1=9比特/符号,平均每个符号的码长为9.0NL L 11==比特/符号 所以编码效率为%9.97L )(H 11==X η 当N=100时,序列码长为1.881881.01002)(L 1=⨯=>lb X NH 比特/100符号取L1=89比特/符号,平均每个符号的码长为89.0NL L 22==比特/符号 编码效率为%99L )(H 22==X η 4.2设离散无记忆信源为如果要求编码效率为,允许错误概率为,求编码序列的长度。
解:信源的熵为722.02.02.08.08.0)(H =--=lb lb X 比特/符号自信息量方差为64.0722.0-)2.0(2.0)8.0(8.0D 222=+=lb lb采用二进制码进行等长编码,序列长度应当满足72221062.1)1)((D N ⨯=-≥δηηX H4.3设离散无记忆信源的概率空间为要求编码效率为(1) 如果采用序列等长编码,而允许译码错误概率为,求编码序列的长度。
(2) 如果采用序列变长编码,求编码序列的长度,并且与(1)比较,说明为什么会有这样的结果。
解1)信源的熵为811.025.025.075.075.0)(H =--=lb lb X 比特/符号自信息量方差为471.0811.0-)25.0(25.0)75.0(75.0D 222=+=lb lb采用二进制编码,序列长度为62221029.1)1)((D N ⨯=-≥δηηX H2)对信源进行二次扩展,并采用下列编码方式构成唯一可译码平均码长为6875.13161316321631169L =⨯+⨯+⨯+⨯=比特/2符号 每个符号码长为84375.026875.12L L ===比特/符号 编码效率为%95%1.9684375.0811.0L H(X)=>===δη 由于变长编码能够更好利用不同序列的概率分布进行编码,概率越大,序列的码长越短,概率越小,序列的码长越长,所以相对等长编码而言,变长编码的平均码长很短。
信息论与编码习题与答案第四章

4-1 设有一个二元等该率信源{}1,0∈X ,2/110==p p ,通过一个二进制对称信道(BSC )。
其失真函数ij d 与信道转移概率ij p 分别定义为j i j i d ij =≠⎩⎨⎧=,0,1 ,j i j i p ij =≠⎩⎨⎧-=,1,εε 试求失真矩阵d 和平均失真D 。
解:由题意得,失真矩阵为d ⎥⎦⎤⎢⎣⎡=0110d ,信道转移概率矩阵为P ⎥⎦⎤⎢⎣⎡--=εεεε11)(i j 平均失真为εεεεε=⨯-+⨯+⨯+⨯-==∑0)1(211211210)1(21),()()(,j i d i j p i p D ji 4-3 设输入符号与输出符号X 和Y 均取值于{0,1,2,3},且输入符号的概率分布为P(X=i)=1/4,i=0,1,2,3,设失真矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=0111101111011110d 求)(),(,,max min max min D R D R D D 以及相应的编码器转移概率矩阵。
解:由题意,得 0min =D.则symbol bit X H R D R /24log )()0()(2min ====这时信源无失真,0→0,1→1,2→2,3→3,相应的编码器转移概率矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=1000010*********)j (i P ∑===303,2,1,0max ),()(min i j j i d i p D,,141141041141141141141041min{⨯+⨯+⨯+⨯⨯+⨯+⨯+⨯=}041141141141141041141141⨯+⨯+⨯+⨯⨯+⨯+⨯+⨯, 43}43,43,43,43min{== 则0)(max =D R此时输出概率分布可有多种,其中一种为:p(0)=1,p(1)=p(2)=p(3)=0 则相应的编码器转移概率矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=0001000100010001)(i j P]4-5 具有符号集{}10,u u U =的二元信源,信源发生概率为:2/10,1)(,)(10≤<-==p p u p p u p 。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息论与编码 第四章
4.5判断以下几种信道是不是准对称信道
(1)⎥⎦
⎤⎢⎣⎡3.02.05.05.03.02.0不是
(2)⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡7.03.06.04.03.07.0不是 (3)⎥⎦
⎤⎢⎣⎡7.01.02.02.01.07.0是
(4)⎥⎦
⎤⎢⎣⎡6/13/13/16/16/16/13/13/1 是 4.7计算以下离散无记忆信道DMC 的容量及最佳分布
(1)P=⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡---p p p p p p 101001
解:
此为对称信道,达到C 需要等概,则该信道的最佳分布为:
X q (X ) = x1 x2 x313 13 13
所以该信道的容量为:C=log 3+(1-p )log(1−p)+p log p =log3-H 2(p )
(2)P=⎥⎦⎤⎢⎣⎡----2/)1(2/)1(2/2
/2/2/2/)1(2/)1(p p p p p p p p
解:
易得该信道为一个准对称信道,假定最佳分布为:
X q (X ) = x1 x2 13 13
s1= (1−p)/2p/2p/2(1−p)/2 s2= (1−p)/2p/2p/2(1−p)/2
C=log k - N s *log M s -H
=log 2-(1/2*log 1/2+1/2*log 1/2)+(1-p)log(1−p)/2+p log p =log2+(1-p)log(1−p)/2+p log p
=log2-H 2(p )
(5)P= 132323
13
解:
C=log 2+13×log 13+23×log 23 =0.083
4.10给定离散信道的信道转移概率矩阵P=⎥⎥⎥⎥⎦
⎤⎢⎢⎢⎢⎣⎡----q q q q p p p p 100100001001,计算其信道容量C
解:
s1= 1−p p p 1−p s2= 0000
S3= 0000
s4= 1−q q q 1−q C=log 4+(1-p)log(1−p)+p log p +(1-q)log(1−q)+q log q
4.11给定离散信道P=
0.30.70.50.5
,计算信道容量C 解:
P −1= −2.5 3.52.5−1.5 H(Y |x 1)=-0.3ln 0.3-0.7ln 0.7=0.6
H(Y |x 2)=-ln 0.5=0.7
C=ln e {− p −1H}2i=12k=1
=ln[e 2.5∗0.6−3.5∗0.7+e −2.5∗0.6+1.5∗0.7]
=0
4.18 N 个同样的二进制对称信道BSC 级联,如图所示,各信道的转
移概率矩阵为P= p 1−p 1−p p
,证明它等价于一个转移概率为12[1-(1−2p)n ]的BSC ,且当n →∞时,信道容量C →0
图见P98
证明:P N =(1-P N −1)*P+P N −1*(1-P)=P N −1*(1-2P)+P
P N −1=P N −2*(1-2P)+P
P N −2=P N −3*(1-2P)+P
…
P 2=P 1*(1-2P)+P
P 1=P
=>P N =P N −1*(1-2P)+P
=[P N −2*(1-2P)+P]*(1-2P)+P =P N −2*(1−2P)2+P*(1-2P)+P =P N −3*(1−2P)3+P*(1−2P)2+P*(1-2P)+P
=P ∗(1−2P)N −1+P* (1−2P)I N −2I=0
=P (1−2P)I N −1I=0
=P*
1−(1−2P)N 1−(1−2P) =1−(1−2P)N 2
Q N =P{X N =0}=P{X 0=0}*(1-P N )+P{X 0=1}*P N C=0。