信息论第4章
近代信息论-第四章-1
F(0)=1 F(1)=0
F(0)=1 F(1)=1
问题
选择怎样的译码规则,才是最佳的?
平均错误译码概率
发a ,收到b ,正好译回 a , F (b ) = a
i j i j i
正确译码
i
发a ,收到b ,译码不为a , F (b ) ≠ a
i j i j
错误译码
j
正确译码的概率 错误译码的概率
p p
s
给定信道,采用最大后验概率准则,为使 最小误码率减小,则只能改变信源分布; 给定信源,为使最小误码率减小,可改变 信道的统计特征。
最大似然准则
p (a )
i
先验分布概率
p ai | b j
(
)
后验分布概率 转移概率,似然函数
p b j |a
(
i
)
由贝叶斯公式
( )( ) p (a *|b ) = p (b ) p (a ) p (b | a ) p (a | b ) = p (b )
译码规则
信道,输入等概
0 3/4 3/4 1 1 1/4 1/4 0 当译码规则为: 收到0,译为0 收到1,译为1, 当译码规则为: 收到0,译为1 收到1,译为0, 可见, 可见,译码规则与通信 的可靠性之间关系大。 的可靠性之间关系大。 Pe =3/4
Pe =1/4
译码规则
a a
⋮
1 2
P(Y|X) X
j e
最大后验概率准则(MAP) 最大后验概率准则(MAP)
最大后验概率准则(MAP) 最大后验概率准则(MAP)
对应的最小的误码率:
s e j =1 j j
p = ∑ p(b )[1 − p(a* |b )] = ∑ p(b )− ∑ p(b )p(a* |b )
信息论-第四章
§4.2 离散无记忆信道
例4.2.1(p89)二元对称信道BSC是离散无记忆恒参信道。
0 0.1 0.1 1 1 0.9 0.9 0
当N=1时,p(0/0)=p(1/1)=0.9,p(1/0)=p(0/1)=0.1 当N=2时, p(00/00)=p(11/11)= p(0/0) p(0/0)= 0.9*0.9=0.81 P(10/00)=p(01/00)=p(01/11)=p(10/11)=0.1*0.9 =0.09 P(11/00)=p(00/11)=0.1*0.1=0.01
1 w( y ) q( x) p( y | x) K x 0 1 K
K 1
p( y | x)
x 0
K 1
p(0 | x),
x 0
2018/10/30 15
K 1
K 1 1 K 即w( y )与y无关。w( y )= , 此时 p ( y | x)= 。 J J x 0
5
2018/10/30
§4.2 离散无记忆信道
一、有关DMC的容量定理(所说的DMC都是离散无记忆平 稳信道) 设 DMC在某个时刻输入随机变量为X,输出随机变量为Y。 信道响应特性为转移概率矩阵 [p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 它是一个K×J阶矩阵(其中p(y|x)=P(Y=y|X=x))。 X的概率分布为{x, q(x), x∈{0, 1, …, K-1}}。 Y的概率分布为{y, w(y), y∈{0, 1, …, J-1}}。 以下的结论是我们已知的。
§4.2 离散无记忆信道
定义4.2.6(p92) 若DMC的转移概率矩阵P的列的全体可 分成若干个列子集,每个列子集所对应的P的子阵都 满足以下两条性质: (1)任一行是第一行的置换, (2)任一列是第一列的置换。 则称信道为准对称信道。 (显然,准对称信道关于输入是对称的。特别若列子 集只有一个,即转移概率矩阵P本身的任一行是第一 行的置换,任一列是第一列的置换,则称信道为对 称信道。 )
信息论与编码第四章课后习题答案
p( x2 | x1 ) = p ( x 2 ) p( x3 | x1 x 2 ) = p ( x3 ) …… p( x N | x1 x2 L x N −1 ) = p( x N ) 即 p( x1 x 2 ) = p ( x1 ) p( x 2 ) p( x1 x 2 x3 ) = p ( x1 ) p( x 2 ) p ( x3 ) …… p( x1 x 2 L x N ) = p ( x1 ) p( x2 )L p( x N ) 【4.8】设连续随机变量 X ,已知 X ≥ 0 ,其平均值受限,即数学期望为 A ,试求 在此条件下获得的最大熵的最佳分布,并求出最大熵。 解: 给定条件如下:
2 2 x1 + x2 2
− ∞ < x1 , x2 < ∞
求随机变量 Y1 = X 1 + X 2 的概率密度函数,并计算变量 Y 的熵 h(Y ) 。 解: 1 − p( x1 x 2 ) = e 2π
2 2 x1 + x2 2
1 − 21 = e 2π
x2
1 − 22 e = p( x1 ) p ( x 2 ) 2π
0 = − log λ + log et ln t 1 − log e ∫ dt
= − log λ + log e = log (2) e λ
h( X ) = − ∫ p ( x ) log p ( x)dx ∞ 1 1 −λ x −λ x = −∫ λe log λe dx −∞ 2 2 ∞ 1 = − ∫ λe −λx log λe −λx dx 0 2 ∞ ∞ 1 = − ∫ λe −λx log dx − ∫ λe −λx log λe −λx dx 0 0 2 e = log 2 + log λ 2e = log λ 注: (2)题直接借用了(1)的结论。
信息论第四章习题解答
四 解 (1) 要能纠一位错,监督位数 r 必须满足 2r ? n ? 1,
章
由 n = 6 ? r 可求得满足该条件的最小的 r 为 r = 4 .
抗
故需构造 (10, 6 ) 码。
干
(2) 可以构造出多种 (10, 6 ) 码,下面仅给出其中的一种。
扰
111100 1000
二 元
监督阵 [H ] =
二
元 编
当
d
为偶数时,可以纠正
??? d
2
2 ?? 位错误, ?
码
且发现 ?? d - 2 ?? ? 1 位错误。
?2?
4
习题解答
第 4.4 试计算 ( 8, 7 ) 奇偶校验码的漏检概率和编码效率,
四
已知码元的错误概率为 Pe = 10- 4 .
章 解 (1) 奇偶校验码不能发现偶数位错误,其漏检概率为:
码
(5) 系统码和非系统码 (略)。
(P 175)
19
习题解答
第 4.13 已知 (7, 4) 循环码的生成多项式为 g( x) = x3 ? x2 ? 1,
四
当收到一循环码字为 0010011 时,根据校验子判断有
章
无错误?哪一位错了?
抗 解 (1) 求校验子 干 扰 二 元 编 码
c0 位错 c1 位错 c2 位错 c3 位错 c4 位错 c5 位错 c6 位错
00000,11101,11110,11000,10100。
编
码
2
习题解答
第 4.2 求 000000、110110、011101、101010 四码字的汉明距离,
四
并据此拟出校正错误用的译码表。
信息论课件CHAPTER4
由于
h( X
)
h( X
/Y
)
p( xy) log
p( x / y)dxdy p( x)
p( xy)(1
p( x) )dxdy p(x | y)
0
仅当X、Y独立时等式成立。
4.1.5 连续随机变量集合差熵的性质(续) ——连续熵与离散熵的类似性
3. 可加性 设N维高斯随机矢量集合 XΝ X1X2 X N ,很容易证明
4.1.1 连续随机变量的离散化
一个连续随机变量的离散化过程大致如下:
若给定连续随机变量集合X 的概率分布F(x) P{X x} 或 概率密度p(x) ;再给定一个由实数集合到有限或可数集 合的划分 P ,使得
P {Si, i 1, 2, },其中Si 表示离散区间,i Si 为实数集合,
主要是高斯信源的差熵;然后介绍连续信 源最大熵定理;最后介绍连续集合之间的 平均互信息、离散集合与连续集合的平均 互信息。
§4.1 连续随机变量集合的熵
本节主要内容:
1.连续随机变量的离散化 2.连续随机变量集的熵 3.连续随机变量集的条件熵 4.连续随机变量集的联合熵 5.连续随机变量集合差熵的性质 6.连续随机变量集合的信息散度
4.1.5 连续随机变量集合差熵的性质 ——连续熵与离散熵的类似性
1. 连续熵与离散熵计算表达式类似。通过比较可见,由计算 离散熵到计算连续熵,不过是将离散概率变成概率密度, 将离散求和变成积分。
2. 熵的不增性。连续熵同样满足熵的不增原理,即
h( X ) h( X / Y )
(4.1.15)
i
p(xi )x log p(xi ) p(xi )x log x (4.1.5)
信息论与编码第四章课后习题答案
∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1
−
log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1
−
sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π
−
2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x
信息论讲义-第四章(10讲)
信息理论基础第10讲北京航空航天大学201教研室陈杰2006-11-274.3离散无记忆扩展信道一、无记忆N次扩展信道定义:假设离散信道[X, p (y|x ), Y ],输入符号集合:A ={a 1,a 2,……,a r }输出符号集合:B ={b 1,b 2, ……,b s } X 取值于A,Y取值于B.将输入,输出N次扩展得其中,Xi 取值于A,Yi 取值于B,i =1,2,……N12()N X X X =X "12()N YY Y =Y "信道XYp (y|x )2006-11-274.3离散无记忆扩展信道二、无记忆N次扩展信道其数学模型如下:若则称为N次无记忆扩展信道。
信道NX X X ……21NY Y Y ……211212(|)N N p y y y x x x ……12121(|)(|)(|)NN N i i i p p y y y x x x p y x ===∏y x ""[,(|),]N N N N X p y x Y2006-11-27三、离散无记忆信道数学模型信道输入序列取值信道输出序列取值信道转移概率信道X YNX X X X (21)Y Y Y Y ……=2112,N x x x x =……A x i ∈12,N y y y y =……B y i ∈1(|)(|)Ni i i p y x p y x ==∏{,(|),}i ip y x X Y 离散无记忆信道2006-11-27离散信道的数学模型可表示为定义若离散信道对任意N 长的输入、输出序列有称为离散无记忆信道,简记为DMC 。
数学模型为{,(|),}p y x X Y 1(|)(|)Ni i i p y x p y x ==∏{,(|),}i i p y x X Y2006-11-27(1) 对于DMC 信道,每个输出符号仅与当时的输入符号有关,与前后输入符号无关。
(2) 对任意n 和m ,,,若离散无记忆信道还满足则称此信道为平稳信道的或恒参信道。
(信息论、编码及应用)第4章连续信源与连续信道
连续信源的编码定理是信息论中最重 要的定理之一,它为信源编码提供了 理论依据和指导,广泛应用于数据压 缩、图像处理等领域。
02
连续信道
定义与特性
定义
连续信道是一种能够传输连续信号的通信通道,例如音频、 视频信号等。
特性
连续信道具有带宽限制、噪声干扰、信号衰减等特性,这些 特性会影响信号传输的质量和可靠性。
利用统计学习方法,如自适应滤 波、神经网络等,对信源和信道 进行学习和优化,实现动态匹配。
编码技术
采用适当的编码技术,如差分编 码、增量编码等,对信源进行编 码,使其更适应信道的传输特性。
匹配的优化策略
01
02
03
能效优先
在保证信息传输质量的前 提下,优先考虑能效,通 过优化信源和信道的参数, 降低能耗。
例如,在移动通信网络中,语音信号通常采用码分多址(CDMA)或长期演进(LTE) 等技术进行传输。这些技术能够提供较高的数据传输速率和较低的误码率,从而保 证语音信号的清晰度和可懂度。
图像信号传
图像信号传输是连续信源与连续信道的另一个重要应用领域。在电视广播、视频会议和在线教育等应用中,图像信号需要通 过连续信道进行传输。由于图像信号的数据量较大,因此需要采用高效的压缩编码技术来减小传输数据量,同时还需要保证 图像质量。
输速率,同时保证信息的可靠传输。
03
匹配理论的发展历程
随着信息论的不断发展,匹配理论也在不断完善,从早期的经典匹配理
论到现代的统计匹配理论,为连续信源与连续信道的匹配提供了更精确
的指导。
匹配的实现方法
参数调整
根据信源和信道的特性,调整相 关参数,如信源的压缩比、信道 的调制方式等,以实现匹配。
信息论4-4
n ④ 信道编码的错误概率: e = Pr {g ( f (W )) ≠ W } 信道编码的错误概率: P
2.离散无记忆信道 离散无记忆信道DMC 离散无记忆信道 n n n 定义: 定义:Q( y | x ) = ∏ Q ( yi | xi )
Q(1| 1) Q(2 | 1) Q(1| 2) Q(2 | 2) ① 信道转移概率矩阵 Q = ⋮ ⋮ Q(1| J ) Q(2 | J )
C = max I ( X , Y ) = max H (Y ) − h(r ) = log Υ − h(r )
p( x) p( x)
h 其中, 其中, (r ) = −r1 log r1 − r2 log r2 − ⋯ − rk log rk
1 , ∀y ∈ Υ 达到信道容量C的输出分布为 的输出分布为: 达到信道容量 的输出分布为:p( y ) = Υ
1 2 1 (2) P = 6 1 3 1 3 1 2 1 6 1 6 1 3 1 2
1 (3) P = 3 1 3
1 6 1 2
1 2 1 6
例3:求二进删除信道的信道容量及对应的最佳输入分布。 :求二进删除信道的信道容量及对应的最佳输入分布。
对应的输入分布为等概率分布
(3) 弱对称信道与准对称信道 ① 定义 ② 弱对称信道的信道容量 设弱对称信道的每一行记为 r = (r1 , r2 , ⋯ rk ) ,则弱对 称信道的信道容量为: 称信道的信道容量为:
C = max I ( X , Y ) = max H (Y ) − h(r ) = log Υ − h(r )
信道编码(f, 的编码速率 的编码速率: ③ 信道编码 ,g)的编码速率:R = 1 log W
信息论第四章
1 = 2 bit 4 1 I ( x4 ) = − log = 3 bit 8 I ( x2 ) = − log
2-7 (2)消息序列自信息量: (2)消息序列自信息量: I (x i ) = − log p(x i ) 消息序列自信息量 该序列中0出现的次数为14次 13次 12次 该序列中0出现的次数为14次,1为13次,2为12次, 14 因此该消息序列的自信息量为: 3为6次,因此该消息序列的自信息量为:
1− ε I (a1, b1) = log = log 2(1 − ε ) 1/ 2
p(b2 /a1 ) I(a1;b2)= I(b2;a1) = log p(b2 )
P(b2)=P(b2,a1)+P(b2,a2)=P(b2/a1)P(a1)+ P(b2/a2)P(a2) =1/2* ε +(1-ε)*(1/2) =1/2
I (a 2, b 2) = log
ε
1/ 2
= log 2ε
2-17
1 H ( X) = −3 ×10 log = 3 ×105 × 7 = 2.1×106 bit 128
5
1 H (Y) = −1000 log = 13288 bit 10000
1 − N log = 2.1×106 10000
2-4
问题分析: 问题分析:平均信息量的求法
根据定义 H(X)= ( )
∑ p( x ) log p( x )
i i i
得:随意取出一球时,所需要的信息量为 随意取出一球时, (1) ) P(红)= P(白)=1/2 ( (
1 1 1 1 H(X)= − log 2 − log 2 ( ) 2 2 2 2 = 1比特 比特
信息论 第4章(哈夫曼编码和游程编码)
游程编码的基本原理
很多信源产生的消息有一定相关性,往往 连续多次输出同样的消息,同一个消息连续输 出的个数称为游程(Run-Length).我们只需要 输出一个消息的样本和对应重复次数,就完全 可以恢复原来的消息系列.原始消息系列经过 这种方式编码后,就成为一个个编码单元(如下 图),其中标识码是一个能够和消息码区分的特 殊符号.
文件传真压缩方法具体流程
主要利用终止码和形成码(见书本P43-44), 一般A4的纸每行的像素为1728,具体编码规则 如下: (1)当游程长度小于64时,直接用一个对应 的终止码表示。 (2)当游程长度在64到1728之间时,用一个 形成码加一个终止码表示。 例如:白游程为662时用640形成码(白)加22终 止码(白)表示,即:01100111 0000011. 黑游程为256时用256形成码(黑)加0终止码(黑) 表示,即:000001011011 0000110111.
哈夫曼(Huffman) (3)哈夫曼(Huffman)编码
哈夫曼编码:将信源中的各个消息按概率排序, 不断将概率最小的两个消息进行合并,直到合 并为一个整体,然后根据合并的过程分配码字, 得到各个消息的编码。 该方法简单明了,并且可以保证最终的编 码方案一定是最优编码方案。
哈夫曼(Huffman) 哈夫曼(Huffman)编码的例子
香农编码的例子
信息论--第四章第五节 变长码 第六节 变长信源编码定理
4.5 变长码
即时码
唯一可译码成为即时码的充要条件:
一个唯一可译码成为即时码的充要条件是其中任何一个
码字都不是其他码字的前缀。
所有的码 非奇异码 唯一可译码 即时码
4.5 变长码
即时码的构造方法
用树图法可以方便地构造即时码。树中每个中间节
点都伸出1至r个树枝,将所有的码字都安排在终端
节点上就可以得到即时码。
H H (S )
从而
LN H lim N N log r
4.6变长信源编码定理
对一般离散信源,无失真信源编码定理证 明
S S1S2 S N
H (S) H (S) LN 1 log r log r
H (S) LN H (S) 1 N log r N N log r N
H (S ) L logr 0
p(si ) log p( si ) p( si )li log r
i 1 i 1 q q
p( si ) log p( si ) p( si ) log r
i 1 i 1
q
q
li
4.6变长信源编码定理
紧致码平均码长界限定理证明
4.5 变长码
2. 变长唯一可译码判别方法(续)
例5.4 : C a c ad F1 d bb F2 eb cde F3 de F4 b F5 ad bcde
abb
bad deb bbcde 结论:F5中包含了C中的元素,因此该变长码不是唯一可译码。 问题: 判断 C={1,10,100,1000}是否是唯一可译码?
信道传信率
H (S ) H (S ) log r R H (S ) L log r
信息论与编码第4章习题解答
《信息论与编码》第四章习题解答4.1 计算如下所示离散无记忆信道的容量: 习题4.1图[解] (a )信道概率转移矩阵为−−−−=δεδεεδδε11P , 信道是准对称信道,因此在输入为等概分布时达到信道容量,即5.0)1()0(====X P X P 时达到信道容量。
这时δ5.05.0)0(−==Y P δ==)1(Y Pδ5.05.0)2(−==Y P相应的信道容量为);1();0(Y X I Y X I C ====∑==2)()0|(log)0|(j j p j p j p 0111-ε1-δε δ 00 121-ε-δ εδδ 1-ε-δ1ε0 221 0.5 δ 110.250.25 0.50.50 2 21-ε ε ε 1-ε1ε 11-ε 0 0 223/41/4 111/3 1/31/3 1/43/40 2 311/3 211/31/3 1/31/31/3 1/3 1/31/3 (c)(a)(b) (e)(f)(d)δεεδδδδδεδε5.05.0log log 5.05.01log)1(−++−−−−−=)5.05.0log()1(log )1log()1(δδεεδεδε−−−+−−−−= (b )信道概率转移矩阵为=5.05.0025.025.05.0001P当5.0)2()0(====X P X P ,0)(=X P 时,5.0)0(==Y P ,25.0)1(==Y P ,25.0)2(==Y P1)()0|(log )0|();0(2===∑=j j p j p j p Y X I bit∑===2)()2|(log)2|();2(j j p j p j p Y X I 125.05.0log 5.025.05.0log 5.0=+= bit10);1(≤==Y X I ; 所以满足定理4.2.2条件,由达到信道容量充要条件可知,信道容量C =1 bit/次(c )信道转移概率矩阵为−−−=εεεεεε101001P ,信道是对称信道,当输入为均匀分布时,即31)2()1()0(======X P X P X P 时,达到信道容量。
信息论第四章
Y
Y
1 P[F(bj)bj] p (a ib j)P [F (b j)b j]
Y
X ,Y
Y
p(aibj) P [a*bj]
P(aibj)
X,Y
Y
X,Ya*
① 按列计算平均错误概率 求联合概率矩阵 [P(ai)P(bj|ai)] 中每列除去 F(bj)=a* 所对应 的 P(a*bj) 以外所有元素之和。再对上述结果求和。
为使 P(e / bj )最小,就应选择 P(F(bj)/bj)为最大,即选 择译码函数 F(bj)a* 并使之满足条件:
P ( a * /b j) P ( a i/b j) a i a *
收到一个符号以后译成具有最大 后验概率的那个输入符号。
这种译码准则称为“最大后验概率准则”或“最小错误 概率准则”。
如果在扩展信道的输入端把8个可能作为消息的二元序列都作
为消息,M=8,则每个消息携带的平均信息量就是3比特,
而传递一个消息所得的符号数仍为三个二元码符号,则R就提
高到 1(比特/码符号)。这时的信道如下图所示。
发送消息
接受消息
这时只能规定接收端8个输出符号序列j与i 一一对应。这样, 只要符号序列中有一个码元符号发生错误就会变成其他所用 的码字,造成译码错误。只有符号序列中每个符号都不发生 错误才能正确传输。所以得到正确传输概率为
若采用前边讲到的译码函数A,则平均错误率为:
P E ' 1 3 Y , X a * P ( b / a ) 1 3 [ ( 0 . 3 0 . 2 ) ( 0 . 3 0 . 3 ) ( 0 . 2 0 . 5 ) ] 0 . 6
若输入不等概分布,其概率分布为:
P (a 1 ) 1 4 ,P (a 2 ) 1 4 ,P (a 3 ) 1 2
信息论第4章
第四章抽象代数基础自古以来,许多数学家都在探讨数学的“本质”。
为使庞大的数学知识变得简而精,数学家们经常依据数学各领域间潜在的共性,提出统一数学各部分的新观点、新方法。
1872年,德国数学家克莱因提出了用“群”的观点来统一当时杂乱的各种几何学(欧氏几何、非欧几何包括黎曼几何和罗氏几何等);1883年,美国数学家毕尔霍夫提出“格”的概念,以统一代数系统的各种理论和方法;十九世纪末二十世纪初出现了公理化运动,以公理系统作为数学统一的基础。
1938年法国布尔巴基学派不但继承了公理化运动的成果,而且提出数学公理结构的概念,以非常抽象的方式叙述全部数学,把数学的核心部分在结构这一概念下统一成一个整体。
他们认为整个数学学科的宏伟大厦可以99建立在丝毫不求助于直观的彻底公理化基础上。
他们从集合论出发,对全部数学分支给予完备的公理化,认为最普遍、最基本的数学结构有三类:代数结构、顺序结构、拓扑结构。
而群结构是最基本的代数结构之一。
我们所要介绍的抽象代数也叫近世代数,就是研究代数结构(或代数系统)的一门学科。
抽象代数有许多分支,除了线性代数外,还有群论、环论、域论、格论、布尔代数、李代数等等。
这些分支都先后在其他科学领域中找到了用场。
布尔代数后来在线路设计、自动化系统、电子计算机设计方面得到了广泛应用。
线性代数、群、环、域,特别是有限域的理论,看起来很抽象,然而在编码问题中却找到了具体的应用,起着重要的作用。
因此,要学习编码理论,必须首先学习抽100101 象代数的有关知识。
下面我们就把抽象代数的几个基本概念作一个很粗浅的介绍。
第一节 代数结构——群、环、域一. 集合1. 集合的基本概念集合:在一定范围内的讨论对象组成的整体。
元素:组成一个集合的各个个体,叫做这个集合的元素。
子集:设两个集合A 和B ,若A 中的每个元素又都是B 中的元素,则称A 为B 的子集,记为:真子集:若 ,且B 中至少有一个元素不属于A ,则称A 为B 的真子集,记为:AB B A ⊇⊆或,A B ⊇A B B A ⊃⊂或,102 空集:不含任何元素的集合,用Φ表示。
信息论基础-第4章信息论基础1
研究目的——信息传输系统最优化
1.可靠性高 使信源发出的消息经过信道传输后,尽可能准确地、 不失真地再现在接收端。
2.有效性高 经济效果好,用尽可能短的时间和尽可能少的设备来 传送一定数量的信息。
往往提高可靠性和提高有效性是矛盾的。
3. 保密性 隐蔽和保护通信系统中传送的消息,使它只能被授
权接收者获取,而不能被未授权者接收和理解。
★信息论研究的对象、目的和内容
研究对象——通信系统模型
信 源 消息 编码器 信号 信 道
干扰
噪声源
译码器 消息 信 宿
1. 信息源:简称信源 信源是产生消息和消息队列的源。如电视直播厅,广 播室,人等等。
特点:信源输出的消息是随机的、不确定的,但有一 定的规律性。
2. 编码器:
编码器是把消息变换成信号的措施,编码器输出的 是适合信道传输的信号。
定理4.2.5 熵函数 H X 是概率 px1, px2 ,..., pxN
的型凸函数。
定理4.2.6 当离散信源X取等概分布时,其熵 H X 取最大值。
max
H px1 ,
px2
,...,
pxN
H
1 N
,
1 Ng 1 log 1
i1 N
N
N
即:当信源取等概分布时,具有最大的不确定性。
(1) f ( p应i ) 是先验概率 的P(x单i ) 调递减函数,
即
P(x1)时 P,(x2 )
f [P(x1)] f [P(x2)]
(2) 当 P(xi )时,1
f ( pi ) 0
(3) 当 P(xi )时 0, f ( pi )
(4) 两个独立事件的联合信息量应等于它们分
信息论与编码第四章习题参考答案
4.1某离散无记忆信源概率空间为分别使用长度为10和100的序列进行等长无失真编码,分别计算最短平均码长和编码效率。
解:信源的熵为881.03.03.07.07.0)(H =--=lb lb X 比特/符号当N=10时,序列码长应当满足 81.81881.0102)(L 1=⨯=>lb X NH 比特/序列考虑到序列码长应该为整数,取L1=9比特/符号,平均每个符号的码长为9.0NL L 11==比特/符号 所以编码效率为%9.97L )(H 11==X η 当N=100时,序列码长为1.881881.01002)(L 1=⨯=>lb X NH 比特/100符号取L1=89比特/符号,平均每个符号的码长为89.0NL L 22==比特/符号 编码效率为%99L )(H 22==X η 4.2设离散无记忆信源为如果要求编码效率为,允许错误概率为,求编码序列的长度。
解:信源的熵为722.02.02.08.08.0)(H =--=lb lb X 比特/符号自信息量方差为64.0722.0-)2.0(2.0)8.0(8.0D 222=+=lb lb采用二进制码进行等长编码,序列长度应当满足72221062.1)1)((D N ⨯=-≥δηηX H4.3设离散无记忆信源的概率空间为要求编码效率为(1) 如果采用序列等长编码,而允许译码错误概率为,求编码序列的长度。
(2) 如果采用序列变长编码,求编码序列的长度,并且与(1)比较,说明为什么会有这样的结果。
解1)信源的熵为811.025.025.075.075.0)(H =--=lb lb X 比特/符号自信息量方差为471.0811.0-)25.0(25.0)75.0(75.0D 222=+=lb lb采用二进制编码,序列长度为62221029.1)1)((D N ⨯=-≥δηηX H2)对信源进行二次扩展,并采用下列编码方式构成唯一可译码平均码长为6875.13161316321631169L =⨯+⨯+⨯+⨯=比特/2符号 每个符号码长为84375.026875.12L L ===比特/符号 编码效率为%95%1.9684375.0811.0L H(X)=>===δη 由于变长编码能够更好利用不同序列的概率分布进行编码,概率越大,序列的码长越短,概率越小,序列的码长越长,所以相对等长编码而言,变长编码的平均码长很短。
信息论ppt第四章
如图所示,信源在某时刻处于某一状态 si , 当它发出一个符号xim1 后,所处的状态就变了, 转移到状态 s j,因此,信源输出的符号序列X1 X 2 X m X m1 变换成信源状态序列S1S2 SmSm1 ,于是一个讨论 信源输出符号不确定性的问题变成讨论信源状态 转换的问题。
作业:1. 证明 2. 有一无记忆信源的符号集为{0,1},已知信源的 概率空间为 1 X 0 P 1 / 4 3 / 4 , (1)求信源熵; (2)求由m个“0”和(100-m)个“1”构成的某一特定序 列的自信息量的表达式; (3)计算由100个符号构成的符号序列的熵。
并设发出的符号只与前一个符号有关,其关联程 度由条件概率 p(a j | ai ) 给出,如下所示:
, 求:(1)此信源每发出一条消息提供的平均信息 量 H(X ) ; (2)此信源的平均符号熵 H2 ( X ) (3)此信源的极限熵 H 。
7 / 9 2 / 9 0 1/ 8 3/ 4 1/ 8 2 / 11 9 / 11 0
实际信源分类如下:
离散无记忆信源 记忆长度无限 平稳信源 离散平稳信源 离散有记忆信源 记忆长度有限 随机过程:波形信源 (马尔科夫信源) 连续平稳信源 非平稳信源
第二节
离散离 散单符号信源,它是最简单、最基本的信 源,是组成实际信源的基本单元,用一个 离散型随机变量表示。 信源所有可能输出的消息和消息所对应 的概率共同组成的二元序 [ X , P( X )] 对称为信 源的概率空间。
X X x1 , X x2 , X xi , X xq P( X ) p( x ), p( x ), p( x ), p( x ) 2 i q 1
信息论4-3
= H (Y ) − ∑ H (Yi | X i ) ≤ ∑ H (Yi ) − ∑ H (Yi | X i )
n i =1
i =1 i =1
n
n
n
= ∑ I ( X i ; Yi ) ≤ nC
i =1
n
<注意 ①增加反馈不能提高信道容量,即具有反馈的离散无记忆 注意> 增加反馈不能提高信道容量, 注意 信道容量与不加反馈的信道容量相等。 信道容量与不加反馈的信道容量相等。
可以看出,联合信源 信道通信模型中, 可以看出,联合信源——信道通信模型中,首先,通过 信道通信模型中 首先, 信源编码,用尽可能少的信源符号来表达信源, 信源编码,用尽可能少的信源符号来表达信源,也就是对 信源数据达,尽可能减少编码后的 数据的剩余度,使能纠正和克服信道中引起的错误干扰, 数据的剩余度,使能纠正和克服信道中引起的错误干扰, 这两部分编码是分别独立考虑的。 这两部分编码是分别独立考虑的。
1.带反馈的信道模型 1.带反馈的信道模型
2.带反馈的信道码 2.带反馈的信道码
3.带反馈的信道容量 带反馈的信道容量
= H (Y ) − ∑ H (Yi | Y1Y2 LYi −1W )
n i =1
n
n
= H (Y ) − ∑ H (Yi | Y1Y2 LYi −1W , X i )
n i =1
3. 复合信源 复合信源——信道码 信道码
联合信源——信道编码定理 二、联合信源 信道编码定理
ˆ Pe( n ) = Pr U n ≠ U
{
n
}≤ P {Uˆ
r
n
∉ W ε( n ) + Pr g (Y n ) ≠ U n , U n ∈ W ε( n )
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
H S R (比特/码元) L
3.编码效率
编码效率表示编码后实际信息量和能载荷最大信息量的比值。 1) 定义: 每个码元载荷的平均信息量与它所能载荷的最大信息量的比值。
H (S ) R L Rmax log r
2) 编码效率也可以表示为
H (S ) H (S ) R L log r
s2 1 8
s3 1 4
s4 1 2
采用两种信源编码方案编出的码字如下表所示。 信源符号 概率 S1 S2 S3 S4 1/8 1/8 1/4 1/2 方案一的码字 00 01 10 11 方案二的码字 000 001 01 1
试问方案一和方案二的码字哪个有效性较好?
1.定长码和变长码 如果码字集合 C 中所有码字的码长都相同,称为定长码(或等长码) 。 反之,如果码字长度不同,则称为变长码。 2.二元码 如果码元集 X {0,1} ,对应的码字称为二元码。 3.奇异码和非奇异码 一般说来,无论是定长码还是变长码,如果码字集合 C 中含有相同码 字, 则称为奇异码。 否则称为非奇异码。 非奇异性是正确译码的必要条件。
需要注意的是,克拉夫特不等式是即时码存在的充要条件,而 不能作为判别的依据。后来麦克米伦(B. McMillan)证明唯一可译 码也满足克拉夫特不等式。这说明在码长选择的条件上,即时码与 唯一可译码是一致的。 【例】 对于二元码,即 r 2 ,如果 q 4 , L1 2 , L2 2 ,
(2)从没有选用的分支终点再画出两条分支,因为 L2 2 ,选用其中的一 个分支终点来表示 W2 。 (3)继续下去,直到所有的 Wi 都有分支终点来表示为止。
(4)从顶点(树根)到 Wi ,要经过 Li 条分支,把这些分支所代表的码元 依照先后次序就可以写出该码字。
码树还可以用来对即时码进行译码。例如 收到一串码字 100110010。从码树的树根出发, 第一个码符号为 1,向右走一节; 第二个码符号 为 0,向左走一节,遇到了码字 W2 。然后再回 到树根,从头开始,遇到了码字后又回到树根。 这样就可完成对即时码的即时 译码。码字 100110010 译码得到的码字分别为 W2 10 ,
上式变为 L log q 。例如英文电报中有 32 个符号(26 个 字母加 6 个字符) ,即 q 32 ,如采用等长码,为了实现 无失真信源编码,则每个信源符号至少需要 5 位二元码符 号编码才行。
实际英文电报符号信源, 在考虑了符号出现概率以及符 号之间的依赖性后, 平均每个英文电报符号所能提供的信息 量约等于 1.4 比特,即编码后的 5 个二元码符号只携带了大 约 1.4 比特的信息量,而 5 个二元码符号最大能载荷的信息 量为 5 比特。可见,这种编码方式的传输效率极低。
W1,W2 ,,Wq ,各码字对应的码长分别为 L1 , L2 ,, Lq 。
则该码的平均码长为
L P( si )Li (码元/信源符号)
i 1
q
(2)对 N 次扩展信源符号进行编码 对长度为 N 的信ቤተ መጻሕፍቲ ባይዱ符号序列 1 , 2 ,,
q qN
编码, 码字分别
为 W1 , W2 ,, W N , 各码字对应的码长分别为 L1 , L2 ,, L N 。 则
本章的主要内容 4.1 信源编码的基本概念 4.1.1 信源编码的数学模型 4.1.2 信源编码的分类 4.1.3 唯一可译码和即时码 4.1.4 编码效率 4.2 无失真信源编码定理 4.3 常见的无失真信源编码方法 4.3.1 香农(Shannon)码 4.3.2 霍夫曼(Huffman)码 4.3.3 费诺(Fano)码
4.唯一可译码和非唯一可译码 如果一种码的任何一串有限长的码元序列,只能被唯一地译成对 应的信源符号序列,则称该码为唯一可译码。 否则称为非唯一可译码。 为了实现无失真信源编码,必须采用唯一可译码。 例如,{0, 10, 11}是一种唯一可译码,因为任意一串有限长的码序 列,比如 10001100,只能被分割为{10, 0, 0, 11, 0, 0},任何其它分割 方法都会产生一些非定义的码字。
即 时 码 可 以 采 用 码 树 法 来 构 造 。 例 如 即 时 码
W {W1,W2 ,W3 ,W4} {0,10,110,111} ,可以按以下步骤得到即时码的码树。
(1)最上端为树根,从根开始,画出两条分支(树枝) ,每条分支代表一
个码元。因为 W1 的码长 L1 1 ,任选一条分支的终点(称为节点)来表示 W1 。
《信息论基础》
4.1 信源编码的基本概念
信源编码的实质是对原始信源符号按照一定规则进行变换,以 码字代替原始信源符号,使变换后得到的码符号接近等概分布。 需要指明的是,在研究信源编码时,通常将信道编码和信道译 码看作是信道的一部分,而且不考虑信道干扰问题. 一、信源编码的数学描述 1、单符号的无失真信源编码器
S :{s1 , s2 , , sq }
编码器
C :{W1 , W2 , , Wq }
(Wi 是由 Li 个 aj 组成的码 元序列,它与 si 一一对应)
X :{a1 , a2 , , ar }
几个术语 ①码元(码符号) ②码元集X ③码字(由码元组成)
④码字长度
⑤平均码长
编码器将信源符号 si 变换成码字 Wi ,表示为
其中 R L log r (bit/信源符号), 称为编码后信源信息率,它表示编码后平 均每个码字能载荷的最大信息量。编码效率表征了信源熵 H (S ) 和编码后平均 每个信源符号能载荷的最大信息量 R 的比值。
《信息论基础》
4.2 无失真信源编码定理
对 N 次扩展信源进行等长编码,如果要求编得的等长码是 唯一可译码,由于扩展信源符号共有 q N 个,则相应的输出码字 应不少于 q N 个,即必须满足
Li r 1 i 1 q
反之,若码长满足上式,则一定存在具有这种码长的 r 元即时码。 克拉夫特(Kraft)不等式是即时码存在的充要条件。其中,r 为码元 的进制数, q 为信源的符号数,Li 为信源符号对应的码字长度。 注意的是, 上述不等式只是即时码存在的充要条件,而不能作为判别的依据。
5.即时码和非即时码 在唯一可译码中有一类码,它在译码时无需参考后续的码元就能 立即做出判断,译成对应的信源符号序列,则这类码称为即时码。否 则称为非即时码。即时码不能在一个码字后面添上一些码元构成另一 个码字, 即任一码字都不是其它码字的前缀, 所以它也称为异前缀码。 即时码一定是唯一可译码,但唯一可译码不一定是即时码。
si Wi (ai1 , ai2 ,, aiL )
i
(i 1, 2,, q)
其中,aik X (k 1, 2,, Li ) , X 为构成码字的码符号集。 编 码器的 输入 为 原始信 源 S, 样本空 间为
{s1 , s2 , sq } ; 编 码 器 输 出 的 码 字 集 合 为 C , 共 有
q
对 N 长的信源符号序列编出的码字平均码长为
LN P( i )Li (码元/信源符号序列)
i 1
qN
所以,信源各符号编码的平均码长为
LN L (码元/信源符号) N
2.编码后信道的信息传输率 编码后信息传输率 R 又称为码率,是指编码后 平均每个码元载荷的信息量。单位为“比特 /码元” 或“比特/码符号” 。 当原始信源 S 给定时,信源熵 H (S ) 就给定了, 而编码后每个信源符号平均用 L 个码元来表示,故 编码后信息传输率
它与 S 中的 q 个信源符号一一 W1,W2 ,,Wq 等 q 个码字, 对应。
2、N 次扩展信源的无失真信源编码器
S N :{1 , 2 , , q N }
编码器
C :{W1 ,W2 ,,Wq N }
(Wi 是由 Li 个 aj 组成的码 元序列,它与 αi 一一对应)
X :{a1 , a2 , , ar }
编码器将长度为 N 的信源符号序列 i 变换成码字 Wi :
i Wi (ai , ai ,, ai )
1 2 Li
(i 1, 2 , qN ,
)
二、信源编码涉及的几个概念 【例】 设一个离散无记忆信源的概率空间为
s S 1 Ps 1 8
《信息论基础》
第 4章
无失真信源编码
第 3 章已经讨论了离散信源的信息度量—信源熵, 本章将讨论信源的另一个重要问题:如何对信源的输出 进行适当的编码,才能用尽可能少的码元来表示信源信 息,做到以最大的信息传输率无差错地传输信息呢?即 无失真信源编码,它解决的是通信的有效性问题。 本章将首先介绍信源编码器;然后从理论上阐述无 失真信源编码定理,得出“平均码长的理论极限值就是 信源熵 H r S ”这个结论;最后给出几种无失真信源编 码方法。
LN H ( S ) N log r
则当 N 足够大时,可使译码错误概率为任意小。
LN H ( S ) 2 反之,当 时,则不可能实现无失真编码, N log r
而当 N 足够大时,译码几乎必定出错。
定理蕴含了如下思想: ( 1) 定长无失真信源编码的错误概率可以任意小, 但并非为零。 ( 2) 定长无失真信源编码通常是对非常长的消息 序列进行的,特别是信源符号序列长度 N 趋 于无穷时,才能实现 Shannon 意义上的有效 信源编码。
L3 2 , L4 2 ,是否存在这样的唯一可译码和即时码?
解:因为
Li 2 2 2 2 2 2 2 2 2 1 i 1 q
所以满足克拉夫特不等式,则一定可以构成至少一种具有这样码长 的唯一可译码和即时码。
在 1956 年,麦克米伦(B. McMillan)证明唯一可译码也满足该不等 式。这说明唯一可译码在码长的选择上并不比即时码有什么更宽松的条 件。在码长选择的条件上,两者是一致的。如前所述,即时码必定是唯 一可译码,它可以很容易地用码树法来构造,因此要构造唯一可译码, 只需讨论构造即时码即可。 【例 4.1】 对四进制信源符号 s1 、s 2 、s3 和 s 4 采用二元码进行信源编码。 (1) 如果 L1 2 , L2 2 , L3 2 , L4 2 ,是否存在这样码长的二 元即时码? (2) 如果将此信源编码为 r 元唯一可译码, 对应的码长 L1 1 , L2 2 ,