信息论第4章

合集下载

近代信息论-第四章-1

近代信息论-第四章-1

F(0)=1 F(1)=0
F(0)=1 F(1)=1
问题
选择怎样的译码规则,才是最佳的?
平均错误译码概率
发a ,收到b ,正好译回 a , F (b ) = a
i j i j i
正确译码
i
发a ,收到b ,译码不为a , F (b ) ≠ a
i j i j
错误译码
j
正确译码的概率 错误译码的概率
p p
s
给定信道,采用最大后验概率准则,为使 最小误码率减小,则只能改变信源分布; 给定信源,为使最小误码率减小,可改变 信道的统计特征。
最大似然准则
p (a )
i
先验分布概率
p ai | b j
(
)
后验分布概率 转移概率,似然函数
p b j |a
(
i
)
由贝叶斯公式
( )( ) p (a *|b ) = p (b ) p (a ) p (b | a ) p (a | b ) = p (b )
译码规则
信道,输入等概
0 3/4 3/4 1 1 1/4 1/4 0 当译码规则为: 收到0,译为0 收到1,译为1, 当译码规则为: 收到0,译为1 收到1,译为0, 可见, 可见,译码规则与通信 的可靠性之间关系大。 的可靠性之间关系大。 Pe =3/4
Pe =1/4
译码规则
a a

1 2
P(Y|X) X
j e
最大后验概率准则(MAP) 最大后验概率准则(MAP)
最大后验概率准则(MAP) 最大后验概率准则(MAP)
对应的最小的误码率:
s e j =1 j j
p = ∑ p(b )[1 − p(a* |b )] = ∑ p(b )− ∑ p(b )p(a* |b )

信息论-第四章

信息论-第四章
2018/10/30 4
§4.2 离散无记忆信道

例4.2.1(p89)二元对称信道BSC是离散无记忆恒参信道。
0 0.1 0.1 1 1 0.9 0.9 0


当N=1时,p(0/0)=p(1/1)=0.9,p(1/0)=p(0/1)=0.1 当N=2时, p(00/00)=p(11/11)= p(0/0) p(0/0)= 0.9*0.9=0.81 P(10/00)=p(01/00)=p(01/11)=p(10/11)=0.1*0.9 =0.09 P(11/00)=p(00/11)=0.1*0.1=0.01
1 w( y ) q( x) p( y | x) K x 0 1 K
K 1
p( y | x)
x 0
K 1
p(0 | x),
x 0
2018/10/30 15
K 1
K 1 1 K 即w( y )与y无关。w( y )= , 此时 p ( y | x)= 。 J J x 0
5
2018/10/30
§4.2 离散无记忆信道
一、有关DMC的容量定理(所说的DMC都是离散无记忆平 稳信道) 设 DMC在某个时刻输入随机变量为X,输出随机变量为Y。 信道响应特性为转移概率矩阵 [p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 它是一个K×J阶矩阵(其中p(y|x)=P(Y=y|X=x))。 X的概率分布为{x, q(x), x∈{0, 1, …, K-1}}。 Y的概率分布为{y, w(y), y∈{0, 1, …, J-1}}。 以下的结论是我们已知的。
§4.2 离散无记忆信道
定义4.2.6(p92) 若DMC的转移概率矩阵P的列的全体可 分成若干个列子集,每个列子集所对应的P的子阵都 满足以下两条性质: (1)任一行是第一行的置换, (2)任一列是第一列的置换。 则称信道为准对称信道。 (显然,准对称信道关于输入是对称的。特别若列子 集只有一个,即转移概率矩阵P本身的任一行是第一 行的置换,任一列是第一列的置换,则称信道为对 称信道。 )

信息论 第四章

信息论 第四章

称为编码效率。
H (S )
H (S ) H (S ) R' H (S )

1

第三节 等长信源编码定理
例:设离散无记忆信源: S
s 1 P( s) 3 4 s2 1 4
H (S )
1 3 4 log 4 log 0.811 4 4 3
第二节 等长码 我们举例说明:
设信源
s3 s2 s4 S s1 P( s ) P( s ) P( s ) P( s ) P( s ) 1 2 3 4
P( s ) 1
i 1 i
4
而其依赖关系为:
P(s2 / s1 ) P(s1 / s2 ) P(s4 / s3 ) P(s3 / s4 ) 1, 其余P(s j / si ) 0
第二节 等长码
若不考虑符号间的依赖关系,可得码长l=2 若考虑符号间的依赖关系,则对此信源作二次扩展
S 2 s1s2 s3 s4 s4 s3 s2 s1 P( s 2 ) P( s1s2 ) P( s2 s1 ) P( s3 s4 ) P( s4 s3 )
第四节 变长信源编码定理
3、克拉夫特(Kraft)不等式
X 定理4.4 对于码符号为 {x1 , x2 ,..., xq } 的任意即时码, 所对应的码长为 l1 , l2 ,..., lq ,则必定满足:
r li 1
i 1
q
反之,若码长满足上式,则一定存在这样的即时码 。 可以根据即时码的树图构造法来证明。
若有一个唯一可译码,它的平均码长小于其他唯一可译码的 长度,则称此码为紧致码或最佳码,无失真信源编码的基本 问题就是寻找紧致码。

信息论4第4章

信息论4第4章
12
4.1.2 平均失真
xi和yj都是随机变量,所以失真函数d(xi,yj)也是随机变量, 限失真时的失真值只能用数学期望表示 将失真函数的数学期望称为平均失真:
第 四 章 信 息 率 失 真 函 数
D
i
p(a ) p(b
i j
j
| ai )d (ai , b j )
失真函数d(xi,yj):
d(0,2)=d(1,2)= 0.5
西北大学信息学院
d (a1 , b1 ) d (a1 , bm ) d d (an , b1 ) d (an , bm )
d 1 0 0.5
10
失真函数
第 四 章
失真函数形式可以根据需要任意选取,最常用的有:
没有失真 产生失真
失真函数定义为:
0 d ( xi , y j )
西北大学信息学院
xi y j 0 xi y j
9
失真函数
将所有的d(xi,yj)排列起来,用矩阵表示为:
第 四 章 失真矩阵
信 息 率 失 例1:设信源符号序列为X={0,1},接收端收到符号序 列为Y= {0,1,2},规定失真函数为 真 失真矩阵 函 d(0,0)=d(1,1)= 0 数 0 1 0.5 d(0,1)=d(1,0)= 1
适于 离散 信源
西北大学信息学院
11
第 四 章 信 息 率 失 真 函 数
汉明失真矩阵
0 1 d 1 1 0 1 1 1 0
对于二元对称信源(m=n),X={0,1},Y={0,1},汉明失 真矩阵:
d
西北大学信息学院
0 1 1 0

信息论第四章习题解答

信息论第四章习题解答
无错
e( x)
1 x x2 x3 x4 x5 x6
0
校验子
s0( x) = 1 s1 ( x) = x s2 ( x) = x2 s3 ( x) = x2 ? 1 s4( x) = x2 ? x ? 1 s5( x) = x ? 1 s6( x) = x2 ? x
s无 (x) = 0
20
习题解答
第 4.13 已知 (7, 4) 循环码的生成多项式为 g( x) = x3 ? x2 ? 1,
注:实际上,正反码仅仅用作纠错码 。
8
习题解答
第 4.6 试分析用于电报系统的纠错码 正反码的检错和纠错

能力。若已知信道的误码率 Pe = 10- 4 , 求系统的正确接

收概率和漏检概率。
抗解 干 扰 二 元 编 码
(2) 当收到的码字无错或者一位错时, 能够正确接收, 因此正确接收的概率为: P正 = (1 - Pe)10 ? C110 Pe (1 - Pe)9 = 0.9999995502 4;
扰 二解 元 编
汉明码序列。
(1) 生成矩阵 [G] =
1000 101 0100 111 0010 110 0001 011

(2) 编码序列 1 1 0 1 1 1 0 1 0 0 1
0110 0110001
1010 1010011
14
习题解答
第 4.10 已知 (7, 3) 汉明码的监督矩阵为:
习题解答
第 四 章
抗 干
第四章 习题解答





1
习题解答
第 4.1 写出与 10011 的汉明距离为 3 的码字。
四 章

信息论课件CHAPTER4

信息论课件CHAPTER4

由于
h( X
)

h( X
/Y
)


p( xy) log
p( x / y)dxdy p( x)


p( xy)(1
p( x) )dxdy p(x | y)

0
仅当X、Y独立时等式成立。
4.1.5 连续随机变量集合差熵的性质(续) ——连续熵与离散熵的类似性
3. 可加性 设N维高斯随机矢量集合 XΝ X1X2 X N ,很容易证明
4.1.1 连续随机变量的离散化
一个连续随机变量的离散化过程大致如下:
若给定连续随机变量集合X 的概率分布F(x) P{X x} 或 概率密度p(x) ;再给定一个由实数集合到有限或可数集 合的划分 P ,使得
P {Si, i 1, 2, },其中Si 表示离散区间,i Si 为实数集合,
主要是高斯信源的差熵;然后介绍连续信 源最大熵定理;最后介绍连续集合之间的 平均互信息、离散集合与连续集合的平均 互信息。
§4.1 连续随机变量集合的熵
本节主要内容:
1.连续随机变量的离散化 2.连续随机变量集的熵 3.连续随机变量集的条件熵 4.连续随机变量集的联合熵 5.连续随机变量集合差熵的性质 6.连续随机变量集合的信息散度
4.1.5 连续随机变量集合差熵的性质 ——连续熵与离散熵的类似性
1. 连续熵与离散熵计算表达式类似。通过比较可见,由计算 离散熵到计算连续熵,不过是将离散概率变成概率密度, 将离散求和变成积分。
2. 熵的不增性。连续熵同样满足熵的不增原理,即
h( X ) h( X / Y )
(4.1.15)
i
p(xi )x log p(xi ) p(xi )x log x (4.1.5)

《信息论、编码及应用》课件第4章

《信息论、编码及应用》课件第4章
RR R
当N=2时,得二维条件差熵为
(4-21)
h( X 2 | X1) p(x1x2 ) log p(x2 | x1) d x1 d x2
(4-22)
RR
和离散信源的信息熵一样,我们将在4.5节中证得以下各种差熵
之间的关系:
h(X2|X1)≤h(X2) 当且仅当相互独立时等式才成立。
(4-23)
n
n
H ( X n ) Pi log Pi p(i ) log[ p(i )]
i 1
i 1
n
n
p(i ) log p(i ) p(i ) log
i 1
i1
n
n
p(i ) log p(i ) (log ) p(i )
i 1
i1
(4-9)
n
p(i ) log p(i ) (log )
假设另有一个连续信源Y,其概率密度分布函数为p(y), 取值区间为[c,d],并且p(y)是y在取值区间[c,d]中的连续函 数。我们用同样的方法得到其对应的离散信源Ym如下:Biblioteka Ym P(Ym)
1
P1
2
P2
m
Pm
1 p(1
)
m j 1
Pj
m j 1
p( j )
1
2 m
p(2 )
ai p(x)d x (i 1,2,,n)
a(i1)
(4-6)
概率密度分布及其等间隔Δ分割离散化的示意图如图4-1所示。
第4章 连续信源与连续信道
图 4-1 概率密度分布及其等间隔Δ分割离散化的示意图
第4章 连续信源与连续信道
根据积分中值定理,在区间[a+(i-1)Δ,a+iΔ]中必定存 在一个ξi,满足

信息论与编码第四章课后习题答案

信息论与编码第四章课后习题答案

∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1

log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1

sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π

2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x

信息论讲义-第四章(10讲)

信息论讲义-第四章(10讲)

信息理论基础第10讲北京航空航天大学201教研室陈杰2006-11-274.3离散无记忆扩展信道一、无记忆N次扩展信道定义:假设离散信道[X, p (y|x ), Y ],输入符号集合:A ={a 1,a 2,……,a r }输出符号集合:B ={b 1,b 2, ……,b s } X 取值于A,Y取值于B.将输入,输出N次扩展得其中,Xi 取值于A,Yi 取值于B,i =1,2,……N12()N X X X =X "12()N YY Y =Y "信道XYp (y|x )2006-11-274.3离散无记忆扩展信道二、无记忆N次扩展信道其数学模型如下:若则称为N次无记忆扩展信道。

信道NX X X ……21NY Y Y ……211212(|)N N p y y y x x x ……12121(|)(|)(|)NN N i i i p p y y y x x x p y x ===∏y x ""[,(|),]N N N N X p y x Y2006-11-27三、离散无记忆信道数学模型信道输入序列取值信道输出序列取值信道转移概率信道X YNX X X X (21)Y Y Y Y ……=2112,N x x x x =……A x i ∈12,N y y y y =……B y i ∈1(|)(|)Ni i i p y x p y x ==∏{,(|),}i ip y x X Y 离散无记忆信道2006-11-27离散信道的数学模型可表示为定义若离散信道对任意N 长的输入、输出序列有称为离散无记忆信道,简记为DMC 。

数学模型为{,(|),}p y x X Y 1(|)(|)Ni i i p y x p y x ==∏{,(|),}i i p y x X Y2006-11-27(1) 对于DMC 信道,每个输出符号仅与当时的输入符号有关,与前后输入符号无关。

(2) 对任意n 和m ,,,若离散无记忆信道还满足则称此信道为平稳信道的或恒参信道。

(信息论、编码及应用)第4章连续信源与连续信道

(信息论、编码及应用)第4章连续信源与连续信道
应用
连续信源的编码定理是信息论中最重 要的定理之一,它为信源编码提供了 理论依据和指导,广泛应用于数据压 缩、图像处理等领域。
02
连续信道
定义与特性
定义
连续信道是一种能够传输连续信号的通信通道,例如音频、 视频信号等。
特性
连续信道具有带宽限制、噪声干扰、信号衰减等特性,这些 特性会影响信号传输的质量和可靠性。
利用统计学习方法,如自适应滤 波、神经网络等,对信源和信道 进行学习和优化,实现动态匹配。
编码技术
采用适当的编码技术,如差分编 码、增量编码等,对信源进行编 码,使其更适应信道的传输特性。
匹配的优化策略
01
02
03
能效优先
在保证信息传输质量的前 提下,优先考虑能效,通 过优化信源和信道的参数, 降低能耗。
例如,在移动通信网络中,语音信号通常采用码分多址(CDMA)或长期演进(LTE) 等技术进行传输。这些技术能够提供较高的数据传输速率和较低的误码率,从而保 证语音信号的清晰度和可懂度。
图像信号传
图像信号传输是连续信源与连续信道的另一个重要应用领域。在电视广播、视频会议和在线教育等应用中,图像信号需要通 过连续信道进行传输。由于图像信号的数据量较大,因此需要采用高效的压缩编码技术来减小传输数据量,同时还需要保证 图像质量。
输速率,同时保证信息的可靠传输。
03
匹配理论的发展历程
随着信息论的不断发展,匹配理论也在不断完善,从早期的经典匹配理
论到现代的统计匹配理论,为连续信源与连续信道的匹配提供了更精确
的指导。
匹配的实现方法
参数调整
根据信源和信道的特性,调整相 关参数,如信源的压缩比、信道 的调制方式等,以实现匹配。

信息论4-4

信息论4-4

n ④ 信道编码的错误概率: e = Pr {g ( f (W )) ≠ W } 信道编码的错误概率: P
2.离散无记忆信道 离散无记忆信道DMC 离散无记忆信道 n n n 定义: 定义:Q( y | x ) = ∏ Q ( yi | xi )
Q(1| 1) Q(2 | 1) Q(1| 2) Q(2 | 2) ① 信道转移概率矩阵 Q = ⋮ ⋮ Q(1| J ) Q(2 | J )
C = max I ( X , Y ) = max H (Y ) − h(r ) = log Υ − h(r )
p( x) p( x)
h 其中, 其中, (r ) = −r1 log r1 − r2 log r2 − ⋯ − rk log rk
1 , ∀y ∈ Υ 达到信道容量C的输出分布为 的输出分布为: 达到信道容量 的输出分布为:p( y ) = Υ
1 2 1 (2) P = 6 1 3 1 3 1 2 1 6 1 6 1 3 1 2
1 (3) P = 3 1 3
1 6 1 2
1 2 1 6
例3:求二进删除信道的信道容量及对应的最佳输入分布。 :求二进删除信道的信道容量及对应的最佳输入分布。
对应的输入分布为等概率分布
(3) 弱对称信道与准对称信道 ① 定义 ② 弱对称信道的信道容量 设弱对称信道的每一行记为 r = (r1 , r2 , ⋯ rk ) ,则弱对 称信道的信道容量为: 称信道的信道容量为:
C = max I ( X , Y ) = max H (Y ) − h(r ) = log Υ − h(r )
信道编码(f, 的编码速率 的编码速率: ③ 信道编码 ,g)的编码速率:R = 1 log W

信息论第四章

信息论第四章

1 = 2 bit 4 1 I ( x4 ) = − log = 3 bit 8 I ( x2 ) = − log
2-7 (2)消息序列自信息量: (2)消息序列自信息量: I (x i ) = − log p(x i ) 消息序列自信息量 该序列中0出现的次数为14次 13次 12次 该序列中0出现的次数为14次,1为13次,2为12次, 14 因此该消息序列的自信息量为: 3为6次,因此该消息序列的自信息量为:
1− ε I (a1, b1) = log = log 2(1 − ε ) 1/ 2
p(b2 /a1 ) I(a1;b2)= I(b2;a1) = log p(b2 )
P(b2)=P(b2,a1)+P(b2,a2)=P(b2/a1)P(a1)+ P(b2/a2)P(a2) =1/2* ε +(1-ε)*(1/2) =1/2
I (a 2, b 2) = log
ε
1/ 2
= log 2ε
2-17
1 H ( X) = −3 ×10 log = 3 ×105 × 7 = 2.1×106 bit 128
5
1 H (Y) = −1000 log = 13288 bit 10000
1 − N log = 2.1×106 10000
2-4
问题分析: 问题分析:平均信息量的求法
根据定义 H(X)= ( )
∑ p( x ) log p( x )
i i i
得:随意取出一球时,所需要的信息量为 随意取出一球时, (1) ) P(红)= P(白)=1/2 ( (
1 1 1 1 H(X)= − log 2 − log 2 ( ) 2 2 2 2 = 1比特 比特

信息论 第4章(哈夫曼编码和游程编码)

信息论 第4章(哈夫曼编码和游程编码)
我们介绍的哈夫曼编码方法是对具有多个 独立消息的信源进行二进制编码,如果编码符 号(码元)不是二进制的0和1,而是D进制,同 样可以按照哈夫曼编码的方法来完成:只要将 哈夫曼编码树由二叉树换成D叉树,每次合并的 节点由两个改为D个,分配码元时,从左到右将0 到D-1依次分配给各个路段,最后从根节点到 各个叶节点(消息)读出编码结果即可.
游程编码的基本原理
很多信源产生的消息有一定相关性,往往 连续多次输出同样的消息,同一个消息连续输 出的个数称为游程(Run-Length).我们只需要 输出一个消息的样本和对应重复次数,就完全 可以恢复原来的消息系列.原始消息系列经过 这种方式编码后,就成为一个个编码单元(如下 图),其中标识码是一个能够和消息码区分的特 殊符号.
文件传真压缩方法具体流程
主要利用终止码和形成码(见书本P43-44), 一般A4的纸每行的像素为1728,具体编码规则 如下: (1)当游程长度小于64时,直接用一个对应 的终止码表示。 (2)当游程长度在64到1728之间时,用一个 形成码加一个终止码表示。 例如:白游程为662时用640形成码(白)加22终 止码(白)表示,即:01100111 0000011. 黑游程为256时用256形成码(黑)加0终止码(黑) 表示,即:000001011011 0000110111.
哈夫曼(Huffman) (3)哈夫曼(Huffman)编码
哈夫曼编码:将信源中的各个消息按概率排序, 不断将概率最小的两个消息进行合并,直到合 并为一个整体,然后根据合并的过程分配码字, 得到各个消息的编码。 该方法简单明了,并且可以保证最终的编 码方案一定是最优编码方案。
哈夫曼(Huffman) 哈夫曼(Huffman)编码的例子
香农编码的例子

信息论--第四章第五节 变长码 第六节 变长信源编码定理

信息论--第四章第五节 变长码  第六节 变长信源编码定理

4.5 变长码
即时码

唯一可译码成为即时码的充要条件:
一个唯一可译码成为即时码的充要条件是其中任何一个
码字都不是其他码字的前缀。
所有的码 非奇异码 唯一可译码 即时码
4.5 变长码
即时码的构造方法

用树图法可以方便地构造即时码。树中每个中间节
点都伸出1至r个树枝,将所有的码字都安排在终端
节点上就可以得到即时码。
H H (S )
从而
LN H lim N N log r
4.6变长信源编码定理
对一般离散信源,无失真信源编码定理证 明
S S1S2 S N
H (S) H (S) LN 1 log r log r
H (S) LN H (S) 1 N log r N N log r N
H (S ) L logr 0
p(si ) log p( si ) p( si )li log r
i 1 i 1 q q
p( si ) log p( si ) p( si ) log r
i 1 i 1
q
q
li
4.6变长信源编码定理
紧致码平均码长界限定理证明
4.5 变长码
2. 变长唯一可译码判别方法(续)
例5.4 : C a c ad F1 d bb F2 eb cde F3 de F4 b F5 ad bcde
abb
bad deb bbcde 结论:F5中包含了C中的元素,因此该变长码不是唯一可译码。 问题: 判断 C={1,10,100,1000}是否是唯一可译码?
信道传信率
H (S ) H (S ) log r R H (S ) L log r

信息论与编码第4章习题解答

信息论与编码第4章习题解答

《信息论与编码》第四章习题解答4.1 计算如下所示离散无记忆信道的容量: 习题4.1图[解] (a )信道概率转移矩阵为−−−−=δεδεεδδε11P , 信道是准对称信道,因此在输入为等概分布时达到信道容量,即5.0)1()0(====X P X P 时达到信道容量。

这时δ5.05.0)0(−==Y P δ==)1(Y Pδ5.05.0)2(−==Y P相应的信道容量为);1();0(Y X I Y X I C ====∑==2)()0|(log)0|(j j p j p j p 0111-ε1-δε δ 00 121-ε-δ εδδ 1-ε-δ1ε0 221 0.5 δ 110.250.25 0.50.50 2 21-ε ε ε 1-ε1ε 11-ε 0 0 223/41/4 111/3 1/31/3 1/43/40 2 311/3 211/31/3 1/31/31/3 1/3 1/31/3 (c)(a)(b) (e)(f)(d)δεεδδδδδεδε5.05.0log log 5.05.01log)1(−++−−−−−=)5.05.0log()1(log )1log()1(δδεεδεδε−−−+−−−−= (b )信道概率转移矩阵为=5.05.0025.025.05.0001P当5.0)2()0(====X P X P ,0)(=X P 时,5.0)0(==Y P ,25.0)1(==Y P ,25.0)2(==Y P1)()0|(log )0|();0(2===∑=j j p j p j p Y X I bit∑===2)()2|(log)2|();2(j j p j p j p Y X I 125.05.0log 5.025.05.0log 5.0=+= bit10);1(≤==Y X I ; 所以满足定理4.2.2条件,由达到信道容量充要条件可知,信道容量C =1 bit/次(c )信道转移概率矩阵为−−−=εεεεεε101001P ,信道是对称信道,当输入为均匀分布时,即31)2()1()0(======X P X P X P 时,达到信道容量。

信息论第四章

信息论第四章

Y
Y
1 P[F(bj)bj] p (a ib j)P [F (b j)b j]
Y
X ,Y
Y
p(aibj) P [a*bj]
P(aibj)
X,Y
Y
X,Ya*
① 按列计算平均错误概率 求联合概率矩阵 [P(ai)P(bj|ai)] 中每列除去 F(bj)=a* 所对应 的 P(a*bj) 以外所有元素之和。再对上述结果求和。
为使 P(e / bj )最小,就应选择 P(F(bj)/bj)为最大,即选 择译码函数 F(bj)a* 并使之满足条件:
P ( a * /b j) P ( a i/b j) a i a *
收到一个符号以后译成具有最大 后验概率的那个输入符号。
这种译码准则称为“最大后验概率准则”或“最小错误 概率准则”。
如果在扩展信道的输入端把8个可能作为消息的二元序列都作
为消息,M=8,则每个消息携带的平均信息量就是3比特,
而传递一个消息所得的符号数仍为三个二元码符号,则R就提
高到 1(比特/码符号)。这时的信道如下图所示。
发送消息
接受消息
这时只能规定接收端8个输出符号序列j与i 一一对应。这样, 只要符号序列中有一个码元符号发生错误就会变成其他所用 的码字,造成译码错误。只有符号序列中每个符号都不发生 错误才能正确传输。所以得到正确传输概率为
若采用前边讲到的译码函数A,则平均错误率为:
P E ' 1 3 Y , X a * P ( b / a ) 1 3 [ ( 0 . 3 0 . 2 ) ( 0 . 3 0 . 3 ) ( 0 . 2 0 . 5 ) ] 0 . 6
若输入不等概分布,其概率分布为:
P (a 1 ) 1 4 ,P (a 2 ) 1 4 ,P (a 3 ) 1 2

信息论第4章

信息论第4章

第四章抽象代数基础自古以来,许多数学家都在探讨数学的“本质”。

为使庞大的数学知识变得简而精,数学家们经常依据数学各领域间潜在的共性,提出统一数学各部分的新观点、新方法。

1872年,德国数学家克莱因提出了用“群”的观点来统一当时杂乱的各种几何学(欧氏几何、非欧几何包括黎曼几何和罗氏几何等);1883年,美国数学家毕尔霍夫提出“格”的概念,以统一代数系统的各种理论和方法;十九世纪末二十世纪初出现了公理化运动,以公理系统作为数学统一的基础。

1938年法国布尔巴基学派不但继承了公理化运动的成果,而且提出数学公理结构的概念,以非常抽象的方式叙述全部数学,把数学的核心部分在结构这一概念下统一成一个整体。

他们认为整个数学学科的宏伟大厦可以99建立在丝毫不求助于直观的彻底公理化基础上。

他们从集合论出发,对全部数学分支给予完备的公理化,认为最普遍、最基本的数学结构有三类:代数结构、顺序结构、拓扑结构。

而群结构是最基本的代数结构之一。

我们所要介绍的抽象代数也叫近世代数,就是研究代数结构(或代数系统)的一门学科。

抽象代数有许多分支,除了线性代数外,还有群论、环论、域论、格论、布尔代数、李代数等等。

这些分支都先后在其他科学领域中找到了用场。

布尔代数后来在线路设计、自动化系统、电子计算机设计方面得到了广泛应用。

线性代数、群、环、域,特别是有限域的理论,看起来很抽象,然而在编码问题中却找到了具体的应用,起着重要的作用。

因此,要学习编码理论,必须首先学习抽100101 象代数的有关知识。

下面我们就把抽象代数的几个基本概念作一个很粗浅的介绍。

第一节 代数结构——群、环、域一. 集合1. 集合的基本概念集合:在一定范围内的讨论对象组成的整体。

元素:组成一个集合的各个个体,叫做这个集合的元素。

子集:设两个集合A 和B ,若A 中的每个元素又都是B 中的元素,则称A 为B 的子集,记为:真子集:若 ,且B 中至少有一个元素不属于A ,则称A 为B 的真子集,记为:AB B A ⊇⊆或,A B ⊇A B B A ⊃⊂或,102 空集:不含任何元素的集合,用Φ表示。

信息论基础-第4章信息论基础1

信息论基础-第4章信息论基础1

研究目的——信息传输系统最优化
1.可靠性高 使信源发出的消息经过信道传输后,尽可能准确地、 不失真地再现在接收端。
2.有效性高 经济效果好,用尽可能短的时间和尽可能少的设备来 传送一定数量的信息。
往往提高可靠性和提高有效性是矛盾的。
3. 保密性 隐蔽和保护通信系统中传送的消息,使它只能被授
权接收者获取,而不能被未授权者接收和理解。
★信息论研究的对象、目的和内容
研究对象——通信系统模型
信 源 消息 编码器 信号 信 道
干扰
噪声源
译码器 消息 信 宿
1. 信息源:简称信源 信源是产生消息和消息队列的源。如电视直播厅,广 播室,人等等。
特点:信源输出的消息是随机的、不确定的,但有一 定的规律性。
2. 编码器:
编码器是把消息变换成信号的措施,编码器输出的 是适合信道传输的信号。
定理4.2.5 熵函数 H X 是概率 px1, px2 ,..., pxN
的型凸函数。
定理4.2.6 当离散信源X取等概分布时,其熵 H X 取最大值。
max
H px1 ,
px2
,...,
pxN
H
1 N
,
1 Ng 1 log 1
i1 N
N
N
即:当信源取等概分布时,具有最大的不确定性。
(1) f ( p应i ) 是先验概率 的P(x单i ) 调递减函数,

P(x1)时 P,(x2 )
f [P(x1)] f [P(x2)]
(2) 当 P(xi )时,1
f ( pi ) 0
(3) 当 P(xi )时 0, f ( pi )
(4) 两个独立事件的联合信息量应等于它们分

信息论ppt第四章

信息论ppt第四章

如图所示,信源在某时刻处于某一状态 si , 当它发出一个符号xim1 后,所处的状态就变了, 转移到状态 s j,因此,信源输出的符号序列X1 X 2 X m X m1 变换成信源状态序列S1S2 SmSm1 ,于是一个讨论 信源输出符号不确定性的问题变成讨论信源状态 转换的问题。
作业:1. 证明 2. 有一无记忆信源的符号集为{0,1},已知信源的 概率空间为 1 X 0 P 1 / 4 3 / 4 , (1)求信源熵; (2)求由m个“0”和(100-m)个“1”构成的某一特定序 列的自信息量的表达式; (3)计算由100个符号构成的符号序列的熵。
并设发出的符号只与前一个符号有关,其关联程 度由条件概率 p(a j | ai ) 给出,如下所示:
, 求:(1)此信源每发出一条消息提供的平均信息 量 H(X ) ; (2)此信源的平均符号熵 H2 ( X ) (3)此信源的极限熵 H 。
7 / 9 2 / 9 0 1/ 8 3/ 4 1/ 8 2 / 11 9 / 11 0
实际信源分类如下:
离散无记忆信源 记忆长度无限 平稳信源 离散平稳信源 离散有记忆信源 记忆长度有限 随机过程:波形信源 (马尔科夫信源) 连续平稳信源 非平稳信源
第二节
离散离 散单符号信源,它是最简单、最基本的信 源,是组成实际信源的基本单元,用一个 离散型随机变量表示。 信源所有可能输出的消息和消息所对应 的概率共同组成的二元序 [ X , P( X )] 对称为信 源的概率空间。
X X x1 , X x2 , X xi , X xq P( X ) p( x ), p( x ), p( x ), p( x ) 2 i q 1

信息论4-3

信息论4-3

= H (Y ) − ∑ H (Yi | X i ) ≤ ∑ H (Yi ) − ∑ H (Yi | X i )
n i =1
i =1 i =1
n
n
n
= ∑ I ( X i ; Yi ) ≤ nC
i =1
n
<注意 ①增加反馈不能提高信道容量,即具有反馈的离散无记忆 注意> 增加反馈不能提高信道容量, 注意 信道容量与不加反馈的信道容量相等。 信道容量与不加反馈的信道容量相等。
可以看出,联合信源 信道通信模型中, 可以看出,联合信源——信道通信模型中,首先,通过 信道通信模型中 首先, 信源编码,用尽可能少的信源符号来表达信源, 信源编码,用尽可能少的信源符号来表达信源,也就是对 信源数据达,尽可能减少编码后的 数据的剩余度,使能纠正和克服信道中引起的错误干扰, 数据的剩余度,使能纠正和克服信道中引起的错误干扰, 这两部分编码是分别独立考虑的。 这两部分编码是分别独立考虑的。
1.带反馈的信道模型 1.带反馈的信道模型
2.带反馈的信道码 2.带反馈的信道码
3.带反馈的信道容量 带反馈的信道容量
= H (Y ) − ∑ H (Yi | Y1Y2 LYi −1W )
n i =1
n
n
= H (Y ) − ∑ H (Yi | Y1Y2 LYi −1W , X i )
n i =1
3. 复合信源 复合信源——信道码 信道码
联合信源——信道编码定理 二、联合信源 信道编码定理
ˆ Pe( n ) = Pr U n ≠ U
{
n
}≤ P {Uˆ
r
n
∉ W ε( n ) + Pr g (Y n ) ≠ U n , U n ∈ W ε( n )
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2013-7-25 11
§4.2 离散无记忆信道
注解 给定一个DMC信道的响应特性,也就是说给定一个信道的转 移概率矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 达到信道容量时所对应的最佳输入分布是满足定理4.2.2条件 的概率向量{q(x), x∈{0, 1, …, K-1}} 。 其信道容量是每个使得q(k)>0的k所对应的半平均互信息量 I(X=k; Y)。 如果对DMC信道没有任何简化,要计算最佳输入分布并不容 易。但是,通常使用的DMC是很简单的(比如,以下的准 对称信道和对称信道),最佳输入分布很容易求出。
2013-7-25 12
§4.2 离散无记忆信道
二、对称DMC和准对称DMC的 信道容量与最佳输入分布的计算 定义4.2.4~5(p108) 设DMC的转移概率矩阵为
p(1 | 0) p( 1 | 0) p ( 0 | 0) p(0 | 1) p(1 | 1) p( K 1 | 1) P p(0 | J 1) p(0 | J 1) p( K 1 | J 1)
若P的任一行是第一行的置换,则称信道是关于输入为对称的。 若P的任一列是第一列的置换,则称信道是关于输出为对称的。 若信道是关于输入为对称的,又是关于输出为对称的,则称信 道为对称信道。
2013-7-25 13
§4.2 离散无记忆信道
命题1 若DMC关于输入为对称的,则
H (Y | X ) p( y | k ) log
2013-7-25 2
§4.2 离散无记忆信道
定义4.2.1和定义4.2.2(p104) 如果 (1)信道的输入为随机变量序列X1, X2, X3, …,其中每个随机 变量Xu的事件集合都是{0, 1, …, K-1}, (2)信道的输出为随机变量序列Y1, Y2, Y3, …,其中每个随机 变量Yu的事件集合都是{0, 1, …, J-1}, 则称该信道为离散信道。如果更有 (3)P((Y1Y2…YN)=(y1y2…yN)|(X1X2…XN)=(x1x2…xN)) =P(Y1=y1|X1=x1)P(Y2=y2|X2=x2)…P(YN=yN|XN=xN), 则称该信道为离散无记忆信道(DMC)。如果更有 (4)对任意x∈{0, 1, …, K-1},y∈{0, 1, …, J-1},任意两个时 刻u和v,还有P(Yu=y|Xu=x)=P(Yv=y|Xv=x), 则称该信道为离散无记忆平稳信道或恒参信道。
2013-7-25 4
§4.2 离散无记忆信道

例4.2.1(p104)二元对称信道BSC是离散无记忆恒参信道。
0 0.1 0.1 1 1 0.9 0.9 0


当N=1时,p(0/0)=p(1/1)=0.9,p(1/0)=p(0/1)=0.1 当N=2时, p(00/00)=p(11/11)= p(0/0) p(0/0)= 0.9*0.9=0.81 P(10/00)=p(01/00)=p(01/11)=p(10/11)=0.1*0.9 =0.09 P(11/00)=p(00/11)=0.1*0.1=0.01
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)≤此相同 的值。 (2)此时此相同的值恰好就是信道容量C。 (定理4.2.2实际上叙述了定理2.6.2的含义。)
max
I ( X ;Y )
信道传送信息的 最大能力,这个 量在信息论研究 中有重要意义。 传送的信息量必 须小于信道容量 10
§4.2 离散无记忆信道
定理4.2.2(p106) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
y 0 J 1
1 H (Y | X k ) p( y | k )
对任意k∈{0, 1, …, K-1}都成立。 证明 {p(y|x),y=0~ J-1}与{p(y|k),y=0~ J-1}互为置换,所以
K 1 J 1 1 1 H (Y | X ) q ( x) p( y | x) log q ( x) p( y | x) log p ( y | x) x 0 p( y | x) x 0 y 0 y 0 J 1 1 1 q ( x) p ( y | k ) log p( y | k ) log p ( y | k ) y 0 p( y | k ) x 0 y 0
定义4.2.3(p105) 离散无记忆信道的信道容量定义为如下的C。 达到信道容量的输入概率分布{x, q(x), x∈{0, 1, …, K-1}}称 信道容量表示了 为最佳输入分布。 其中
C
2013-7-25
q {q ( x ), x{0 ,1,, K 1}} 跑遍所有的 K维概率向量
2013-7-25
8
§4.2 离散无记忆信道
(3)I(X; Y)是概率向量{q(x), x∈{0, 1, …, K-1}}和转移概率 矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}]的函数。
K 1 J 1
p( y | x) I ( X ; Y ) P (( XY ) ( xy)) log w( y ) x 0 y 0 q ( x) p ( y | x) log K 1
2013-7-25 3
§4.2 离散无记忆信道(DMC)
关于定义4.2.1和定义4.2.2的注解 “离散”的含义是时间离散,事件离散。即:信道的输入、 输出时刻是离散的,且输入随机变量和输出随机变量都是 离散型的随机变量。 “无记忆”的含义是信道响应没有时间延迟,当时的输出 只依赖于当时的输入。 “平稳”的含义是信道在不同时刻的响应特性是相同的。 “离散无记忆平稳信道”是最简单的信道,信道在某一时 刻u的响应特性 P(Yu=y|Xu=x); x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}, 就能很简单地计算出信道在任意时间段的响应特性。即在 DMC(若无特殊说明就意味着满足平稳条件)下,只需 研究单个字母传送。
2013-7-25
18
§4.2 离散无记忆信道
定理4.2.3(p109) 对于准对称DMC信道, (1)达到信道容量的最佳输入分布为等概分布; (2)信道容量为
p( y | k ) C p ( y | k ) log K 1 1 y 0 K p( y | z ) z 0 I ( X k ; Y ); 对任何k {0,1, , K 1}都成立。
第四章:信道及其容量
§4.1 信道分类 §4.2 离散无记忆信道 §4.5 信道的组合
2013-7-25
1
§4.1 信道分类
信道是传输信息的媒质或通道。(输入→信道→输出) 说明 (1)信道输入是随机过程。 (2)信道响应特性是条件概率P(输出值为y|输入值为x),又称 为转移概率。 (3)信道输出是随机过程,输出的概率分布可以由输入的概率 分布和信道的响应特性得到。(全概率公式) (4)根据信道输入、信道响应特性、信道输出的情况,可将信 道分类:离散信道(又称为数字信道);连续信道(又称 为模拟信道);特殊的连续信道——波形信道;恒参信道 和随参信道;无记忆信道和有记忆信道;等等。
2013-7-25 14
K 1 J 1
K 1
J 1
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
1 w( y ) q ( x ) p ( y | x ) K x 0 1 K
K 1
p( y | x)
x 0
K 1
p(0 | x),
x 0
K 1
K 1 1 K 即w( y )与y无关。w( y )= , 此时 p ( y | x )= 。 J J x 0
2013-7-25 15
5
2013-7-25
§4.2 离散无记忆信道
一、有关DMC的容量定理 (所说的DMC都是离散无记忆平稳信道)
设 DMC在某个时刻输入随机变量为X,输出随机变量为Y。 信道响应特性为转移概率矩阵 [p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 它是一个K×J阶矩阵(其中p(y|x)=P(Y=y|X=x))。 X的概率分布为{x, q(x), x∈{0, 1, …, K-1}}。 Y的概率分布为{y, w(y), y∈{0, 1, …, J-1}}。 以下的结论是我们已知的。
0 .1 0 .8
0.1
2013-7-25
17
§4.2 离散无记忆信道
几个简单的结论: (1)准对称信道一定是关于输入为对称的。 (2)对称信道不仅是关于输入为对称的,也是关于输出为对 称的。 (3)对称DMC当输入分布等概时,输出分布等概。 (4)准对称DMC当输入分布等概时,输出分布局部等概。 (准对称DMC当输入分布等概时,若j和l属于转移概率矩 阵的同一个列子集,则wj=wl。) (5)对称信道未必有J=K。
对任意x ,
p( y | x) P(Y {0,1,, J 1} | X x) 1
y 0
J 1
2013-7-25
7
§4.2 离散无记忆信道
(2)对任意y∈{0, 1, …, J-1},由全概率公式有
w( y ) q( x) p( y | x)
x 0 K 1
相关文档
最新文档