信息论-第四章
近代信息论-第四章-1
F(0)=1 F(1)=0
F(0)=1 F(1)=1
问题
选择怎样的译码规则,才是最佳的?
平均错误译码概率
发a ,收到b ,正好译回 a , F (b ) = a
i j i j i
正确译码
i
发a ,收到b ,译码不为a , F (b ) ≠ a
i j i j
错误译码
j
正确译码的概率 错误译码的概率
p p
s
给定信道,采用最大后验概率准则,为使 最小误码率减小,则只能改变信源分布; 给定信源,为使最小误码率减小,可改变 信道的统计特征。
最大似然准则
p (a )
i
先验分布概率
p ai | b j
(
)
后验分布概率 转移概率,似然函数
p b j |a
(
i
)
由贝叶斯公式
( )( ) p (a *|b ) = p (b ) p (a ) p (b | a ) p (a | b ) = p (b )
译码规则
信道,输入等概
0 3/4 3/4 1 1 1/4 1/4 0 当译码规则为: 收到0,译为0 收到1,译为1, 当译码规则为: 收到0,译为1 收到1,译为0, 可见, 可见,译码规则与通信 的可靠性之间关系大。 的可靠性之间关系大。 Pe =3/4
Pe =1/4
译码规则
a a
⋮
1 2
P(Y|X) X
j e
最大后验概率准则(MAP) 最大后验概率准则(MAP)
最大后验概率准则(MAP) 最大后验概率准则(MAP)
对应的最小的误码率:
s e j =1 j j
p = ∑ p(b )[1 − p(a* |b )] = ∑ p(b )− ∑ p(b )p(a* |b )
信息论 第四章
称为编码效率。
H (S )
H (S ) H (S ) R' H (S )
1
第三节 等长信源编码定理
例:设离散无记忆信源: S
s 1 P( s) 3 4 s2 1 4
H (S )
1 3 4 log 4 log 0.811 4 4 3
第二节 等长码 我们举例说明:
设信源
s3 s2 s4 S s1 P( s ) P( s ) P( s ) P( s ) P( s ) 1 2 3 4
P( s ) 1
i 1 i
4
而其依赖关系为:
P(s2 / s1 ) P(s1 / s2 ) P(s4 / s3 ) P(s3 / s4 ) 1, 其余P(s j / si ) 0
第二节 等长码
若不考虑符号间的依赖关系,可得码长l=2 若考虑符号间的依赖关系,则对此信源作二次扩展
S 2 s1s2 s3 s4 s4 s3 s2 s1 P( s 2 ) P( s1s2 ) P( s2 s1 ) P( s3 s4 ) P( s4 s3 )
第四节 变长信源编码定理
3、克拉夫特(Kraft)不等式
X 定理4.4 对于码符号为 {x1 , x2 ,..., xq } 的任意即时码, 所对应的码长为 l1 , l2 ,..., lq ,则必定满足:
r li 1
i 1
q
反之,若码长满足上式,则一定存在这样的即时码 。 可以根据即时码的树图构造法来证明。
若有一个唯一可译码,它的平均码长小于其他唯一可译码的 长度,则称此码为紧致码或最佳码,无失真信源编码的基本 问题就是寻找紧致码。
信息论4第4章
4.1.2 平均失真
xi和yj都是随机变量,所以失真函数d(xi,yj)也是随机变量, 限失真时的失真值只能用数学期望表示 将失真函数的数学期望称为平均失真:
第 四 章 信 息 率 失 真 函 数
D
i
p(a ) p(b
i j
j
| ai )d (ai , b j )
失真函数d(xi,yj):
d(0,2)=d(1,2)= 0.5
西北大学信息学院
d (a1 , b1 ) d (a1 , bm ) d d (an , b1 ) d (an , bm )
d 1 0 0.5
10
失真函数
第 四 章
失真函数形式可以根据需要任意选取,最常用的有:
没有失真 产生失真
失真函数定义为:
0 d ( xi , y j )
西北大学信息学院
xi y j 0 xi y j
9
失真函数
将所有的d(xi,yj)排列起来,用矩阵表示为:
第 四 章 失真矩阵
信 息 率 失 例1:设信源符号序列为X={0,1},接收端收到符号序 列为Y= {0,1,2},规定失真函数为 真 失真矩阵 函 d(0,0)=d(1,1)= 0 数 0 1 0.5 d(0,1)=d(1,0)= 1
适于 离散 信源
西北大学信息学院
11
第 四 章 信 息 率 失 真 函 数
汉明失真矩阵
0 1 d 1 1 0 1 1 1 0
对于二元对称信源(m=n),X={0,1},Y={0,1},汉明失 真矩阵:
d
西北大学信息学院
0 1 1 0
信息论第四章习题解答
e( x)
1 x x2 x3 x4 x5 x6
0
校验子
s0( x) = 1 s1 ( x) = x s2 ( x) = x2 s3 ( x) = x2 ? 1 s4( x) = x2 ? x ? 1 s5( x) = x ? 1 s6( x) = x2 ? x
s无 (x) = 0
20
习题解答
第 4.13 已知 (7, 4) 循环码的生成多项式为 g( x) = x3 ? x2 ? 1,
注:实际上,正反码仅仅用作纠错码 。
8
习题解答
第 4.6 试分析用于电报系统的纠错码 正反码的检错和纠错
四
能力。若已知信道的误码率 Pe = 10- 4 , 求系统的正确接
章
收概率和漏检概率。
抗解 干 扰 二 元 编 码
(2) 当收到的码字无错或者一位错时, 能够正确接收, 因此正确接收的概率为: P正 = (1 - Pe)10 ? C110 Pe (1 - Pe)9 = 0.9999995502 4;
扰 二解 元 编
汉明码序列。
(1) 生成矩阵 [G] =
1000 101 0100 111 0010 110 0001 011
码
(2) 编码序列 1 1 0 1 1 1 0 1 0 0 1
0110 0110001
1010 1010011
14
习题解答
第 4.10 已知 (7, 3) 汉明码的监督矩阵为:
习题解答
第 四 章
抗 干
第四章 习题解答
扰
二
元
编
码
1
习题解答
第 4.1 写出与 10011 的汉明距离为 3 的码字。
四 章
信息论课件CHAPTER4
由于
h( X
)
h( X
/Y
)
p( xy) log
p( x / y)dxdy p( x)
p( xy)(1
p( x) )dxdy p(x | y)
0
仅当X、Y独立时等式成立。
4.1.5 连续随机变量集合差熵的性质(续) ——连续熵与离散熵的类似性
3. 可加性 设N维高斯随机矢量集合 XΝ X1X2 X N ,很容易证明
4.1.1 连续随机变量的离散化
一个连续随机变量的离散化过程大致如下:
若给定连续随机变量集合X 的概率分布F(x) P{X x} 或 概率密度p(x) ;再给定一个由实数集合到有限或可数集 合的划分 P ,使得
P {Si, i 1, 2, },其中Si 表示离散区间,i Si 为实数集合,
主要是高斯信源的差熵;然后介绍连续信 源最大熵定理;最后介绍连续集合之间的 平均互信息、离散集合与连续集合的平均 互信息。
§4.1 连续随机变量集合的熵
本节主要内容:
1.连续随机变量的离散化 2.连续随机变量集的熵 3.连续随机变量集的条件熵 4.连续随机变量集的联合熵 5.连续随机变量集合差熵的性质 6.连续随机变量集合的信息散度
4.1.5 连续随机变量集合差熵的性质 ——连续熵与离散熵的类似性
1. 连续熵与离散熵计算表达式类似。通过比较可见,由计算 离散熵到计算连续熵,不过是将离散概率变成概率密度, 将离散求和变成积分。
2. 熵的不增性。连续熵同样满足熵的不增原理,即
h( X ) h( X / Y )
(4.1.15)
i
p(xi )x log p(xi ) p(xi )x log x (4.1.5)
信息论与编码第四章课后习题答案
∫ =
− log λe−λx
∞ 0
+ log e
ln e−λx de−λx
∫ =
− log
λ
+
log
et
ln
t
0 1
−
log
e
dt
= −log λ + log e
= log e λ
(2)
h( X )
= −∫ p(x)log p(x)dx
∫ = − ∞ 1 λe−λ x log 1 λe−λ x dx
−∞ 2
2
∫ = − ∞ λe−λx log 1 λe−λxdx
0
2
∫ ∫ = − ∞ λe−λx log 1 dx − ∞ λe−λx log λe−λxdx
0
2
0
= log 2 + log e λ
= log 2e λ
注:(2)题直接借用了(1)的结论。
【4.3】设有一连续随机变量,其概率密度函数为:
sin
x
=
1 2
log
e∫
ln(1
+
sin
x)d
sin
x
+
1 2
log
e∫
ln(1
−
sin
x)d
sin
x
∫ ∫ ln(1+ sin x)d sin x
π
= (1 + sin
x) ln(1+ sin
x)
2 −π
−
2
1 + sin x d sin x 1 + sin x
= 2ln 2 − 2
∫ ln(1− sin x)d sin x
信息论讲义-第四章(10讲)
信息理论基础第10讲北京航空航天大学201教研室陈杰2006-11-274.3离散无记忆扩展信道一、无记忆N次扩展信道定义:假设离散信道[X, p (y|x ), Y ],输入符号集合:A ={a 1,a 2,……,a r }输出符号集合:B ={b 1,b 2, ……,b s } X 取值于A,Y取值于B.将输入,输出N次扩展得其中,Xi 取值于A,Yi 取值于B,i =1,2,……N12()N X X X =X "12()N YY Y =Y "信道XYp (y|x )2006-11-274.3离散无记忆扩展信道二、无记忆N次扩展信道其数学模型如下:若则称为N次无记忆扩展信道。
信道NX X X ……21NY Y Y ……211212(|)N N p y y y x x x ……12121(|)(|)(|)NN N i i i p p y y y x x x p y x ===∏y x ""[,(|),]N N N N X p y x Y2006-11-27三、离散无记忆信道数学模型信道输入序列取值信道输出序列取值信道转移概率信道X YNX X X X (21)Y Y Y Y ……=2112,N x x x x =……A x i ∈12,N y y y y =……B y i ∈1(|)(|)Ni i i p y x p y x ==∏{,(|),}i ip y x X Y 离散无记忆信道2006-11-27离散信道的数学模型可表示为定义若离散信道对任意N 长的输入、输出序列有称为离散无记忆信道,简记为DMC 。
数学模型为{,(|),}p y x X Y 1(|)(|)Ni i i p y x p y x ==∏{,(|),}i i p y x X Y2006-11-27(1) 对于DMC 信道,每个输出符号仅与当时的输入符号有关,与前后输入符号无关。
(2) 对任意n 和m ,,,若离散无记忆信道还满足则称此信道为平稳信道的或恒参信道。
信息论第四章习题解答
,则
,则
解:设改造的离散信道如下图所示:(一般连续改造成离散在信道容量上总要吃亏!)
这是标准的正态函数。
同理,另外三个信道特征也是可以同样推出。
因此,离散信道的条件概率矩阵(信道数字特征)就为:
因为这是一个二元对称信道,所以改造后的离散信道的信道容量CD为:
(2)
可见提高信扰比可以降低对频带的需求。Q.E.D.
5.9有 个相互独立的高斯信道,各具有频带 和噪声功率谱 ,容许输入功率为 ,求下列条件下的总容量:
(1) ,设 =常量,与 无关, 已给。
(2) ,设 =常量,与 无关。
(3)上述两式同时满足,设 =常量,与 无关。
解:(1).设:
即:按频带均分功率可以获得最大信道容量。
(3)“和”信道(图5.12(c))
输入 的集合是各 的集合的和,即 ;输出 的集合是各 的集合的和,求这“和”信道 的容量 ,并证明
(4)若用一般离散无记忆信道代替上面的二元对称信道。试写出上面(1)、(2)、(3)三种情况下的表达式。
5.3信道输入集 上定义费用函数 ,称ቤተ መጻሕፍቲ ባይዱ是平均费用,称 受平均费用 制约的信道容量为信道费用函数 ,试求下列诸信道的 ?
(1)
0
1
2
0
1
0
0
1
0
2
0
, ,
(2)
0
1
0
0
1
0
, ,
(3) ,
5.4有一全可抹信道如下图所示:
⑴.求信道容量。
⑵.当 时,求以下各随机量间的自互信息:
和 ,并加以解释。
(信息论、编码及应用)第4章连续信源与连续信道
连续信源的编码定理是信息论中最重 要的定理之一,它为信源编码提供了 理论依据和指导,广泛应用于数据压 缩、图像处理等领域。
02
连续信道
定义与特性
定义
连续信道是一种能够传输连续信号的通信通道,例如音频、 视频信号等。
特性
连续信道具有带宽限制、噪声干扰、信号衰减等特性,这些 特性会影响信号传输的质量和可靠性。
利用统计学习方法,如自适应滤 波、神经网络等,对信源和信道 进行学习和优化,实现动态匹配。
编码技术
采用适当的编码技术,如差分编 码、增量编码等,对信源进行编 码,使其更适应信道的传输特性。
匹配的优化策略
01
02
03
能效优先
在保证信息传输质量的前 提下,优先考虑能效,通 过优化信源和信道的参数, 降低能耗。
例如,在移动通信网络中,语音信号通常采用码分多址(CDMA)或长期演进(LTE) 等技术进行传输。这些技术能够提供较高的数据传输速率和较低的误码率,从而保 证语音信号的清晰度和可懂度。
图像信号传
图像信号传输是连续信源与连续信道的另一个重要应用领域。在电视广播、视频会议和在线教育等应用中,图像信号需要通 过连续信道进行传输。由于图像信号的数据量较大,因此需要采用高效的压缩编码技术来减小传输数据量,同时还需要保证 图像质量。
输速率,同时保证信息的可靠传输。
03
匹配理论的发展历程
随着信息论的不断发展,匹配理论也在不断完善,从早期的经典匹配理
论到现代的统计匹配理论,为连续信源与连续信道的匹配提供了更精确
的指导。
匹配的实现方法
参数调整
根据信源和信道的特性,调整相 关参数,如信源的压缩比、信道 的调制方式等,以实现匹配。
信息论第四章
1 = 2 bit 4 1 I ( x4 ) = − log = 3 bit 8 I ( x2 ) = − log
2-7 (2)消息序列自信息量: (2)消息序列自信息量: I (x i ) = − log p(x i ) 消息序列自信息量 该序列中0出现的次数为14次 13次 12次 该序列中0出现的次数为14次,1为13次,2为12次, 14 因此该消息序列的自信息量为: 3为6次,因此该消息序列的自信息量为:
1− ε I (a1, b1) = log = log 2(1 − ε ) 1/ 2
p(b2 /a1 ) I(a1;b2)= I(b2;a1) = log p(b2 )
P(b2)=P(b2,a1)+P(b2,a2)=P(b2/a1)P(a1)+ P(b2/a2)P(a2) =1/2* ε +(1-ε)*(1/2) =1/2
I (a 2, b 2) = log
ε
1/ 2
= log 2ε
2-17
1 H ( X) = −3 ×10 log = 3 ×105 × 7 = 2.1×106 bit 128
5
1 H (Y) = −1000 log = 13288 bit 10000
1 − N log = 2.1×106 10000
2-4
问题分析: 问题分析:平均信息量的求法
根据定义 H(X)= ( )
∑ p( x ) log p( x )
i i i
得:随意取出一球时,所需要的信息量为 随意取出一球时, (1) ) P(红)= P(白)=1/2 ( (
1 1 1 1 H(X)= − log 2 − log 2 ( ) 2 2 2 2 = 1比特 比特
信息论 第4章(哈夫曼编码和游程编码)
游程编码的基本原理
很多信源产生的消息有一定相关性,往往 连续多次输出同样的消息,同一个消息连续输 出的个数称为游程(Run-Length).我们只需要 输出一个消息的样本和对应重复次数,就完全 可以恢复原来的消息系列.原始消息系列经过 这种方式编码后,就成为一个个编码单元(如下 图),其中标识码是一个能够和消息码区分的特 殊符号.
文件传真压缩方法具体流程
主要利用终止码和形成码(见书本P43-44), 一般A4的纸每行的像素为1728,具体编码规则 如下: (1)当游程长度小于64时,直接用一个对应 的终止码表示。 (2)当游程长度在64到1728之间时,用一个 形成码加一个终止码表示。 例如:白游程为662时用640形成码(白)加22终 止码(白)表示,即:01100111 0000011. 黑游程为256时用256形成码(黑)加0终止码(黑) 表示,即:000001011011 0000110111.
哈夫曼(Huffman) (3)哈夫曼(Huffman)编码
哈夫曼编码:将信源中的各个消息按概率排序, 不断将概率最小的两个消息进行合并,直到合 并为一个整体,然后根据合并的过程分配码字, 得到各个消息的编码。 该方法简单明了,并且可以保证最终的编 码方案一定是最优编码方案。
哈夫曼(Huffman) 哈夫曼(Huffman)编码的例子
香农编码的例子
信息论--第四章第五节 变长码 第六节 变长信源编码定理
4.5 变长码
即时码
唯一可译码成为即时码的充要条件:
一个唯一可译码成为即时码的充要条件是其中任何一个
码字都不是其他码字的前缀。
所有的码 非奇异码 唯一可译码 即时码
4.5 变长码
即时码的构造方法
用树图法可以方便地构造即时码。树中每个中间节
点都伸出1至r个树枝,将所有的码字都安排在终端
节点上就可以得到即时码。
H H (S )
从而
LN H lim N N log r
4.6变长信源编码定理
对一般离散信源,无失真信源编码定理证 明
S S1S2 S N
H (S) H (S) LN 1 log r log r
H (S) LN H (S) 1 N log r N N log r N
H (S ) L logr 0
p(si ) log p( si ) p( si )li log r
i 1 i 1 q q
p( si ) log p( si ) p( si ) log r
i 1 i 1
q
q
li
4.6变长信源编码定理
紧致码平均码长界限定理证明
4.5 变长码
2. 变长唯一可译码判别方法(续)
例5.4 : C a c ad F1 d bb F2 eb cde F3 de F4 b F5 ad bcde
abb
bad deb bbcde 结论:F5中包含了C中的元素,因此该变长码不是唯一可译码。 问题: 判断 C={1,10,100,1000}是否是唯一可译码?
信道传信率
H (S ) H (S ) log r R H (S ) L log r
信息论第四章
Y
Y
1 P[F(bj)bj] p (a ib j)P [F (b j)b j]
Y
X ,Y
Y
p(aibj) P [a*bj]
P(aibj)
X,Y
Y
X,Ya*
① 按列计算平均错误概率 求联合概率矩阵 [P(ai)P(bj|ai)] 中每列除去 F(bj)=a* 所对应 的 P(a*bj) 以外所有元素之和。再对上述结果求和。
为使 P(e / bj )最小,就应选择 P(F(bj)/bj)为最大,即选 择译码函数 F(bj)a* 并使之满足条件:
P ( a * /b j) P ( a i/b j) a i a *
收到一个符号以后译成具有最大 后验概率的那个输入符号。
这种译码准则称为“最大后验概率准则”或“最小错误 概率准则”。
如果在扩展信道的输入端把8个可能作为消息的二元序列都作
为消息,M=8,则每个消息携带的平均信息量就是3比特,
而传递一个消息所得的符号数仍为三个二元码符号,则R就提
高到 1(比特/码符号)。这时的信道如下图所示。
发送消息
接受消息
这时只能规定接收端8个输出符号序列j与i 一一对应。这样, 只要符号序列中有一个码元符号发生错误就会变成其他所用 的码字,造成译码错误。只有符号序列中每个符号都不发生 错误才能正确传输。所以得到正确传输概率为
若采用前边讲到的译码函数A,则平均错误率为:
P E ' 1 3 Y , X a * P ( b / a ) 1 3 [ ( 0 . 3 0 . 2 ) ( 0 . 3 0 . 3 ) ( 0 . 2 0 . 5 ) ] 0 . 6
若输入不等概分布,其概率分布为:
P (a 1 ) 1 4 ,P (a 2 ) 1 4 ,P (a 3 ) 1 2
信息论基础-第4章信息论基础1
研究目的——信息传输系统最优化
1.可靠性高 使信源发出的消息经过信道传输后,尽可能准确地、 不失真地再现在接收端。
2.有效性高 经济效果好,用尽可能短的时间和尽可能少的设备来 传送一定数量的信息。
往往提高可靠性和提高有效性是矛盾的。
3. 保密性 隐蔽和保护通信系统中传送的消息,使它只能被授
权接收者获取,而不能被未授权者接收和理解。
★信息论研究的对象、目的和内容
研究对象——通信系统模型
信 源 消息 编码器 信号 信 道
干扰
噪声源
译码器 消息 信 宿
1. 信息源:简称信源 信源是产生消息和消息队列的源。如电视直播厅,广 播室,人等等。
特点:信源输出的消息是随机的、不确定的,但有一 定的规律性。
2. 编码器:
编码器是把消息变换成信号的措施,编码器输出的 是适合信道传输的信号。
定理4.2.5 熵函数 H X 是概率 px1, px2 ,..., pxN
的型凸函数。
定理4.2.6 当离散信源X取等概分布时,其熵 H X 取最大值。
max
H px1 ,
px2
,...,
pxN
H
1 N
,
1 Ng 1 log 1
i1 N
N
N
即:当信源取等概分布时,具有最大的不确定性。
(1) f ( p应i ) 是先验概率 的P(x单i ) 调递减函数,
即
P(x1)时 P,(x2 )
f [P(x1)] f [P(x2)]
(2) 当 P(xi )时,1
f ( pi ) 0
(3) 当 P(xi )时 0, f ( pi )
(4) 两个独立事件的联合信息量应等于它们分
信息论与编码理论-第4章无失真信源编码-习题解答-20071202
第4章无失真信源编码习题及其参考答案4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F(1)求这些码中哪些是唯一可译码;(2)求哪些码是及时码;(3)对所有唯一可译码求出其平均码长l。
4-2 设信源61261126()1()()()()iis s sXp sp s p s p sP X=⎡⎤⎡⎤==⎢⎥⎢⎥⎣⎦⎣⎦∑。
对此次能源进行m元唯一可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。
(提示:用kraft不等式)4-3设信源为1234567811111111()248163264128128s s s s s s s sXp X⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎢⎥⎣⎦,编成这样的码:(000,001,010,011,100,101,110,111)。
求(1)信源的符号熵;(2)这种码的编码效率;(3)相应的仙农码和费诺码。
4-4求概率分布为11122(,,,,)3551515信源的二元霍夫曼编码。
讨论此码对于概率分布为11111(,,,,)55555的信源也是最佳二元码。
4-5有两个信源X和Y如下:121234567()0.200.190.180.170.150.100.01X s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦123456789()0.490.140.140.070.070.040.020.020.01Y s s s s s s s s s p Y ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X 和Y 进行编码,并计算其平均码长和编码效率;(2)从X ,Y 两种不同信源来比较三种编码方法的优缺点。
4-6设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样 霍夫曼码的信源的所有概率分布。
4-7设信源为12345678()0.40.20.10.10.050.050.050.05X s s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,求其三元霍夫曼编码。
信息论ppt第四章
如图所示,信源在某时刻处于某一状态 si , 当它发出一个符号xim1 后,所处的状态就变了, 转移到状态 s j,因此,信源输出的符号序列X1 X 2 X m X m1 变换成信源状态序列S1S2 SmSm1 ,于是一个讨论 信源输出符号不确定性的问题变成讨论信源状态 转换的问题。
作业:1. 证明 2. 有一无记忆信源的符号集为{0,1},已知信源的 概率空间为 1 X 0 P 1 / 4 3 / 4 , (1)求信源熵; (2)求由m个“0”和(100-m)个“1”构成的某一特定序 列的自信息量的表达式; (3)计算由100个符号构成的符号序列的熵。
并设发出的符号只与前一个符号有关,其关联程 度由条件概率 p(a j | ai ) 给出,如下所示:
, 求:(1)此信源每发出一条消息提供的平均信息 量 H(X ) ; (2)此信源的平均符号熵 H2 ( X ) (3)此信源的极限熵 H 。
7 / 9 2 / 9 0 1/ 8 3/ 4 1/ 8 2 / 11 9 / 11 0
实际信源分类如下:
离散无记忆信源 记忆长度无限 平稳信源 离散平稳信源 离散有记忆信源 记忆长度有限 随机过程:波形信源 (马尔科夫信源) 连续平稳信源 非平稳信源
第二节
离散离 散单符号信源,它是最简单、最基本的信 源,是组成实际信源的基本单元,用一个 离散型随机变量表示。 信源所有可能输出的消息和消息所对应 的概率共同组成的二元序 [ X , P( X )] 对称为信 源的概率空间。
X X x1 , X x2 , X xi , X xq P( X ) p( x ), p( x ), p( x ), p( x ) 2 i q 1
信息论第4章(波形信源和波形信道)ppt课件
4.1波形信源的统计特性和离散化
随机变量 X
随机矢量X(X1X2 XN)
随机过程{ x ( t ) }
05-06学年上 3 .
表4.1
消息(信号) 消息(信号)取 取值的集合 值时刻的集合
信源种类
离散
离散
离散信源(Discrete source)/ 数字信源(Digital source)
假定连续信源 X 的概率密度 函数p(x)如右 图所示。我们 把取值区间分 割成 n 个等宽 的小区间。X 处于第 i 区间 的概率为
05-06学年上
Pi Pa(i1)xai
ai
7.
a(i1)p(x)dxp(xi)
这样,连续变量 X 就可用取值为 xi 的离 散变量 Xn 来近似。连续信源 X 被量化成 离散信源。
lo2gae
05-06学年上 18 .
4.3具有最大熵的连续信源
离散信源的最大熵问题:离散信源的各 符号为等概率分布时,信息熵有最大值 (最大离散熵定理)。
H(p1, p2,
,
pr
)
H1r,
1, r
r
条件是 pi 1 i1
,1rlogr
05-06学年上 19 .
在什么条件下,连续信源的熵最大?
最大熵为:
N
h(X)log (bi ai)比特 /自由度 i1
05-06学年上 23 .
平均功率受限条件下信源的最大熵 (方差受限)
定理:若一个信源输出信号的平均功率被 限定为P,则其输出信号幅度的概率密度 分布是高斯分布时,信源具有最大熵。
最大熵为:
h (X ) 1 lo 2 e gP 或 h (X ) 1 lo 2 e g 2
信息论与编码第四章课后习题答案
−∫
1 − sin x d sin x 1 − sin x
因此有
h( X ) = −2 A log A −
A log e(2 ln 2 − 2 + 2 ln 2 − 2) 2Байду номын сангаас= −2 A log A + 2 A log e − 2 A log e ln 2 = −2 A log A + 2 A log e − 2 A 1 ,因此 2
试计算 h( X ) , h(Y ) , h( XY ) 和 I ( X ; Y ) 。 解: p( x) = ∫ p ( x, y )dy 1 =∫ dy (a 2 − a1 )(b2 − b1 ) = 1 a2 − a1
同理, p( y ) = 因此
1 。 b2 − b1
h( X ) = − ∫ p ( x ) log p ( x)dx = log(a 2 − a1 ) h(Y ) = − ∫ p( y ) log p( y )dy = log(b2 − b1 ) h( XY ) = − ∫ p ( x, y ) log p ( x, y )dxdy = log( a2 − a1 ) + log(b2 − b1 ) I ( X ; Y ) = h( X ) + h(Y ) − h( XY ) = 0 【4.7】在连续信源中,根据差熵、条件差熵和联合差熵的定义,证明 (1) h( X | Y ) ≤ h( X ) ,当且仅当 X 和 Y 统计独立时等号成立; (2)h( X 1 X 2 L X N ) ≤ h( X 1 ) + h( X 2 ) + L + h( X N ) ,当且仅当 X 1 X 2 L X N 彼此统计 独立时等式成立。 证明: (1) h( XY ) = − ∫ p( y )dy ∫ p( x | y ) log p ( x | y )dx ≤ − ∫ p ( y )dy ∫ p( x | y ) log p ( x )dx = − ∫ p( x, y ) log p ( x )dxdy = h( X ) 等号成立当且仅当 p( x | y ) = p ( x ) ,即 p( x, y ) = p( x ) p ( y ) ,因此仅当 X 和 Y 统计 独立时等号成立。 (2)根据条件概率密度的相关公式,有 h( X 1 X 2 X N ) = h( X 1 ) + h( X 2 | X 1 ) + h( X 3 | X 1 X 2 ) + L + h( X N | X 1 X 2 X N −1 ) 根据(1)的结论,条件差熵小于差熵,因此有 h( X 1 X 2 L X N ) ≤ h( X 1 ) + h( X 2 ) + L + h( X N ) 等号成立当且仅当
信息论第4章
第四章抽象代数基础自古以来,许多数学家都在探讨数学的“本质”。
为使庞大的数学知识变得简而精,数学家们经常依据数学各领域间潜在的共性,提出统一数学各部分的新观点、新方法。
1872年,德国数学家克莱因提出了用“群”的观点来统一当时杂乱的各种几何学(欧氏几何、非欧几何包括黎曼几何和罗氏几何等);1883年,美国数学家毕尔霍夫提出“格”的概念,以统一代数系统的各种理论和方法;十九世纪末二十世纪初出现了公理化运动,以公理系统作为数学统一的基础。
1938年法国布尔巴基学派不但继承了公理化运动的成果,而且提出数学公理结构的概念,以非常抽象的方式叙述全部数学,把数学的核心部分在结构这一概念下统一成一个整体。
他们认为整个数学学科的宏伟大厦可以99建立在丝毫不求助于直观的彻底公理化基础上。
他们从集合论出发,对全部数学分支给予完备的公理化,认为最普遍、最基本的数学结构有三类:代数结构、顺序结构、拓扑结构。
而群结构是最基本的代数结构之一。
我们所要介绍的抽象代数也叫近世代数,就是研究代数结构(或代数系统)的一门学科。
抽象代数有许多分支,除了线性代数外,还有群论、环论、域论、格论、布尔代数、李代数等等。
这些分支都先后在其他科学领域中找到了用场。
布尔代数后来在线路设计、自动化系统、电子计算机设计方面得到了广泛应用。
线性代数、群、环、域,特别是有限域的理论,看起来很抽象,然而在编码问题中却找到了具体的应用,起着重要的作用。
因此,要学习编码理论,必须首先学习抽100101 象代数的有关知识。
下面我们就把抽象代数的几个基本概念作一个很粗浅的介绍。
第一节 代数结构——群、环、域一. 集合1. 集合的基本概念集合:在一定范围内的讨论对象组成的整体。
元素:组成一个集合的各个个体,叫做这个集合的元素。
子集:设两个集合A 和B ,若A 中的每个元素又都是B 中的元素,则称A 为B 的子集,记为:真子集:若 ,且B 中至少有一个元素不属于A ,则称A 为B 的真子集,记为:AB B A ⊇⊆或,A B ⊇A B B A ⊃⊂或,102 空集:不含任何元素的集合,用Φ表示。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
§4.2 离散无记忆信道
例4.2.1(p89)二元对称信道BSC是离散无记忆恒参信道。
0 0.1 0.1 1 1 0.9 0.9 0
当N=1时,p(0/0)=p(1/1)=0.9,p(1/0)=p(0/1)=0.1 当N=2时, p(00/00)=p(11/11)= p(0/0) p(0/0)= 0.9*0.9=0.81 P(10/00)=p(01/00)=p(01/11)=p(10/11)=0.1*0.9 =0.09 P(11/00)=p(00/11)=0.1*0.1=0.01
1 w( y ) q( x) p( y | x) K x 0 1 K
K 1
p( y | x)
x 0
K 1
p(0 | x),
x 0
2018/10/30 15
K 1
K 1 1 K 即w( y )与y无关。w( y )= , 此时 p ( y | x)= 。 J J x 0
5
2018/10/30
§4.2 离散无记忆信道
一、有关DMC的容量定理(所说的DMC都是离散无记忆平 稳信道) 设 DMC在某个时刻输入随机变量为X,输出随机变量为Y。 信道响应特性为转移概率矩阵 [p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 它是一个K×J阶矩阵(其中p(y|x)=P(Y=y|X=x))。 X的概率分布为{x, q(x), x∈{0, 1, …, K-1}}。 Y的概率分布为{y, w(y), y∈{0, 1, …, J-1}}。 以下的结论是我们已知的。
§4.2 离散无记忆信道
定义4.2.6(p92) 若DMC的转移概率矩阵P的列的全体可 分成若干个列子集,每个列子集所对应的P的子阵都 满足以下两条性质: (1)任一行是第一行的置换, (2)任一列是第一列的置换。 则称信道为准对称信道。 (显然,准对称信道关于输入是对称的。特别若列子 集只有一个,即转移概率矩阵P本身的任一行是第一 行的置换,任一列是第一列的置换,则称信道为对 称信道。 )
若P的任一行是第一行的置换,则称信道是关于输入为对称的。 若P的任一列是第一列的置换,则称信道是关于输出为对称的。 若信道是关于输入为对称的,又是关于输出为对称的,则称信 道为对称信道。
2018/10/30 13
§4.2 离散无记忆信道
命题1 若DMC关于输入为对称的,则
1 H (Y | X ) p( y | k ) log H (Y | X k ) p( y | k ) y 0
2018/10/30 2
§4.2 离散无记忆信道
定义4.2.1和定义4.2.2(p88-89) 如果 (1)信道的输入为随机变量序列X1, X2, X3, …,其中每个随机 变量Xu的事件集合都是{0, 1, …, K-1}, (2)信道的输出为随机变量序列Y1, Y2, Y3, …,其中每个随机 变量Yu的事件集合都是{0, 1, …, J-1}, 则称该信道为离散信道。如果更有 (3)P((Y1Y2…YN)=(y1y2…yN)|(X1X2…XN)=(x1x2…xN)) =P(Y1=y1|X1=x1)P(Y2=y2|X2=x2)…P(YN=yN|XN=xN), 则称该信道为离散无记忆信道(DMC)。如果更有 (4)对任意x∈{0, 1, …, K-1},y∈{0, 1, …, J-1},任意两个时 刻u和v,还有P(Yu=y|Xu=x)=P(Yv=y|Xv=x), 则称该信道为离散无记忆平稳信道或恒参信道。
I ( X k ; Y ) p( y | k ) log K 1
y 0 z 0 J 1
p( y | k )
q( z ) p( y | z )
都取一个相同的值;对任何满足q(k)=0的k,I(X=k; Y)≤此相同 的值。 (2)此时此相同的值恰好就是信道容量C。 (定理4.2.2实际上叙述了定理2.6.2的含义。)
2018/10/30 6
§4.2 离散无记忆信道
(1)转移概率矩阵的每一行都是一个概率向量。
p(1 | 0) p( J 1 | 0) p(0 | 0) p(0 | 1) p ( 1 | 1 ) p ( J 1 | 1 ) p ( 0 | K 1 ) p ( 1 | K 1 ) p ( J 1 | K 1 )
2018/10/30 18
§4.2 离散无记忆信道
定理4.2.3(p92) 对于准对称DMC信道, (1)达到信道容量的最佳输入分布为等概分布; (2)信道容量为
对任意x,
p( y | x) P(Y {0,1,, J 1} | X x) 1
y 0
J 1
2018/10/30
7
§4.2 离散无记忆信道
(2)对任意y∈{0, 1, …, J-1},由全概率公式有
w( y ) q( x) p( y | x)
x 0
K 1
( w(0), w(1),, w( J 1)) p(1 | 0) p( J 1 | 0) p ( 0 | 0) p(0 | 1) p ( 1 | 1 ) p ( J 1 | 1 ) (q(0), q(1),, q( K 1)) p(0 | K 1) p(1 | K 1) p( J 1 | K 1)
定义4.2.3(p89) 离散无记忆信道的信道容量定义为如下的C。 达到信道容量的输入概率分布{x, q(x), x∈{0, 1, …, K-1}}称 信道容量表示了 信道传送信息的 为最佳输入分布。 其中
C
q {q ( x ), x{0 ,1,, K 1}}跑遍所有的 K维概率向量
max
x 0 y 0 z 0 K 1 J 1
p ( y | x)
q( z ) p( y | z )
9
2018/10/30
§4.2 离散无记忆信道
(4)设转移概率矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}](是信道的响应特性)确定,希望选择概率向量{q(x), x∈{0, 1, …, K-1}}使I(X; Y) 达到最大。(则见p33定理2.6.2说 明平均互信息量的最大值存在,可以取到。)
第四章:信道及其容量
2018/10/30
1
§4.1 信道分类
信道是传输信息的媒质或通道。(输入→信道→输出) 说明 (1)信道输入是随机过程。 (2)信道响应特性是条件概率P(输出值为y|输入值为x),又称 为转移概率。 (3)信道输出是随机过程,输出的概率分布可以由输入的概率 分布和信道的响应特性得到。(全概率公式) (4)根据信道输入、信道响应特性、信道输出的情况,可将信 道分类:离散信道(又称为数字信道);连续信道(又称 为模拟信道);特殊的连续信道——波形信道;恒参信道 和随参信道;无记忆信道和有记忆信道;等等。
2018/10/30 16
§4.2 离散无记忆信道
例4.2.2 准对称信道的例子。(见p92)
0.8 0.1 0.1 P 0.1 0.1 0.8
因为Y={0,1,2}可划分为两个子集{0,2}和{1}, 而每个子集对应于矩阵P的列所构成的子阵 分别为 0.8 0.1 0.1
I ( X ;Y )
2018/10/30
最大能力,这个 量在信息论研究 中有重要意义。 传送的信息量必 须小于信道容量 10 C
§4.2 离散无记忆信道
定理4.2.2(p91) (1)输入概率分布{x, q(x), x∈{0, 1, …, K-1}}是最佳输入分 布的充分必要条件为:对任何满足q(k)>0的k,
2018/10/30 14
K 1 J 1
K 1
J 1
§4.2 离散无记忆信道
命题2 若DMC关于输出为对称的,则当输入分布等概时,输 出分布等概。 证明 此时{p(y|x),x=0~ K-1}与{p(0|x),x=0~ K-1}互为置换。 设q(x)=1/K,x∈{0, 1, …, K-1}。则
2018/10/30 11
§4.2 离散无记忆信道
注解 给定一个DMC信道的响应特性,也就是说给定一个信道的转 移概率矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}], 达到信道容量时所对应的最佳输入分布是满足定理4.2.2条件 的概率向量{q(x), x∈{0, 1, …, K-1}} 。 其信道容量是每个使得q(k)>0的k所对应的半平均互信息量 I(X=k; Y)。 如果对DMC信道没有任何简化,要计算最佳输入分布并不容 易。但是,通常使用的DMC是很简单的(比如,以下的准 对称信道和对称信道),最佳输入分布很容易求出。
2018/10/30 8
§4.2 离散无记忆信道
(3)I(X; Y)是概率向量{q(x), x∈{0, 1, …, K-1}}和转移概率 矩阵[p(y|x),x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}]的函数。
K 1 J 1
p( y | x) I ( X ; Y ) P(( XY ) ( xy)) log w( y ) x 0 y 0 q( x) p( y | x) log K 1
2018/10/30 3
§4.2 离散无记忆信道(DMC)
关于定义4.2.1和定义4.2.2的注解 “离散”的含义是时间离散,事件离散。即:信道的输入、 输出时刻是离散的,且输入随机变量和输出随机变量都是 离散型的随机变量。 “无记忆”的含义是信道响应没有时间延迟,当时的输出 只依赖于当时的输入。 “平稳”的含义是信道在不同时刻的响应特性是相同的。 “离散无记忆平稳信道”是最简单的信道,信道在某一时 刻u的响应特性 P(Yu=y|Xu=x); x∈{0, 1, …, K-1},y∈{0, 1, …, J-1}, 就能很简单地计算出信道在任意时间段的响应特性。即在 DMC(若无特殊说明就意味着满足平稳条件)下,只需 研究单个字母传送。