《信息论》(电子科大)复习资料
信息论复习提纲
信息论复习提纲第一章1、信息的概念。
信息是事物运动状态或存在方式的不确定性的描述。
2、信息论的研究对象、研究目的。
对象:通信系统模型。
目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。
3、通信系统模型的组成,及各部分的功能(1)信息源:产生消息的源,消息可以是文字,语言,图像。
可以离散,可以连续。
随机发生。
(2)编码器:信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质(4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。
(5)信宿:信宿是消息传送的对象,即接受消息的人或机器。
(6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。
4、消息,信号,信息三者之间的关系信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延第二章1、信源的分类,着重单符号信源。
信源的概率空间的构成形式。
单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。
单消息(符号)信源:单消息(符号)信源--离散信源单消息(符号)信源--连续信源2、自信息的计算及物理含义,单位与底数的关系,含义。
计算:含义:当事件ai发生以前,表示事件ai发生的不确定性当事件ai发生以后表示事件ai所含有(所提供)的信息量单位与底数的关系:通信与信息中最常用的是以2为底,这时单位为比特(bit);理论推导中用以e为底较方便,这时单位为奈特(Nat);工程上用以10为底较方便,这时单位为哈特(Hart)。
它们之间可以引用对数换底公式进行互换。
信息论基础总复习
2. 编码器 编码器是将消息变成适合于 信道传送的信号的设备。
信源编码器,提高传输效率
编码器
信道编码器,提高传输可靠性
3. 信道 信道是信息传输和存储的媒介。
4. 译码器 译码是编码的逆变换,分为 信道译码和信源译码。
5. 信宿 信宿是消息的接收者。
1.3 离散信源及其数学模型
信源是产生消息的源,根据X的不同情况,信源可分为以下
条件互信息
I(X ;Y|Z ) x y z p (x) ylo zp p (g (x x||z y z ))
I(X ;Y |Z ) H (X |Z ) H (X |Y )Z
I(X;Y)ZI(X;Y)I(X;Z|Y) I(X;Z)I(X;Y|Z)
连续随机变量的互信息
I(X;Y) 0 I (X ;Y ) I (Y; X ) I (X ;Y | Z) I (Y; X | Z) I(X;Z) I(X;Y) I (XY; Z) I (X ; Z) I (Y; Z | X )
说明: R(D)也称率失真函数。
对于离散无记忆信源,R(D)函数可写成
R (D )p m i jpDi n i1n jm 1p(xi)p(yj/xi)lop(p g y (jy/jx )i)
输入 xX
信道模型
输入 y Y
转移概率矩阵
p(y/ x)
图5-1-2 信道模型
5.1.2 信道容量
• 1.如何刻画DMC信道的容量 考虑一个DMC信道,其输入字符集是X={x0, x1,…,xq-1},输出字符集是Y={y0,y1,…, yQ-1},转移概率P(yj/xi). 若给定信道的转 移概率和对应于输入符号的概率分布p(xi), 则 DMC信道容量C为
• 这个表达式平均错误译码概率的最小值, 是把每一个yj对应的后验概率排除后再连 续求和。
信息论复习资料
8、 解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。 最大似然译码准则下,将接收 序列译为信道传递概率最大时所对应的码字。 最小距离译码准则下,将接收序列译为与其距离最小的码字。 三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。在二元对称无记忆信道 中,最小距离译码准则等效于最大似然译码准则。 9、 保真度准则为:平均失真度不大于允许的失真度。 10、限失真信源编码:有失真信源编码的中心任务,在允许的失真范围内把编码的信息率压缩到最小。
4、线性分组码不具有的性质是(C)
1 / 2 1 / 4 [P XY ] 1 / 12 1 / 6
; [ PY ] [7 / 12 5 / 12] ;
; H (Y ) 7 / 12 log 2 (12 / 7) 5 / 12 log 2 (12 / 5)
I ( X ; Y ) H (Y ) H (Y | X )
对应的剩余度为
1 1
H1 0.811 1 0.189 H0 1 1 1 1 log log 2 2 2 2 H2 0.681 1 0.319 H0 1 1 1 1 log log 2 2 2 2
H ( p1 , p2 , , pL 1 , pL ) pL H (
并说明等式的物理意义
q q1 q2 , , , m ) pL p L pL
14、一阶齐次马尔可夫信源消息集
X∈{a1,a2,a3} ,状态集S∈{S1,S2,S3}且令 Si=ai,
1 4 1 4 1 2 P(aj / S i ) 1 3 1 3 1 3 2 3 1 3 0
信息论复习资料
判断30名词解释4*5计算3道20分第一章1、自信息和互信息P6 公式2、信道P9 概念第二章1、离散平稳信源P18概念2、离散无记忆信源P19概念3、时齐马尔可夫信源P20概念4、自信息P22概念5、信息熵P25概念6、信息熵的基本性质P281)对称性2)确定性3)非负性4)扩展性5)可加性6)强可加性7)递增性8)极值性9)上凸性7、联合熵条件熵P42公式P43例题8、马尔克夫信源P54公式P55例题9、信源剩余度P5810、熵的相对率信源剩余度P5811、课后作业:2、4、13、21、22第三章1、有记忆信道P73概念2、二元对称信道BSC P743、前向概率、后向概率、先验概率、后验概率P764、条件熵信道疑义度、平均互信息P775、平均互信息、联合熵、信道疑义度、噪声熵计算公式P786、损失熵噪声熵 P797、平均互信息的特性P821)非负性2)极值性3)交互性4)凸状性8、信息传输率R P869、无噪无损信道P87概念10、有噪无损信道P88概念11、对称离散信道 P89概念12、对称离散信道的信道容量P90公式张亚威2012/06/20张亚威2012/06/2116、 数据处理定理 P113定理 17、 信道剩余度 P118公式 18、 课后作业:1、 3、 9第五章1、 编码:实质上是对信源的原始符号按一定的数学规则进行的一种变换。
2、 等长码 P172概念3、 等长信源编码定理 P1784、 编码效率 P1805、 克拉夫特不等式 P1846、 香农第一定理 P1917、 码的剩余度 P194第六章1、 最大后验概率准则 最小错误概率准则 P2002、 最大似然译码准则 P2013、 费诺不等式 P2024、 信息传输率(码率) P2055、 香农第二定理 P2156、 课后习题 3、第八章1、 霍夫曼码 最佳码 P2732、 费诺码 P2793、 课后习题 11、第八章1、 编码原则 译码原则 P3072、 定理9.1 P3133、 分组码的码率 P314公式4、 课后习题 3、一、 填空题1、 在现代通信系统中,信源编码主要用于解决信息传输中的 有效性 ,信道编码主要用于解决信息传输中的 可靠性 ,加密编码主要用于解决信息传输中的 安全性 。
信息论复习纲领
第二章知识要点: 1.自信息量:(),)log ()i i i i p x p x =-设事件x 的概率为那么,他的自信息定义为I(x上定义式取对数的底为2,信息量的单位为比特 (bit); 上定义式取对数的底为e ,信息量的单位为奈特 (nat);上定义式取对数的底为10,信息量的单位为哈脱来(haitely---hat)。
2.互信息量:(|)(;)log ()11loglog()(|)i j i j i i i j p x y I x y p x p x p x y ==-3.平均自信息量(熵)1()[()][log ()]()log ()qi i i i i H X E I x E p x p x p x ===-=-∑3’.熵函数:12121X ,,...,()()(,,...,)log q qq i ii p p p H X H p H p p p p p ===-∑因为随机变量集的熵H(X)只是其概率分布的函数,所以熵函数又可记为4.条件熵:(|)()(|)()log (|)XYXYH Y X p xy I y x p xy p y x ==-∑∑5.联合熵(,)()()()log ()i j i j XYi j i j XYH X Y p x y I x y p x y p x y ==-∑∑6.平均互信息量(;)()(;)(|)()log()()(;)j j Yi j i j XYi i j i j XYI X Y p y I X y p x y p x y p x p x y I x y ===∑∑∑2.9 如有6行8列的棋型方格,若有2个质点A 和B ,分别以等概率落入任一方格内,且它们的坐标分别为(X A ,Y A )、(X B ,Y B ),但A ,B 不能落入同一方格内。
试求: (1)若仅有质点A ,求A 落入任一个方格的平均自信息量是多少? (2)若已知A 已人,求B 落人的平均自信息量。
电子科大信息论导论复习资料
A.信息技术复习题一、单选题1.关于信息,以下说法不正确的是( C )。
A.信息是有价值的 B.信息能减少对事物认识的不确定性C.信息具有滞后性 D.信息具有不可转换性2.查询信息在信息处理中所属于的阶段是( C )。
A.输入 B.加工 C.输出 D.输入和输出3.信息技术的发展趋势不会是( A )。
A.应用的复杂化 B.传输的高速化 C.信息的多媒体化 D.网络化4.对于信息社会,以下说法不正确的是( C )。
A.信息成为社会发展的重要资源 B.人们可以十分方便地获取各种资源C.人们都生活在虚拟的信息空间中 D.信息产业成为国民经济的重要产业5.直接获取信息的途径是( B )。
A.看电视 B.从事科学研究 C.听广播 D.上网浏览6.在信息处理过程中,以下属于数值信息处理的过程是( C )。
A.用Word制作一张小报 B.用扫描仪扫描一张图片C.用计算机解方程 D.用计算机录制一段声音7.信息技术的英文缩写是( A )。
A.IT B.IE C.OS D.I/O8.计算机与( D )是信息处理的核心。
A.电视机 B.传真机 C.打印机 D.网络9.现代计算机所采用的存储程序原理是由( C )提出的。
A.图灵 B.布尔 C.冯·诺依曼 D.爱因斯坦10.通常认为,第一台电子计算机诞生于( A )。
A.1946 B.1948 C.1950 D.195211.计算机发展阶段的划分是以( C )作为标志的。
A.程序设计语言 B.存储器 C.逻辑元件 D.运算速度12.第一代计算机主要采用( B )元器件。
A.晶体管 B.电子管 C.中小规模集成电路 D.超大规模集成电路13.计算机软件系统包括( C )。
A.编辑软件和连接程序 B.数据库软件和管理软件C.系统软件和应用软件 D.程序和数据14.在计算机硬件系统中,用于实施算术运算和逻辑判断的主要部件是( A )。
A.运算器 B.控制器 C.存储器 D.显示器15.以下不属于应用软件的是( A )。
信息论复习知识点
信息论复习知识点(总11页) -CAL-FENGHAI.-(YICAI)-Company One1-CAL-本页仅作为文档封面,使用请直接删除1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
3、最大熵值为。
4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。
6、只要,当N足够长时,一定存在一种无失真编码。
7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。
8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
按照信息的地位,可以把信息分成客观信息和主观信息。
人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
信息的可度量性是建立信息论的基础。
统计度量是信息度量最常用的方法。
熵是香农信息论最基本最重要的概念。
事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
《信息论》(电子科大)第1章 概论
信息论导论
通信与信息工程学院 陈伟建
电子科技大学
第1章 概论
什么是信息(information)? 什么是信息(information)? 什么是信息论(information 什么是信息论(information theory, informatics)? informatics)? 什么是信息科学(information science)? 什么是信息科学(information science)?
三,信息科学及其研究内容
电子科技大学
1,信息科学的概念 一般认为,信息科学是研究信息的度量, 一般认为,信息科学是研究信息的度量, 获取,传递,存储, 获取,传递,存储,处理和施用的技术 科学. 科学. 进一步, 进一步,可以从信息科学的研究对象和 研究内容两个方面来理解信息科学的概 念.
①信息科学以信息为研究对象 维纳曾指出:信息既不是物质, 维纳曾指出:信息既不是物质,也不是 能量,信息就是信息. 能量,信息就是信息. 维纳揭示了信息具有与物质 了信息具有与物质, 维纳揭示了信息具有与物质,能量不同 的属性. 的属性. 辞海》对信息的解释中也明确提出: 《辞海》对信息的解释中也明确提出: 信息, 信息,物质和能量被称为系统的三大要 素.
从通信的实质意义来讲,如果信宿收到 从通信的实质意义来讲, 的消息是已知的, 的消息是已知的,则等于没有收到任何 消息. 消息. 因此, 因此,人们更感兴趣的是消息中所包含 的未知成分,用概率论的术语来讲, 的未知成分,用概率论的术语来讲,就 是具有不确定性的成分, 是具有不确定性的成分,香农将该成分 称为信息,并进行了数量描述. 称为信息,并进行了数量描述. 三者的关系:通信系统传输的是信号, 三者的关系:通信系统传输的是信号, 信号承载着消息, 信号承载着消息,消息中的不确定成分 是信息. 是信息.
信息论复习提纲
信道传递概率可以用信道矩阵来表示:
x1 x2 P xr
y1 p( y1 | x1 ) p( y | x ) 1 2 p( y1 | xr )
y2 p( y2 | x1 )
p( y2 | x2 ) p( y2 | xr )
ys p( ys | x1 ) 1 p( ys | x2 ) p( ys | xr )
i
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续14)
例3:求二元删除信道的 H ( X )、H (Y )、H ( X | Y )和I ( X ;Y ) 。
已知
1 3 PX 4 4
1 1 2 2 0 P 1 2 0 3 3
3. 后验概率(后向概率): 贝叶斯公式
p ( xi | y j ) p ( xi y j ) p( y j ) p ( xi ) p ( y j | xi )
p( x ) p( y
i 1 i
r
j
| xi )
(i =1,2,…,r;j =1,2,…,s)
且
p ( xi | y j ) 1
Y y2
ys
i 1, 2,..., r ; j 1, 2,..., s
满足: (1)0≤ p(yj|xi) ≤ 1 (i=1,2,…,r;j=1,2,…,s) (2)
p( y j | xi ) 1
j 1
s
(i=1,2,…,r)
第四章:信道及信道容量
二、离散单符号信道及其信道容量
1.离散单符号信道的数学模型(续2)
r s
第四章:信道及信道容量
《信息论》(电子科大)第六章 连续信源与连续信道
电子科技大学
H c ( X) = ∫ p( x)lbp ( x)dx
a
b
相对熵不能反映连续信源的平均不确定 度. 定义相对熵的目的: 定义相对熵的目的: 在形式上与离散信源熵统一; ①在形式上与离散信源熵统一; 熵差具有信息测度的意义. ②熵差具有信息测度的意义.
电子科技大学
同理,可以定义其它相对熵: 同理,可以定义其它相对熵: 两个连续随机变量的联合熵
b b
= lb (b a ) + lbe [ ∫
b
a
= lb (b a )
b 1 dx ∫ p( x )dx ] a ba
电子科技大学
平均功率受限条件下的最大熵定理 随机变量的平均功率被限定, 随机变量的平均功率被限定,则均值为 零,方差为该平均功率的高斯分布的连 续信源具有最大熵, 续信源具有最大熵,即
p( x ) = 1 2π σ
2 (xm)2 2σ 2
e
,∞ < x < ∞
其中,m = E[ X] = ∫ xp( x)dx 其中 ,
σ = E[( X m ) ] = ∫ ( x m ) p( x)dx
2 2 2
∞
∞ ∞
H c ( X) = ∫ p( x)lbp ( x)dx ∞ (xm )2 ∞ 1 2σ 2 e )dx = ∫ p( x )lb ( 2 ∞ 2π σ
∫
b
a
p( x)dx = 1
电子科技大学
H c ( X) = ∫ p( x)lbp ( x)dx
ba dx = ∫ p( x )lbp ( x ) a ba
b
b
a
1 dx = ∫ p( x )lb (b a)dx + ∫ p( x)lb a a (b a)p( x ) b b 1 dx = lb (b a)∫ p( x)dx + lbe ∫ p( x) ln a a (b a)p( x) b 1 ≤ lb (b a ) + lbe ∫ p( x )[ 1]dx a (b a)p( x)
信息论期末复习
i 1 求出p(ai ) 求出p(a ) 若 p(a ) 0则C就是所求的信道容量,否则重新计算 i i 求出p(a i )
i 1
a) 由p1(b j ) 1 p(ai ) p(/b j i / ai ) i i
n
n
求出p(ai )
22
离散无记忆扩展信道及其信道容量
23
若输入符号的先验概率非等概率分布,则采用最小错误概 率准则可以使平均错误概率达到最小。
译码函数的选择方法:计算信道的联合概率矩阵,F(bj)应该译成 联合概率矩阵第j列概率最大的那个元素对应的信源符号。 平均错误概率的计算方法:按列计算,即把联合概率矩阵每列的 错误概率相加,再对各列相加。
51Leabharlann 诺不等式29按噪声的统计特性
高斯信道 白噪声信道 高斯白噪声信道 有色噪声信道 乘性信道 加性信道
按噪声对信号的作用
30
连续信道与波形信道的信息传输率
基本连续信道的平均互信息
连续信道平均互信息的特性
31
32
连续信道与波形信道的信道容量
单符号高斯加性信道的信道容量
限带高斯白噪声加性波形信道的信道容量
独立并联信道及其信道容量
数据处理定理、信息不增性原理
24
信源与信道的匹配
25
第四章 波形信源与波形信道
连续信源的差熵
26
两种特殊连续信源的差熵
均匀分布
高斯分布
27
差熵的性质
28
具有最大差熵的连续信源
信息论期末复习
第二章 信源熵一、自信息量1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。
定 义为其发生概率对数的负值。
若随机事件发生i a 的概率为)(i a p ,那么它的自信 息量为:)(log )(2i i a p a I -= (bit )2. 性质:在事件发生前,)(i a I 表示该事件发生的不确定性。
在事件发生后,)(i a I 表示事件发生所提供的信息量。
二、信源熵1. 定义: 已知单符号离散无记忆信源的数学模型我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信源的平均信息量: )(log )(])(1[log )]([)( 212i ni i i i a p a p a p E a I E X H ∑=-=== 2. 信源熵与平均自信息量之间的区别两者在数值上是相等的,但含义不同。
信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。
信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。
在离散信源的情况下,信源熵的值是有限的。
而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。
3. 最大离散熵定理:信源X 中包含n 个不同离散消息时,信源熵H(X)有: n X H 2log )(≤当且仅当X 中各个消息出现的概率全相等时,上式取等号。
4. 扩展信源的信源熵:N 次扩展信源的信源熵:)()(X NH X H N=)(,),(,),(),( , , , ,,)( 2121⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡n i n i a p a p a p a p a a a a X P X三、平均互信息量 1. 定义:互信息),,2,1;,,2,1()/()()()(log );(2m j n i b a I a I a p b a p b a I j i i i j i j i ==-==在联合概率空间中的统计平均值。
《信息论》(电子科大)复习资料
信息论导论参考资料作者 龙非池第一章 概论● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。
目前,信息论中主要研究语法信息● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。
信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。
第二章 离散信源及离散熵● 单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
● 单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。
离散熵的性质和定理:H(X)的非负性;H(X)的上凸性; 最大离散熵定理:()H X lbn ≤● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===则称该多符号离散信源为N 维离散平稳信源。
电子科技大学-信息论课件及历年考题
根据上凸函数定义,如果I(X;Y)在定义域内对
p(xi)或p(x)的极值存在,则该极值一定是极大
值。信道容量就是在固定信道情况下,求平均
C max I ( X ; Y )
互信息极大值的问题,即
p ( xi )
•I(X;Y)又是信道转移概率分布
11/100,可知相应的信息传输速率为:
89
R P (ai ) log
i 1
1
1
P (a90 ) log
P (ai )
P (a90 )
1
11
100
log100
log
100
100
11
log100 0.11log11
89
6.264 (bit / s )
比较 R’与无失真传输条件下的信息率R ,
例:设信源具有一百个以等概率出现的符号a1, a2,…,
a99,a100,并以每秒发出一个符号的速率从信源输出。试
求在允许失真度D=0.1条件下,传输这些消息所需要的最
小信息率。
信源
a1, a2,..., a99,
a100
a1~a100
a1~a90
试验信道
{p(yj|xi)}
失真信
(a) 源
无扰离散
率P(yj|xi)为零时,所对应的dij为无限大)
该失真信源的组合方案的平均失真函数为:
d
P( x )P( y
i
j
| x i )d ij
XY
P( x )P( y
i
X 1Y1
j
信息论期末复习资料
书中:1.信息科学,材料科学,能源科学仪器被称为当代的“三大支柱”。
2.带宽与数据传输速率信道带宽与数据传输速率的关系可以奈奎斯特(Nyquist)准则与香农(Shanon)定律描述。
奈奎斯特准则指出:如果间隔为π/ω(ω=2πf),通过理想通信信道传输窄脉冲信号,则前后码元之间不产生相互窜扰。
因此,对于二进制数据信号的最大数据传输速率Rmax 与通信信道带宽B (B=f,单位Hz)的关系可以写为:Rmax =2.f(bps);对于二进制数据若信道带宽B=f=3000Hz ,则最大数据传输速率为6000bps 。
香农定理则描述了有限带宽、有随机热噪声信道的最大传输速率与信道带宽、信噪比之间的关系。
香农定理指出:在有随机热噪声的信道上传输数据信号时,数据传输速率Rmax 与信道带宽B 、信噪比S/N 的关系为: Rmax =B.log2(1+S/N)3.自信息量的性质:非负性、必然事件信息量为0、不可能事件信息量为无穷、信息量是概率的单调递减函数。
4.当X 和Y 相互独立时,互信息为0.5.信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。
6信源熵H(X)与信息率R 和信道容量C 的关系:不论何种信道,只要信息率R 小鱼信道容量C ,总能找到一种编码,能在信道上以任意小的错误概率和任意接近于C 的传输率来传送信息。
反之,若R>C,则传输总要产生失真。
又由无失真信源编码定理可知,要做到几乎无失真信源编码,信息率R 必须大于信源熵H (X )。
故三者的关系为:H(x)<=R<=C7.保真度准则下的信源编码定理:即译码平均失真度大于允许失真度。
8.香农三个基本编码定理:无失真信源编码定理、信道编码定理和限失真信源编码定理。
三个基本概念:信源熵、信道容量和信息率失真函数。
9.信源编码、信道编码和安全编码信源编码是以提高通信有效性为目的的编码。
通常通过压缩信源的沉余度来实现。
《信息论》(电子科大)第2章 离散信源及离散熵
电子科技大学
信息论的发展是以信息可以度量为基础 的,度量信息的量称为信息量。 对于通信系统或其他信息传输系统,消 息是由称为信源的人、机器或事物所提 供的。 信源所提供的消息是多种多样的:如计 算机网络节点输出的是二进制数据,模 拟电视输出的是连续视频图像和伴音;
1/16/2019
1/16/2019
I(xi ) log x P(xi ) 自信息量是无量纲的,一般根据对数的 底来定义单位:当对数底为2时,自信息 量的单位为比特(bit,binary unit);对数 底为e时,其单位为奈特(nat,nature unit); 对数底为10时,其单位为哈特(Hart, Hartley)。 目前的通信系统或其他信息传输系统大 多以二进制为基础,因此信息量的单位 以bit最为常用。
1/16/2019
电子科技大学
2、自信息量 假设一个单符号离散信源,其输出被传 递给信宿;如设P(x1)最大、P(xn)最小, 问题是,输出那条消息包含更多的信息, 是x1还是xn ? 根据香农信息的概念,消息中所包含的 不确定性的成分才是信息,因此,不确 定性的成分越大,或者说出现的概率越 小,信息量就越大;从这个意义上,输 出xn包含更多的信息。
1/16/2019
电子科技大学
如果将离散信源输出xi 所包含的信息量 用I(xi)来表示并将其称为xi 的自信息量, 则其必须满足的条件是: ① I(xi)与输出xi的概率相关; ② I(xi)是P(xi)的连续函数; ③ I(xi)是P(xi)的减函数,且当P(xi) =1时 I(xi) =0 。 因此,xi 的自信息量的定义为:
1/16/2019
电子科技大学
电子科技大学
以bit为单位的自信息量可记为: I(xi ) lbP (xi ) 3、自信息量的性质 ①I(xi)是随机量; ②I(xi)是非负值;
《信息论》(电子科大)第4章 离散信道及信道容量
i = 1 j= 1 n m
p( y j / x i ) p( y j )
n m i = 1 j= 1
= ∑ ∑ p( xi y j )lbp ( y j ) + ∑ ∑ p( xi y j )lbp ( y j / x i )
i = 1 j= 1
I( Y; X) = ∑ ∑ p( xi y j )I( y j ; xi )
i =1 j= 1 n m
电子科技大学
= ∑ ∑ p( x i y j )lb
i = 1 j=1
n
m
p( y j / x i ) p( y j )
电子科技大学
平均互信息量也称为交互熵,其单位是 平均互信息量也称为交互熵, 比特/符号(bit/symbol). 比特/符号(bit/symbol). 2,平均互信息量的物理意义
I( Y; X ) = ∑ ∑ p( x i y j )lb
i = 1 j= 1 n m
电子科技大学
p( y j / x i ) p( y j )
= ∑ ∑ p( x i y j )lb
i =1 j=1
n
m
p( x i y j ) p( x i )p( y j )
= ∑ ∑ p( x i y j )lbp ( x i ) ∑ ∑ p( x i y j )lbp ( y j )
电子科技大学
电子科技大学
②从整体的角度如何度量在离散信道中 流通的信息量? 流通的信息量? ③在离散信道中流通的信息量能达到的 最大值是多少? 最大值是多少?
一,互信息量(muturl information) 互信息量(muturl
信息论复习笔记
1. 绪论信息论回答了通信的两个最基本问题:(1)数据压缩的极限;(2)信道传输速率的极限;信息、消息和信号消息:信息的載體(能被感知和理解、進行傳遞和獲取)信息:事物運動狀態或存在方式的不確定性的描述(香農)先驗概率:P(a i)自信息:I(a i)=log[P-1(a i)];(信息接收的不確定性)互信息:I(a i;b i)= log[P-1(a i)]- log[P-1(a i|b i)];(信息接收的多少度量)(若信道無干擾,則互信息等於自信息等於0)優點:明確的數學模型、定量計算;缺點:有適用範圍;信號;通信系统的模型通信系统的基本要求:有效、可靠、保密、认证2. 离散信源及其信息测度﹣离散信源的定义:輸出信息數有限、每次只輸出一個;﹣自信息的定义及物理意义事件發生前:事件發生的不確定性;事件發生后:時間含有的信息量;信息熵的定义及物理意义,信息熵的基本性质定義:自信息的數學期望( H(X)= -∑[ P(a i)logP(a i) ] )信源的總體信息測度(1)每個消息所提供的平均信息量;(2)信源輸出前,信源的平均不確定性;性質:(1)對稱性;(2)確定性;(3)非負性;(4)擴展性(可拆開);(5)可加性;[ H(XY)=H(X)+H(Y) ](6)強可加性;[ H(XY)=H(X)+H(Y|X) ](7)遞增性;(8)極值性; [ H(p1,p2,p3…,p q)≤H(q-1,,…, q-1)= logq ] 等概率分佈信源的平均不確定性最大,稱為最大離散熵定理;—离散无记忆信源的扩展信源—扩展信源的熵H(X) = NH(X)—离散平稳信源:联合概率分布与时间起点无关;熵:联合熵H(X1X2)=∑∑P(a i a j)logP(a i a j)条件熵H(X2|X1)=-∑∑P(a i a j)logP(a i|a j)关系:H(X1X2)=H(X1)+H(X2|X1)熵率:离散平稳信源的极限熵 = limH(X N|X1X2…X N-1)—马尔可夫信源:某一时刻的输出只与此刻信源所处的状态有关而与以前的状态及以前的输出符号都无关;—马尔可夫信源的熵:H m+1=H(X m+1|X1X2…X m)—信源剩余度熵的相对率η= H极限/H0信源剩余度(输出符号间依赖强度)γ= 1-η=1-H极限/H0 3. 离散信道及其信道容量—H(X;Y)=H(X)-H(X|Y)—离散信道的数学模型—信道矩阵性質(1)P(a i bj)=P(a i)P(b j|a i)=P(b j)P(a i|b j);(2)[ P(b1) ] [ P(a1) ][ P(b2) ] [ P(a2) ][ P(b3) ] = [ P(a4) ] (r≠s)[ … ] [ … ][ P(b s) ] [ P(a r) ](3)輸出端收到的任一b j一定是輸入符號a r中的某一個送入信道;─信道疑义度的定义:收到Y後對變量X尚存在的平均不確定性:H(X|Y)=E[H(X|b j)]=∑P(xy)log-1P(X|Y)物理意义:噪聲造成的影響大小;─平均互信息的定义:收到Y後平均每個符號獲得的關於X的信息量(物理意義:反映輸入輸出兩個隨機變量之間的統計約束關係):I(X;Y)= H(X)-H(X|Y) = ∑P(xy)P(y|x)P-1(y)無噪一一對應信道中:I(X;Y)=H(X)=H(Y)=0—信道容量的定义:信道每秒鐘平均傳輸的信息量稱為信息傳輸速率,最大信息傳輸率稱為信道容量;—信道容量的计算:无噪信道(求H(X)極值):C = logr对称信道(信道矩陣的每一行或列是另一行或列的置換):C = logs-H(p1,p2,…,p s)强对称信道:C = logr-plog(r-1)-H(p);准对称信道:C = logr-H(p1,p2,…,p s)-∑N k logM k(Nk是第k個子矩陣行元素之和,Mk是第k個子矩陣列元素之和)一般离散信道(對所有可能的輸入概率分佈求平均互信息的最大值):C =λ+loge條件:I(x i;Y) = ∑s j=1P(b j|a i)*log[P(b j|a i)/P(b j)]≤C—数据处理定理如果X、Y、Z组成一个马尔科夫链,则有I(X;Z)≤I(X;Y)I(X;Z)≤I(Y;Z) 信息不增性原理一般的数据处理原理I(S;Z)≤I(S;Y)I(S;Z)≤I(X;Z)I(S;Z)≤I(X;Y)—信道剩余度= C-I(X;Y)相对剩余度= 1-I(X;Y)/C无损信道的相对剩余度= 1-H(X)/logr4. 波形信源和波形信道連續信源的相對熵: h(X)Δ= ﹣∫R p(x)logp(x)dx 波形信源的差熵:h(x(t))Δ=lim N->★h(X1X2…X N)连续信源的差熵:均匀分布连续信源的差熵:N維均勻分佈:高斯信源的差熵:N維高斯信源的差熵:差熵的性质:(1)可加性;(2)凸性;(3)可負性;(4)變換性(X1->X2,差熵會變化);(5)極值性:離散信源的信源符號等概率分佈時信源的熵最大;連續信源:﹣當峰值功率受限為p^時(輸出信號的瞬時電壓限制為±(p^)1/2),此時信源輸出的連續隨機變量限制在[a,b]內,信源具有最大熵:h=log(b-a)如果隨機矢量取值受限,則各隨機分量統計獨立并均勻分佈時具有最大熵;﹣當信源輸出信號的平均功率被限定為P,則其信號幅度的概率密度分佈為高斯分佈時,信源有最大熵:h=1/2*log2πePN維連續平穩信源如果其N維隨機序列的協方差矩陣C被限定,則N維隨機矢量為正太分佈時信源的熵最大。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
信息论导论参考资料作者 龙非池第一章 概论● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。
目前,信息论中主要研究语法信息● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。
信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。
第二章 离散信源及离散熵● 单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
● 单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。
离散熵的性质和定理:H(X)的非负性;H(X)的上凸性; 最大离散熵定理:()H X lbn ≤● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===则称该多符号离散信源为N 维离散平稳信源。
● N 维离散平稳信源的数学模型:12121212()()()()N N N n N n a a a X X X P a P a P a P X X X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭1212,,,,,{1,2,,}N i i i i N a x x x i i i n =∈其中 12121121()()()(/)(/)N N N i i i i i i i i i i i P a P x x x P x P x x P x x x x -==● 二维离散平稳信源的离散熵:2121211()()()()(/)n i i i H X X P a lbP a H X H X X ==-=+∑H(X 2/X 1 )称为条件熵,是条件信息量在联合概率上的数学期望,H(X 1X 2)称为联合熵,离散熵H(X 1)、 H(X 2)称为无条件熵,H 2(X 1X 2)称为平均符号熵且:212(/)()H X X H X ≤,2121211()()()2H X X H X X H X =≤● 对于,121211()()()N N N H X X X H X X X H X N=≤,当N→∞时,平均符号熵取极限值,称之为极限熵,用H ∞表示:121lim ()N N H H X X X N∞→∞=● 如果离散平稳信源发出的符号序列中各符号相互独立,则称该信源为离 散平稳无记忆信源。
N 维离散平稳无记忆信源(一维离散平稳信源的N 次扩展信源)的数学模型:1212()()()()N N N n N n a a a X p a p a p a P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭1212,,,,,{1,2,,}N i i i i N a x x x i i i n =∈其中,12()()()()N i i i i p a p x p x p x =其离散熵:121()()()()()N N H X H X H X H X NH X =+++=信源的平均符号熵:11()()()N N N H X H X H X N==● 如果离散平稳信源发出的符号只与前面已经发出的m(<N)个符号相关, 则称该信源为m 阶马尔科夫信源。
可将m 阶马尔科夫信源发出的符号序列看成长度为m+1的一段段符号序列,m 阶马尔科夫信源的数学模型:111211212112/()()()(/)m m m m n m m n a a a X X X X p a p a p a P X X X X ++++⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭112112/()(/)m m m m i i i i i i i i i i a x x x x p a p x x x x ++==其中,,为强调m 阶马尔科夫信源的长度特征,一般将其极限熵H ∞记为H m+1,即:111()(/)(/)m mn n m i j i j i i j H H p e p e e lbp e e ∞+====-∑∑马尔科夫链的各态历经定理:11()()(/)1,2,,()0,()1mmn n m j i j i j j i j p e p e p e e j n p e p e ====>=∑∑,,其中第三章 离散信源无失真编码● 码字的每一个比特携带信息的效率即编码效率:()H X Kη=,K 平均码长 一般采用不等长编码,使平均码长接近离散熵,从而在无失真前提下提高编码效率;编码的基本原则是大概率符号元编成短码,小概率符号元编成长码如果所采用的不等长编码使接收端能从码序列中唯一地分割出对应与每一个符号元的码字,则称该不等长编码为单义可译码。
单义可译码中,如果能在对应与每一个符号元的码字结束时立即译出的称为即时码,如果要等到对应与下一个符号元的码字才能译出的称为延时码。
异前置码:任何一个码字都不是其他码字的前缀m 元长度为k i , i=1,2, …,n 的异前置码存在的充分必要条件是:11ink i m-=≤∑,(克拉夫特(Kraft)不等式)● 无失真编码定理:(香农第一定理)如果L 维离散平稳信源的平均符号熵为H L (X 1X 2…X L ),对信源符号进行m 元不等长组编码,一定存在一种无失真编码方法,当L 足够大时,使得每个信源符号所对应码字的平均比特数:1212()()L L L L KH X X X lbm H X X X Lεε≤<+,为任意给定的小数1212()()L L L L lbmKH X X X lbm H X X X L Lεε≥≤<+只要,无失真编码定理从理论上阐明了编码效率:1η→● L→∞时,1lim L H K lbm Lη∞→∞== 则极限熵H ∞是一个界限,通常也称为香农界对于L 维离散平稳无记忆信源,由于其平均符号熵H L (X 1X 2…X L ) =H(X),故对信源符号进行m 元不等长组编码,一定存在一种无失真编码方法,当L 足够大时,使得每个信源符号所对应码字的平均比特数:()()KH X lbm H X Lε≤<+,此时香农界为H(X)。
对离散平稳信源进行无失真编码,每个信源符号所对应码字的平均比特数平稳无记忆信源最多, m 阶马尔科夫信源次之,一般平稳信源最少。
● 二进制香农码的编码步骤如下: 1) 将符号元x i 按概率进行降序排列2) 令p(x 0)=0,计算第j-1个码字的累加概率:10()()1,2,,j a j i i p x p x j n -===∑,3) 确定第i 个码字的码长k i ,满足下列不等式:()()1i i i lbp x k lbp x -≤<-+ 4) 将p a (x j )用二进制表示,取小数点后k i 位作为符号元x i 的码字。
● 哈夫曼(Huffman)编码1) 将符号元按概率进行降序排列2) 为概率最小的符号元分配一个码元1,概率次小的符号元分配一个码元0 3)将概率最小的两个符号元合并成一个新的符号元,用两者概率之和作为该新符号元的概率;4) 重复以上三个步骤,直到最后合并出一个以1为概率的符号元哈弗曼码有两种排列方式,分前置和后置。
采用不同排列方法编出的哈夫曼码,其码字和码长可能完全不相同,但平均码长一定是相等的,因此编码效率不会因排列方法而改变。
但放在前面可以使短码得到充分利用第四章 离散信道及信道容量● 符号离散信道的数学模型可表示为:112111222212(/)(/)(/)(/)(/)(/)(/)(/)(/)(/)m m n n m n p y x p y x p y x p y x p y x p y x P Y X p y x p y x p y x ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦● 互信息量在有噪信道的情况下,将信源发出x i 而信宿接收到y j 所包含的信息量用I(y j ;x i )来表示并将其称为x i 对y j 的互信息量,则互信息量的定义为:(/)(;)()(/)()(/)()j i j i j j i j j i j p y x I y x I y I y x lbp y lbp y x lbp y =-=-+=I(y j /x i )称为条件信息量,表示信道给出的“信息”。
互信息量的性质:I(y j ;x i )是随机量,I(y j ;x i )可为正值也可为负值,I(y j ;x i )具有对称性● 单符号离散信道的平均互信息量:1111(/)(;)()(;)()()n m n mj i i j j i i j i j i j j p y x I Y X p x y I y x p x y lbp y ======∑∑∑∑(;)()(/)I Y X H Y H Y X =-,条件熵H(Y/X)是信道所给出的平均信息量,通常称为噪声熵(;)()(/)I Y X H X H X Y =-,条件熵H(X/Y)也是信道所给出的平均“信息”量,通常称为损失熵,也称为信道疑义度(;)()()()I Y X H X H Y H XY =+-● 平均互信息量的性质和定理: 1) I(Y;X)的对称性 2) I(Y;X)的非负性3) I(Y;X)的极值性:(;)()I Y X H Y ≤ (;)()I Y X H X ≤4) I(Y;X)的凸函数性当信道固定时,I(Y;X)是信源概率分布P(X)的上凸函数;当信源固定时,I(Y;X)是信道转移概率分布P(Y/X)的下凸函数 5) 数据处理定理:(;)(;)I Z X I Y X ≤ (;)(;)I X Z I Y Z ≤一个信息传递并进行数据处理的问题可看成是一个由串联信道进行信息传递的问题● 单符号离散信道的信道容量由于平均互信息量反映的是每传输一个符号在信道中流通的平均信息量,从这个意义上,可以将其理解为信道的信息传输率(不是信息传输速率!),即(;)R I Y X =。