信息论第二章
第二章 信息论基本概念

= P(xy)logP(y)/P(y|x)
XY
XY
XY
在这里同样利用自然对数性质:lnω ≤ ω -1 ,ω >0 当且仅当ω =1时,式取等 令ω =P(y)/P(y|x),引用 lnω ≤ ω -1 H(Y|X)-H(Y)≤ P(xy)[P(y)/P(y|x)-1]loge = [P(x)P(y)-P(xy)]loge XY =(1-1)loge=0
第二章 信息论基本概念
§2.1 信源的分类
(1) 发出单个符号的无记忆信源 1. 离散无记忆信源 (2) 发出符号序列的无记忆信源 离散信源 (1) 发出符号序列的有记忆信源 2. 离散有记忆信源 (2) 发出符号序列的马尔可夫信源
§2.2 自信息量和条件自信息量 一. 自信息量
XY
下面推导说明求条件熵用联合概率加权的理由 先取在一个条件y下,X集合的条件熵H(X|y)为: H(X|y)= P(x|y)I(x|y) X =- P(x|y)logP(x|y) X
进一步把H(X|y)在Y集合上取数学期望,就得条件熵H(X|Y)为:
H(X|Y)= P(y)H(X|y) Y =- P(y)P(x|y)logP(x|y) XY =- P(xy)logP(x|y) XY
由定义式可知,若一个以等概率出现的二进制码元(0,1), 即当P(0)=P(1)=1/2时 1 I(0)=I(1)=- log 2 2 = log 2 =1bit 2 在此引入不确定度概念 若 出现概率 → 1 (发生可能性大,包含的不确定度小) 出现概率 → 0 (发生可能性小,包含的不确定度大) 出现概率 = 1 (包含的不确定度为0) 注意:随机事件的不确定度在数量上等于它的自信息量,两 者单位相同,但含义却不相同。具有某种概率分布的随机事件 不管发生与否,都存在不确定度,不确定度表征了该事件的特 性,而自信息量是在该事件发生后给予观察者的信息量。
信息论第二章信息的度量

I(xi yj ) = - log p(xi yj ) = log 60 = 5.907(比特)
(2)在二维联合集X Y上的条件分布概率为 事件提供给甲的信息量为条件自信息量
p(y j
1 xi ) 12
,这一
I(yj︱xi) = -log p(yj︱xi) = log12 = 3.585(比特)
2.1.2 互信息量和条件互信息量
2.联合自信息量
XY
P
(
XY
)
p(a a 11 b b 11 ,) ,,,pa (1 a b 1m bm ,) ,,,pa (a nb n1 b,1) ,,,p a(nb am nbm )
其中 0 p(aibj ) 1(i 1,2,,n; j 1,2,,m)
nm
p(aibj ) 1。
根据概率互换公式p(xi yj) = p(yj︱xi)q(xi)=φ(xi︱yj)ω(yj) 互信息量I(xi ;yj )有多种表达形式:
I(xi;yj)loq(p x g (ix ) iy (jy )j)I(xi)I(yj)I(xiyj) (2-7)
I(xi;yj)lopg (y(yjjx)i)I(yj)I(yj xi)(2-8)
第2章 信息的度量
内容提要:
根据香农对于信息的定义,信息是一个系 统不确定性的度量,尤其在通信系统中, 研究的是信息的处理、传输和存储,所以 对于信息的定量计算是非常重要的。本章 主要从通信系统模型入手,研究离散情况 下各种信息的描述方法及定量计算,讨论 它们的性质和相互关系。
பைடு நூலகம் 2.1 自信息量和互信息量
x
i(i = 1,2,
X q(X)
x1 1
3
x2 1
信息论第二章答案

信息论第二章答案(总17页) -CAL-FENGHAI.-(YICAI)-Company One1-CAL-本页仅作为文档封面,使用请直接删除试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}二进制脉冲可以表示2个不同的消息,例如:{0, 1}假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1===八进制脉冲的平均信息量symbol bit n X H / 38log log )(2===二进制脉冲的平均信息量symbol bit n X H / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
一副充分洗乱了的牌(含52张牌),试问(1) 任一特定排列所给出的信息量是多少(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是: !521)(=i x p bit x p x I i i 581.225!52log )(log )(==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:(a)p(x i )=52/52 * 48/51 * 44/50 * 40/49 * 36/48 * 32/47 * 28/46 * 24/45 * 20/44 * 16/43 * 12/42 * 8/41 * 4/40=(b)总样本:C 1352, 其中13点数不同的数量为4*4*4*…*4=413。
所以,抽取13张点数不同的牌的概率:bit C x p x I C x p i i i 208.134log )(log )(4)(135213135213=-=-==居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。
信息论第2章(2010)

ai 后所获得的信息量。
自信息量的性质:
1)非负性。 2) 单调递减性。 3) 可加性。
I xi ,y j log pxi ,y j
若两个符号x i , y j同时出现,可用联合概率px i , y j 来表示 这时的自信息量为 I y j I xi | y j
例题:二元信源,每个符号发生的概率分别为p(x1)=p,p(x2)=1-p. 试计算信源熵,并画出熵函数H(p)和p的曲线图。
① 等概时(p=0.5):随机变量具有最大的不确定性
② p=0或1时:随机变量的不确定性消失。
信息熵的物理意义
1)表示了信源输出前,信源的平均不确定性。 2)表示了信源输出后,每个消息或符号所提供的 平均信息量。 3)信息熵反映了变量X的随机性。
平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值,其表达式为 q
H ( X ) EI ( xi ) P( xi ) log P( xi )
i 1
式中, E 表示统计平均,
I ( xi ) 表示符号 x i 包含的自信息量。
平均信息量可以表示为:
任何一个物理量的定义都应当符合客观规律和逻辑上 的合理性,信息的度量也不例外。直观经验告诉我们: ① 消息中的信息量与消息发生的概率密切相关:出现消 息出现的可能性越小,则消息携带的信息量就越大。 ② 如果事件发生是必然的(概率为1),则它含有的信息 量应为零。如果一个几乎不可能事件发生了(概率趋 于0),则它含有巨大的信息量。 ③ 如果我们得到不是由一个事件而是由若干个独立事件 构成的消息,那么我们得到的信息量就是若干个独立 事件的信息量的总和。
② 联合信源中平均每个符号对所包含的信息量?
信息论第二章

例 甲袋中有n个不同阻值的电阻,从中随机取 出一个,猜测所取得的是何种阻值的困难程 度是多少?
解: 这相当于求事件的不确定性
事件等概
p(ai
)
1 n
I(ai)lop gi logn
例 甲袋中有n(n+1)/2个不同阻值的电阻,其中 1Ω的1个,2Ω的2个,……,nΩ的n个,从 中随机取出一个,求“取出阻值为i(0 ≤ i≤ n)的电阻”所获得的信息量。
1
I(ai)
log P(ai)
其中: 1)p(ai)1 ,0 pi 1 i 2)I(ai)非负 对数的底数大于1
自信息量的单位取决于对数所取的底
关于对数底的选取:
log2x 比特 lnx 奈特 log10x 哈特
1奈特 1.443比特 1哈特 3.32比特
(5)自信息的物理意义
★自信息的含义包含两方面:
第一节信源的数学模型及分类第二节离散信源的信息熵第三节信息熵的基本性质第四节多符号离散信源第五节马尔可夫信源第六节信源剩余度与自然语言的熵第一节信源的数学模型及分类在通信系统中收信者在未收到信息以前对信源发出什么样的消息是不确定的是随机的所以可以用随机变量随机矢量或随机过程来描述信源输出的消息或者说用一个样本空间及其概率测度来描述信源
收到某消息获得的信息量=收到消息前关于某事件发生的 不确定性=信源输出的某消息中所含有的信息量
(2)自信息
事件发生的不确定性与事件发生的概率有关。因此, 某事件所含有的信息量应该是事件发生的先验概率的 函数。
I(ai)f[P(ai)]
根据客观事实和人们的习惯概念,应满足以下条件:
(3)自信息满足的条件
• 如语音信号,热噪声信号。
信息论基础第2章离散信源及其信息度量

第2章 离散信源及其信息度量
本章内容
2.1 离散信源的分类 2.2 离散信源的统计特性 2.3 离散随机变量的信息度量 2.4 离散信源的N次扩展信源 2.5 离散平稳信源 2.6 马尔可夫信源 2.7 离散信源的相关性和剩余度
《信息论基础》
2.1 离散信源的分类
离散信源的分类
按照离散信源输出的是一个消息符号还是消息符 号序列,可分为单符号离散信源和多符号离散信 源。
,
q2 pn
,
qm ) pn
n
m
其中, pi 1, qj pn 。
i1
j 1
可见,由于划分而产生的不确定性而导致熵的增加量为
pnHm (
q1 pn
,
q2 pn
, qm pn
)
6、上凸性
熵函数 H (p) 是概率矢量 p ( p1, p2 ,
pq ) 的严格∩型凸函数
( 或 称 上 凸 函 数 )。 即 对 任 意 概 率 矢 量 p1 ( p1, p2 , pq ) 和
成 H ( p1) 或 H ( p2 ) 。
和自信息相似,信息熵 H ( X ) 有两种物理含义:
① 信源输出前,信源的信息熵表示信源的平均 不确定度。
② 信源输出后,信源的信息熵表示信源输出一 个离散消息符号所提供的平均信息量。如果信道无噪 声干扰,信宿获得的平均信息量就等于信源的平均信 息量,即信息熵。需要注意的是,若信道中存在噪声, 信宿获得的平均信息量不再是信息熵,而是 2.5 节介 绍的平均互信息。
联合熵 H (XY ) 的物理含义表示联合离散符号集 XY 上
的每个元素对平均提供的信息量或平均不确定性。 单位为“bit/符号对”。 需要注意的是,两个随机变量 X 和 Y 既可以表示两个
信息论第二章

2.2.2 离散信源熵
例2-2-2
一个布袋内放100个球,其中80个球是红色的, 20个球是白色的,若随机摸取一个球,猜测其颜 色,求平均摸取一次所能获得的自信息量。
解: 依据题意这一随机事件的概率空间为
X P
x1 0.8
x2 0.2
2021/7/30
其中:x1表示摸出的球为红球事件,x2表示摸出的球是白球事 件
2021/7/30
几个概念
1. 条件熵
定义: 在 给 定 yj 条 件 下 , xi 的 条 件 自 信 息 量 为 I(xi/yj)
,X 集合的条件熵H(X/yj)为
H(X/yj)=
p(xi/yj)I(xi/yj)
i
2021/7/30
在给定Y(即各个yj)条件下,X集合的条件 熵
H(X/Y)定义为
2021/7/30
3. 联合自信息量
定义:两个消息xi,yj同时出现的联合自信息量
I(xiyj)lop(g xiyj)
注意: a. 当xi,yj相互独立时,有P(xiyj)=P(xi)P(yj),那 么就有 I(xiyj)=I(xi)+I(yj)。 b. xiyj所包含的不确定度在数值上也等于它们的 自信息量。
1) 自信息量I(x1)和I(x2)只是表征信源中各个符号的不确 定度,一个信源总是包含着多个符号消息,各个符号消息
又按概率空间的先验概率分布,因而各个符号的自信息量
就不同。所以自信息量不能作为信源总体的信息量。
2021/7/30
2) 因为X中各符号xi的不确定度I(xi)为非负值,p(xi)也 是非负值,且0p(xi)1,故信源的平均不确定度H(X )也是非负量。
信息论与编码第二章答案

第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。
2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。
2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。
答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。
从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。
2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。
答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。
信息论第2章(信息量、熵及互信息量)PPT课件

信息论基础
The Basis of Information Theory
主题No2:信息量、熵和互信息量
在上一次课中我们提到香农对信息定性的 定义——事物运动状态或存在方式的不确定性 的描述。事实上,香农对信息不仅作了定性描 述,而且还进行了定量分析。
信源发出的消息常常是随机的,具有不确 定性。如果信源中某一消息的不确定性越大, 一旦发生,并为收信者收到,消除的不确定性 就越大,获得的信息也就越大。同时事件发生 的不确定性与事件发生的概率有关,概率越小, 不确定性就越大。
研究通信系统的目的就是要找到信息传输 过程的共同规律,以提高信息传输的可靠性、 有效性、保密性和认证性,以达到信息传输系 统最优化。
写在最后
经常不断地学习,你就什么都知道。你知道得越多,你就越有力量 Study Constantly, And You Will Know Everything. The More
You Know, The More Powerful You Will Be
谢谢大家
荣幸这一路,与你同行
It'S An Honor To Walk With You All The Way
I(X;Y)是一个用来衡量信道好坏的 非常好的工具。
计算条件熵的例子
例6 设一个二进制对称信道BSC:
其先验概率为p(0)=p(1)=1/2,试计算条 件熵. [解答]由已知条件得:
由条件熵的定义有:
结果表明,虽然每个字符的错误率只有 0.1,可导致整个信宿对信源的平均不确定 性达到了0.469,将近一半。可见通信系统 对信道的要求非常高。
彭代渊王玲-信息论与编码理论-第二章习题解答精选全文

1第2章 信息的度量2.1 同时扔一对质地均匀的骰子,当得知“两骰子面朝上点数之和为5”或“面朝上点数之和为8”或“两骰子面朝上点数是3和6”时,试问这三种情况分别获得多少信息量?解:某一骰子扔得某一点数面朝上的概率是相等的,均为1/6,两骰子面朝上点数的状态共有36种,其中任一状态出现都是等概率的,出现概率为1/36。
设两骰子面朝上点数之和为事件a ,有:⑴ a=5时,有1+4,4+1,2+3,3+2,共4种,则该事件发生概率为4/36=1/9,则信息量为I(a)=-logp(a=5)=-log1/9≈3.17(bit)⑵ a=8时,有2+6,6+2,4+4,3+5,5+3,共5种,则p(a)=5/36,则I(a)= -log5/36≈2.85(bit) ⑶ p(a)=2/36=1/18,则I(a)=-log1/18≈4.17(bit)2.2 如果你在不知道今天是星期几的情况下问你的朋友“明天是星期几”,则答案中含有多少信息量?如果你在已知今天是星期三的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的排序)?解:设“明天是星期几”为事件a :⑴ 不知道今天是星期几:I(a)=-log1/7≈2.81(bit) ⑵ 知道今天是星期几:I(a)=-log1=0 (bit)2.3 居住某地区的女孩中有20%是大学生,在女大学生中有80%是身高1米6以上的,而女孩中身高1米6以上的占总数的一半。
假如我们得知“身高1米6以上的某女孩是大学生”的消息,求获得多少信息量?解:设“居住某地区的女孩是大学生”为事件a ,“身高1米6以上的女孩”为事件b ,则有: p(a)= 0.2,p(b|a)=0.8,p(b)=0.5,则“身高1米6以上的某女孩是大学生”的概率为:32.05.08.02.0)()|()()|(=⨯==b p a b p a p b a p信息量为:I=-logp(a|b)=-log0.32≈1.64(bit)2.4 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男同志:“你是否是红绿色盲?”,他回答“是”或“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果你问一位女同志,则答案中含有的平均自信息量是多少?解:⑴ 男同志回答“是”的概率为7%=0.07,则信息量I=-log0.07≈3.84(bit) 男同志回答“否”的概率为1-7%=0.93,则信息量I=-log0.93≈0.10(bit) 平均信息量为:H 1=-(0.07×log0.07+0.93×log0.93) ≈0.37(bit/符号) ⑵ 问女同志的平均自信息量:H 2=-[0.05×log0.05+(1-0.05) ×log(1-0.05)] ≈0.045(bit/符号)2.5 如有7行9列的棋型方格,若有两个质点A 和B ,分别以等概率落入任一方格内,2且它们的坐标分别为(X A ,Y A )、(X B ,Y B ),但A 、B 不能落入同一方格内。
信息论讲义-第二章

例
英文字母中“ 的出现概率为0.105, 的出现概率为0.105 的出现概率为0.023 英文字母中“e”的出现概率为0.105,“c”的出现概率为0.023, 的出现概率为0.023, “o”出现的概率为 0.001。分别计算它们的自信息量。 出现的概率为 0.001。分别计算它们的自信息量。 解:根据自信息量的定义 “e”的出现的信息量为 e 的出现的信息量为
n j
/ xi )
=
p( xi ) p( y j / xi ) p( y j )
m
, = p( y j ) p( xi / y j )
m j =1 j i j
p( y j / xi ) =
p( xi y j )
j =1 i j
∑ p( x y ) ∑ p( y ) p( x / y )
n
=
p( y j ) p( xi / y j )
释:
1 I ( x i ) = log = − log p( x i ) p( x i )
p(xi) ≤1, 表示事件 i出现的概率 , 表示事件x 出现的概率, 号的主要目的是: 取“-”号的主要目的是:使I(xi) ≥0 号的主要目的是
11
自信息量的单位 为底: 比特(bit) 以2为底: 比特(bit) (binary unit) 为底: 奈特(nat) 以e为底: 奈特(nat) (nature unit) 10为底 为底: 哈脱来(Hart) 以10为底: 哈脱来(Hart) (Hartley) 换算关系: 换算关系: 1 nat ≈ 1.443 bit 1 Hart ≈ 3.322 bit 一般取以2为底, bit的信息量就是二元概率 一般取以2为底,1 bit的信息量就是二元概率 空间在等概时的每个事件蕴含的自信息量。 空间在等概时的每个事件蕴含的自信息量。 计算机技术中的术语“比特” 注:计算机技术中的术语“比特”表示一个二 元数字, 元数字,每个二元数字所能提供的最大平均信息量 比特。 为1比特。
信息论PPT第二章

7
2.1 信源的数学模型及分类
B. N次扩展信源的信源空间 次扩展信源的信源空间
因为信源XN 的每一个消息[Xi],(i=1,2,…,N)均 因为信源 的每一个消息 , 均 由信源X的符号集 的符号集A:{a1,a2,…aq}中的 个符号组成, 中的N个符号组成 由信源 的符号集 中的 个符号组成, 所 以 , XN 的 某 一 个 具 体 符 号 α i 可 以 表 示 为 [αi]=(ai1,ai2,…aij…aiN) aij∈A:{a1,a2,…aq},这个关系 , 表明扩展信源的每个符号取值于同一个单符号信源 空间, 空间,A:{ a1,a2,…aq}。 。 因此扩展信源X 就有q 种不同的符号, 因此扩展信源 N就有 N 种不同的符号 , 可以表 示为 [XN ]: {[α1],[α2],…[αi],…[αqN]}; (i=1,2, qN)
X1 1 2 = P(x1) 1/4 1/4
H(x) - H(x1) = 1--获得1bit信息量 X2 1 2 3 4 5 6 7 = P(x2) 1/2 1/2 0 0 0 0 0 H(x1) - H(x2) =1 --获得1bit信息量 X3 = P(x3) 1 1 2 0 3 0 4 0 5 0 6 0 7 0
根据消息的不同的随机性质对信源进行分类: 根据消息的不同的随机性质对信源进行分类: 离散信源:信源输出的都是单个符号( 离散信源:信源输出的都是单个符号(或代 的消息, 码)的消息,它们符号集的取值是有限的或 可数的。 可数的。可用一维离散型随机变量X来描述这 些信源的输出。这样的信源称为~。 些信源的输出。这样的信源称为~。
H(x2) = log2 = 1(bit/符号)
8 H(x3) 0 = log1 = 0(bit/符号)
信息论第2章

第二章信息的定量描述第一节信息的传输通信——信息的传输。
信息传输的方式是多种多样的。
例如:带口信,写书信,打电话等等。
在这些场合,通信的双方都是人。
不过,传输媒介各不相同:带口信时,传输媒介是人;在写书信时,传输媒介是邮政系统;在打电话时,则是电报和电话系统。
再如,打旗语,吹军号,发口令,打拍子等等,也都是某种形式的通信,它们的作用都是把某一方的信息传送给另一方。
甚至谈话、讲演、看戏等等,也都包含着信息传输的过程,当然也可以看作是某种形式的通信。
此外,还有人与自然界、人与机器以及机器与机器之间的通信。
比如:用感官感受外部世界——人与自然界通信;用仪器检测人体状况——人与机器的通信;自动控制设备的状态——机器与机器通信;计算机及网络对各种信息进行处理、存取和交换—机林器或系统内部的通信等等。
其中:信源——信息的发出者;信宿——信息的接收者;信道——信息传输的媒介;噪声——阻碍信息传输的因素。
图2-1 信息系统简化模型8注:①这是一个抽象的模型;②信源和信宿可以是人、机器或其事物;③噪声是分布在系统的各部分的。
人们总是希望能迅速、准确地传输信息。
信息传输的速度——有效性。
信息传输的质量——可靠性。
有效性和可靠性,是通信的基本问题。
要想有效和可靠地传输信息,往往需要通过编码把信源发出的消息转换成便于在信道中传输信号。
一个完整的信息系统模型如图2-2来表示。
图2-2 信息系统模型⒈信源编码是为了解决通信的有效性所进行的编码,又叫有效性编码。
⒉信道编码是为了解决通信的可靠性所进行的编码,又叫可靠性编码。
⒊信源编码和信道编码的共同任务是把信源输出的消息变换为便于在信道中传输的信号。
⒋与它们相对应的信源译码和信道译码的共同任务是把信道输出的信号变换为信宿所需要的消息。
图中新增加的这四个部分,正是我们在后面的章节中所要讨论的主要内容。
单向信道——在这种通信系统中,信息只能单向传输。
例如,无线电广播等。
双向信道——在这种通信系统中,信息可以双向传输。
《信息论》第二章

29
I(X;Y)与信息熵的关系 与信息熵的关系
H ( XY )
H(X)
I(X;Y)=0 集合X与集合Y 相互独立的情况
H (Y )
30
I(X;Y)与信息熵的关系 与信息熵的关系
13
信息熵,条件熵,联合熵 信息熵,条件熵, 三者之间的关系
H ( XY ) = H ( X ) + H (Y | X ) H ( XY ) = H (Y ) + H ( X | Y )
当集合X 和集合Y 相互独立时有
H(X |Y ) = H(X ) H (Y | X ) = H (Y ) H ( XY ) = H ( X ) + H (Y )
14
离散二元信源的信息熵 H ( X ) = [ p log p + (1 p) log(1 p)]
1 X 0 p( x ) = p 1 p
15
例题
有两个二元随机变量X和 , 有两个二元随机变量 和Y,它们的联合概率为 p(xy) x = 0 x = 1 y = 0 1/8 3/8 y=1 3/8 1/8 并定义另一随机变量Z=XY(一般乘积),试计算: 并定义另一随机变量 (一般乘积 ,试计算: (1) H(X),H(Y),H(Z),H(XY),H(XZ),H(YZ) , , , , , , H(XYZ) (2) H(X|Y),H(X|Z),H(Z|X), H(Z|Y), H(Y|Z), , , , , , H(Y|XZ),H(Z|XY) ,
11
联合自信息量与联合熵
联合自信息量定义
信息论第二章

主要内容: 主要内容: 一、自信息量 平均自信息量( 二、平均自信息量(熵)及性质 教学要求: 教学要求: 一、了解信息论的基本内容 会自信息量、互信息量、 二、会自信息量、互信息量、平均自 信息量的计算
引言
有效性和可靠性是通信系统中研究的中心问 信息论是在信息可度量基础上, 题,信息论是在信息可度量基础上,研究有效地 和可靠地传递信息的科学。因此,概率论、 和可靠地传递信息的科学。因此,概率论、随机 过程是信息论研究的基础和工具。 过程是信息论研究的基础和工具。
( )
I ( xi y j ) = I ( xi ) + I ( y j )
小结
1、出现概率小的随机事件所包含的不确定性大,也就是它 出现概率小的随机事件所包含的不确定性大, 的自信息量大。出现概率大的随机事件所包含的不确定性小, 的自信息量大。出现概率大的随机事件所包含的不确定性小, 也就是它的自信息量小。在极限情况下,出现概率为1 也就是它的自信息量小。在极限情况下,出现概率为1的随 机事件,其自信息量为零。 机事件,其自信息量为零。 随机事件的不确定性在数量上等于它的自信息量, 2、随机事件的不确定性在数量上等于它的自信息量,两者 单位也相同。 单位也相同。 信宿收到从信道传来的所消息携带的信息量后, 3、信宿收到从信道传来的所消息携带的信息量后,可以全 部或部分消除信宿对信源发出消息的不确定性。特别地, 部或部分消除信宿对信源发出消息的不确定性。特别地,当 信宿收到的信息量等于信源包含的不确定性(即自信息量) 信宿收到的信息量等于信源包含的不确定性(即自信息量) 就可以唯一地确定信源发出的消息。 时,就可以唯一地确定信源发出的消息。 例如:当某随机事件x 出现的概率为P 1/8时 例如:当某随机事件xi出现的概率为P(xi)= 1/8时,它包 含3比特的不确定性;当信宿能收到3比特的信息量,就能唯 比特的不确定性;当信宿能收到3比特的信息量, 一的确定信源发出的是消息x 一的确定信源发出的是消息xi。
信息论基础第2章

若
U
(t
,
)
a.e.
0,
a.e.
当t T /2时
U (t,) U (t,), 当 t T / 2时
这里,U (t, )为一周期性随机过程;
“a.e.”为almost everywhere, 几乎处处含义下相等(收敛)
2019/10/14
P.10
常用的展开式 (续):
类似于周期性确知信号,在时域内可做下列付氏级数展开:当 t T / 2 时,
b
a R(t1t2 ) (t2 )dt2 (t1 )
下面简要介绍积分方程的概念,所谓积分方程,是指未知函数在积 分号内的方程式,我们这里讨论的是最常见的线性积分方程。即一 般积分方程可写为:
b
a(x)(x) f (x) a K (x, )( )d
2019/10/14
对消息序列信源有:
UL
pu
U u1U unL p(u1) p(unL )
2019/10/14
P.5
2)实际信源 (续)
例:最简单L=3的三位PCM信源:这时L=3, n=2, 即i={0,1},则有:
U3 p(u)
U
000,U p03 ,
2019/10/14
P.14
常用的展开式 (续):
U
(t
,
)
a.e
ai ()i (t)
则
i 1
ቤተ መጻሕፍቲ ባይዱi
(
)
a.e
b
a U (t,)i (t)dt
信息论第二章ppt

特别,对于离散情形,记 xi 表示时刻t i 所取的值, { X (t )} 若 为平稳过程,则其各维联合概率分布均与 t i, t j,( i j) 时间起点无关,即当时 ,有 , P( x ) P( x ) ,
i j
P( xi xi1 ) P(x j x j 1 )
为描述随机过程在不同时刻的状态之间的统 计联系,一般可对任意个 n(n 2,3, ) 不同时 刻 t1, t2 , , tn T,引入 n 维随机变 量 ( X (t1 ), X (t2 ), , X (tn )) ,它的分布函数记为:
FX ( x1, x2 , , xn ; t1, t2 , , tn ) P{X (t1) x1, X (t2 ) x2 , , X (tn ) xn}, xi R, i 1,2, , n
当t1 t2 t
2
2 2 ( t ) C ( t , t ) R ( t , t ) X X X (t ) 时, X
。
如果对每一个 t T ,随机过程 {X (t ), t T }的二 阶矩 E[ X (t )] 都存在,则称它为二阶过程。二阶过 程的相关函数总存在。 例3. 求随机相位正弦波的均值函数、方差函 数和自过程
(1) 如果X (t ) E[ X (t )] X (t ) 以概率1成立,称随机过程{ X (t )} 的均值具有各态历经性; (2) 若对任意实数 ,RX ( ) E[ X (t) X (t )] X (t) X (t ) 以概率1成立,则称随机过程 {X (t )} 的自相关函数具有各 态历经性,特别当 0 时,称均方值具有各态历经 性; (3) 如果随机过程 { X (t )} 的均值和自相关函数都具有各 态历经性,则称 { X (t )}是各态历经过程,或称{ X (t )} 是各 态历经的。各态历经性有时也称作遍历性或埃尔谷德性。
第二章-信号分析与信息论基础

4、随机过程的数字特征 随机过程的数字特性,比如,随机过程的数学期望、
方差及相关函数等。 1)数学期望
随机过程ξ(t)的数学期望被定义为
可把t1直接写成t。随机过程的 数学期望被认为是时间t的函数。
2.1 确知信号分析
信号是通过电的某一物理量(如电压或电流)表 示出的与时间t之间的函数关系。 确知信号:能用函数表达式准确表示出来的信号。它 与时间的关系是确知的。 随机信号:与上述相反。
通信中传输的信号及噪声都是随机信号。
2.1.1 周期信号与非周期信号 周期信号:满足条件 s(t)=s(t+T0) -∞<t<∞,T0>0 非周期信号:不满足上述条件。 功率信号:信号在(0,T)内的平均功率S(式2-2)值为 一定值。 能量信号:当T→ ∞时,式(2-3)是绝对可积的。
解: Γ[COS ω0 t]= π[δ(ω- ω0)+ δ(ω+ω0)] 冲激 强度为π,根据卷积定理:
Γ[f(t)COS ω0 t] =(1/2 π)F(ω)* {π[δ(ω- ω0)+ δ(ω+ω0)] }
=(1/2) [F(ω- ω0)+ F(ω+ω0)]
2.1.3 信号通过线性系统
线性系统:输出信号与输入信号满足线性关系(允许
说,如果对于任意的n和τ,随机过程ξ(t)的n维概率
密度函数满足:
则称ξ(t)是平稳随机过程。
6、广义平稳过程 广义平稳概念:若一个随机过程的数学期望及方差 与时间无关,而其相关函数仅与τ有关,则称这个随
信息论第二章课件及习题答案

2013-8-1
2
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
I ( xk ; y j )
loga rkj qk w j
定义2.1.1(非平均互信息量) 给定 一个二维离散型随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J} (因此就给定了两个离散型随机 变量 {X, xk, qk, k=1~K}和{Y, yj, wj, j=1~J})。 事件xk∈X与事件yj∈Y的互信息 量定义为I(xk; yj)
2013-8-1
3
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
I ( xk ; y j )
loga loga rkj qk w j P(( X , Y ) ( xk , y j )) P( X xk ) P(Y y j )
2013-8-1 17
图2.2.1
H(X) 1.0
0.5
0
2013-8-1
0.5
1
P
18
§2.2 离散型随机变量的平均 自信息量(熵)
定义2.2.2(条件熵) 给定一个二维离散型 随机变量 {(X, Y), (xk, yj), rkj, k=1~K; j=1~J}。
称如下定义的H(X|Y) 为X相对于Y的条件 熵。
2013-8-1 13
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
小结 非平均互信息量I(xk; yj)。 非平均自信息量h(xk),h(yj)。 条件的非平均自信息量h(xk|yj), h(yj|xk)。 联合的非平均自信息量h(xk, yj)。 相互关系: I(xk; yj)≤min{h(xk),h(yj)}。 h(xk|yj)=h(xk)-I(xk; yj) 。 h(xk, yj)=h(yj)+h(xk|yj)=h(xk)+h(yj|xk)。 h(xk, yj)=h(xk)+h(yj)-I(xk; yj)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
9
例子(4)
• 例4:在一个布袋里放100个球,其中80个是红色的, 20个是白色的。随机摸出一个球,记下颜色不放回布
袋,再取一个球;
• 例5:自然语言:
– 我要去食堂吃饭; – 我机冰不水书东。
10
信源分类和概率空间(1)
◆按照信源发出的消息在时间上和幅度上的分布情况: 离散信源——发出在时间和幅度上都是离散分布的离散消息
X ( X 1 , X 2 ) ,概率空间为:
(a1 , a2 ) p (a1 , a2 ) ( an , an ) p ( an , an )
X (a1 , a1 ) P p(a , a ) 1 1
p(ai , a j ) 0, p(ai , a j ) 1
• m=1阶马尔可夫信源
p( x1 , x2 ,, xi , xL ) p( xL xL1 ) p( xL1 xL2 ) p( x2 x1 ) p( x1 )
18
2.2 离散信源熵和互信息
问题:
• • • • • • • • 什么叫不确定度? 什么叫自信息量? 什么叫平均不确定度? 什么叫信源熵? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么?
i , j 1
n
注:信源的概率空间能表征信源的统计特性,是信源固有的 , 也称为信源空间。 若信源给定,则其相应的概率空间就已给定;
14
若信源的概率空间给定,就表示相应的信源给定。
◆按照信源发出的消息符号之间的依赖关系:
发出单个符号的无记忆信源 无记忆信源 信源 有记忆信源 发出符号序列的马尔可夫信源
23
• p( xi )—信源X的先验概率(已知)
• p( yj )—信宿Y的符号消息概率 (未知)
• p(xiyj)—联合概率(未知)
• p(yj/xi)—条件(转移)概率 (已知)
• p(xi/yj)—后验概率(未知) 接收者重新估计的关于信源X中的各个符号 消息的概率分布。
24
思考例题
已知信源X包含x0、x1两种消息,其出现概率 p(x0)=p(x1)=0.5 ,这两种消息在有干扰的二 元离散信道上传输。信宿Y收到的消息集合Y 包含y0、y1两种消息,给定信道的传输概率: p(y0/x0)=0.98, p(y1/x0)=0.02; p(y0/x1)=0.2, p(y1/x1)=0. 8。 求:在该信道上传输的 (1)平均互信息量; (2)可疑度; (3)噪声熵。
17
马尔可夫信源
• m阶马尔可夫信源
p( x1 , x2 ,, xi , xL ) p( xL x1 , x2 ,, xi , xL1 ) p( x1 , x2 ,, xi , xL1 ) p( xL xLm , xi , xL1 ) p( x1 , x2 ,, xi , xL1 ) p( xL xLm , xi , xL1 ) p( xL1 xLm1 , xi , xL2 ) p( x1 , x2 ,, xi , xL2 )
(1) p( xi ) 1, p( y j ) 1, p( xi / y j ) 1, p( y j / xi ) 1
(2) p( xi y j ) p( y j ), p( xi y j ) p( xi ), p( xi y j ) 1
i j i j
i
j
问题: ① 该信源中各个消息的出现会携带多少信息?
——关于自信息的定义 ② 整个离散信源又能输出多少信息?
——关于信源的信息熵
26
2.2.1 自信息量
• # 消息量””≠≠信息量“ • # 例: “明天降雨量将有一毫米”----信息量 小 • “明天降雨量将达到一米”----信息量 大 • “明日太阳将从东方升起”----信息量 零
信源X
有干扰 离散信道
信宿Y
干扰源
21
必须掌握的概率论知识
全概率: 设B1 , B2 , … 是一列互不相容的事件(BiBj= 0),
且有B1∪B2∪… =Ω (样本空间); p(Bi)>0,i=1,2,…,则对任一事件A,有:
p( A) p( Bi ) p( A | Bi ) p( ABi )
p( X 1 , X 2 ,, X l , X L ) p( X 1 ) p( X 2 )... p( X l )... p( X L )
L次扩展信源—— X 1 , X 2 , , X l , X L 概率分布相同
p ( X 1 , X 2 , , X l , X L ) p ( X )
发出符号序列的无记忆信源
发出符号序列的有记忆信源
15
•
符号序列的无记忆信源——所发出的各个符号是相互独立 的,发出的符号序列中的各个符号之间没有统计关联性。 信源:X ( X 1 , X 2 ,, X l , X L )
X 1 , X 2 ,, X l , X L 互不相关
L维随机矢量的联合分布:
i i
Bayes公式:
p( Bi ) P ( A | Bi ) p( Bi ) P ( A | Bi ) p( Bi | A) P ( A) p( Bi ) p( A | Bi )
i 1
条件概率
p(A | B) P ( AB) P( B)
联合概率
p(AB) P( B) p( A | B)
A {a1 , a2 ,..., an }, X A
p(ai ) 0, p(ai ) 1
i 1 n
离散型:
12
信源分类和概率空间(3)
◆按照信源发出的消息的组成符号个数: 发出单个符号的信源——信源输出消息的由单个符号组成
用随机变量X 描述
概率空间为:
连续型
X ( a, b) P p ( x) X
第二章 信源及信源熵
第一节 信源的描述和分类
第二节 离散信源熵和互信息 第三节 离散序列信源的熵 第四节 连续信源的熵和互信息
第五节 冗余度
1
重点:离散信源熵和互信息
难点:离散序列有记忆信源的熵
2
2.1 信源的描述和分类
信源的概念
信源-信息的发源地,如人,生物,机器等等。
信源的具体输出称作消息。
i 1
6
n
例子(1)
• 例1:在一个布袋里放100个球,其中80个是红色的, 20个是白色的。随机摸出一个球,看它的颜色,放回 后再做下次实验; • 例2:随机掷一个无偏骰子,每掷一次视为一次实验; • 共性
– 信源输出为单个符号,出现的消息数有限,且只能是符号集 中的一种,符合完备性,可用离散型随机变量描述该信源; – 每次实验结果可以单独处理。
L
16
• 发出符号序列的马尔可夫信源——信源发出符号序列的某
一个符号出现的概率只与前面一个或有限个符号有关,而 不依赖更前面的那些符号,可以用符号序列内各个符号之 间的条件概率来反映记忆特征。 信源: X ( X 1 , X 2 ,, X i , X L ) 若Xi只与 前面m个符号( X i 1 , X i 2 ,, X i m )有关,与更前 面及后面随机变量无关,则该信源为m阶马尔可夫信源, 记忆长度为m+1。
27
不确定性、惊讶度与信息量
在事件发生前有不确定性
在事件发生时有惊讶度
在事件发生后有信息量
当一个概率很低的随机事件发生,我们就会 感到非常惊讶,并得到很大的信息量。
如:9.11事件,美国纽约世贸大厦被炸
28
表
• 消息中的不确定内容构成信息;信息量 的多少与接收者的惊讶程度有关;消息 表达的内容越不可能发生,越不可预测, 惊讶程度越大,信息量就越大。
7
例子(2)
• 例3:有若干个5号干电池,随机摸出一节测量电压值 作为输出符号,则每次实验的结果取值均在[0,1.5]V 之间,每次测量值是随机的。 • 特性 – 信源输出为单个符号,出现的消息数无限且连续, 可用连续型随机变量描述该信源; – 每次实验结果可以单独处理。
8
例子(3)
• 例3:在一个布袋里放100个球,其中80个是红色的, 20个是白色的。随机摸出一个球,记下颜色然后放回 布袋,再取一个球,算作一次实验,依次每连取两次 球算作一次实验; • 特性 – 信源输出为两个(或多个)符号; – 可以用联合概率分布来表示信源特性; – 每次实验结果可以单独处理。
X R P p (x) X
p X ( x) 0,
b
a
p ( x)dx 1 或
X
R
p ( x)dx 1
X
13
发出符号序列的信源——信源输出消息由一系列符号(两
个或以上符号)组成,用随机矢量 表示: ( X 1 , X 2 ,..., X l ,... X L ) X L=2时,
P { p( x1 ), p( x2 ), , p( xn )} , p( xi )
为符号
xi 的先验概率。通常把它们写到一起,
称为概率空间:
x2 xn X x1 P p( x ) p( x ) p( x ) 1 2 n
p( xi ) 0, p( xi ) 1
4
香农信息论的基本点
信源
X1,X2,X3,… …
A为{a1,a2,…,am}或(a,b)
• 用随机变量或随机矢量来描述信源输出 的消息; • 用概率论和随机过程理论来研究信源。5概率空间• 符号
xi 的先验概率
样本空间 概率测度
一个离散信源发出的各个符号消息的集合为
X {x1, x2 ,, xn } ,它们的概率分别为