信息论第二章课后习题解答精品PPT课件
信息论第2章PPT(2012z最新版)
平均自信息量又称为信源熵、 或无条件熵。 平均自信息量又称为信源熵、信息熵 或无条件熵。
表示信源输出消息中的每个符号所含信息量的统计 平均自信息量H (X ) 表示信源输出消息中的每个符号所含信息量的统计 平均值, 平均值,其表达式为 q
[
]
(a1a1 L a2 ) L (aq aq L aq ) X N (a1a1 L a1 ) = P (a a L a ) P (a a L a ) L P (a a L a ) 1 1 1 1 1 2 q q q P (X )
这个概率空间共有 q N 个元素。 个元素。 多符号的离散信源可以分为 多符号的离散信源 可以分为 1) 离散无记忆信源 ) 2) 离散有记忆信源 )
一般情况下, 如果取以 r 为底的对数 r>1) 一般情况下, ( ) , 则
I (ai ) = − log r P (ai )
(r 进制单位)
通常采用“比特”作为信息量的实用单位。 通常采用“比特”作为信息量的实用单位。
已知二元信源输出“ 、 两种符号, 例: 已知二元信源输出“0”、“1”两种符号, 两种符号 出现概率相等, (1)如果“0”、“1”出现概率相等,计算出现 如果“ 、 出现概率相等 的信息量; “0”的信息量; 的信息量 出现概率为1/3 (2)如果“0”出现概率为1/3,计算出现“1”的 如果“ 出现概率为1/3,计算出现“ 的 信息量。 信息量。 根据信息量的定义式, 解:根据信息量的定义式,可以得到
2、平均自信息量H(X) 、平均自信息量
如果一个离散信源输出的消息符号集合为 X = {x i } = {x1 , x 2 , L , x q } , 信源输出的消息符号不同,所含有的信息量就不相同,因此, 信源输出的消息符号不同,所含有的信息量就不相同,因此,自信息量
《信息论与编码》课件1第2章
如果消息ai已发生,则该消息发生所含有的自信息定 义为
1
1
I (ai ) log P(ai ) log pi
(2.4)
第2章 离散无记忆信源与信息熵
可以很容易地证明, 自信息的定义满足上面提出的四个
(1) 此自信息的定义是根据消息发生的概率建立的一个 工程定义,而不是根据这个消息对人的实际意义而建立的 定义。这一纯粹技术性的定义仅仅抓住了“信息”一词在
(2) 自信息I(ai) 在消息ai发生之前,自信息I(ai)表示ai发生的不确定性; 在消息ai发生以后,自信息I(ai)表示ai所含有的(或提
第2章 离散无记忆信源与信息熵
(3) 在式(2.4)中关于对数的底未作明确规定。这是 因为对数的底仅仅影响到度量的单位,实际中可根据
如果取对数的底为2,则所得信息量的单位为比特 (bit, binary unit),此时logx用lbx
第2章 离散无记忆信源与信息熵
第2章 离散无记忆信源与信息熵
2.1 离散无记忆信源 2.2 自信息和熵 2.3 熵函数的性质 2.4 联合事件的熵及其关系 2.5 连续信源的信息测度 习题2
第2章 离散无记忆信源与信息熵
信息理论的研究对象是以各类信息的获取、表示、 传输和处理为目的的信息系统。图2-1给出了一个典型 的通信系统物理模型。在这样的通信系统中,一个贯 穿始终的、最基本的问题便是信息,即信源输出的是 信息,在系统中传输的是信息,接收者获得的也是信 息。可见,在信息理论的学习和研究中,首先需要对
信息论第二章答案
信息论第二章答案(总17页) -CAL-FENGHAI.-(YICAI)-Company One1-CAL-本页仅作为文档封面,使用请直接删除试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}二进制脉冲可以表示2个不同的消息,例如:{0, 1}假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1===八进制脉冲的平均信息量symbol bit n X H / 38log log )(2===二进制脉冲的平均信息量symbol bit n X H / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
一副充分洗乱了的牌(含52张牌),试问(1) 任一特定排列所给出的信息量是多少(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量解:(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是: !521)(=i x p bit x p x I i i 581.225!52log )(log )(==-=(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:(a)p(x i )=52/52 * 48/51 * 44/50 * 40/49 * 36/48 * 32/47 * 28/46 * 24/45 * 20/44 * 16/43 * 12/42 * 8/41 * 4/40=(b)总样本:C 1352, 其中13点数不同的数量为4*4*4*…*4=413。
所以,抽取13张点数不同的牌的概率:bit C x p x I C x p i i i 208.134log )(log )(4)(135213135213=-=-==居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。
精品课件-信息论、编码及应用-第2章
第2章 离散信源及其信息测度
2.1 单符号离散信源的数学模型 2.2 自信息和信息函数 2.3 信息熵 2.4 信息熵的基本性质 2.5 联合熵和条件熵的分解与计算 2.6 信息熵的解析性质 2.7 离散信源的最大熵值 2.8 多符号离散平稳信源 2.9 多符号离散平稳无记忆信源及其信息熵 2.10 多符号离散平稳有记忆信源及其信息熵 2.11 信源的相关性与冗余度
第2章 离散信源及其信息测度
第2章 离散信源及其信息测度
上述对应的数学表达式为
(2-3)
I(ai;bj)=I(ai)-I(ai|bj)
为了便于引出一个重要的结果,我们不妨假定信道中没有
噪声的随机干扰,这时,显然有bj=ai本身,收信者确切无误地 收到信源发出的消息。那么,收到bj后,对ai仍然存在的不确 定性等于0,即I(ai|bj)=0。这样,根据式(2-3),收到bj后,从 bj中获取关于ai的信息量为I(ai;bj)=I(ai)-I(ai|bj)=I(ai), 这个I(ai)也就是ai本身所含有的信息量,即信源能提供的全部 信息量,我们称I(ai)为ai的自信息量。
(1) 若P(a1)>P(a2),则I(a1)<I(a2),即f[P(ai)]是P(ai) 的单调递减函数;
(2) 若P(ai)=0,则f [P(ai)]→∞; (3) 若P(ai)=1,则f [P(ai)]=0;
第2章 离散信源及其信息测度
(4) 若两个事件ai和bj统计独立,则ai和bj的联合信息量应 等于它们各自的信息量之和,即I(aibj)=I(ai)+I(bj)。如有两 个统计独立的信源X和Y,它们的信源空间分别是
{1,2,3,4,5,6}中的任何一个,不可能是这个集合以外的符号,
《信息论》第二章课件
I(x|y) -logp(x|y)
p(x|y)要满足非负和归一化条件
★条件自信息的含义包含两方面:
y b j 给定,x 事件发生前 ai 事件发生的不确定性 y b j 给定,x 事件发生后 ai 事件包含的信息量
★自信息、条件自信息和联合自信息之间的关系
I(xy)= I(x)+ I(y|x)= I(y)+ I(x|y)
2.7
随机变量X和Y,符号集均为{0,1}
p( y 0 | x 0) p( y 1 | x 0) 1 2
p x (0)
2 3
p x (1)
1 3
p( y 1 | x 1) 1
求H(Y|X)
解:H (Y | X ) p( x) H (Y | x) p( x 0) H (Y | x 0) p( x 1) H (Y | x 1)
其中,q(ui)为节点ui的概率,H(ui)为节点ui的分支熵。
例
2.7
1/2 p 2/3
a1: p/3
b1: 2p/3
b2: 2/3
1/2
a2: p/3
r: 1
1-p
a3: 2(1-p)/3
1/3
a4: 1/3
条件熵
★
条件熵:联合集XY上,条件自信息I(y|x)的平均值
H (Y / X ) E [ I ( y / x)]
I ( x; y) I ( x) I ( x | y)
I(x;y)与 I(x|y)的区别?
互信息的性质
★ 互易性 ★ 当事件x,y统计独立时,互信息为0,即 I(x;y)=0 ★ 互信息可正可负 ★ 任何两事件之间的互信息不可能大于其中 任一事件的自信息
信息论与编码课件第二章
条件互信息量与联合互信息量
条件互信息量定义
I( x; y | z) loga
p( x | yz) p( x | z)
联合互信息量定义
I( x; yz)
log a
p( x | yz) p( x)
自信息量与互信息量的区分 (表达方式和含义上)
信息量 I( x) I( x | y) I( xy)
I(x)
联合自信息量与联合熵
联合自信息量定义
I ( xy ) = log 1 = - log p(xy) p( xy)
联合熵定义(联合自信息量的统计平均)
H(XY )
=
EXY I( xy)
=
xX yY
p( xy)I( xy)
= p( xy)log p( xy)
xX yY
自信息量、条件信息量、联合信息量 三者之间的关系
3 4
1 8
log2
1 4
0.406(bit)
H (Y | Z ) H ( X | Z ) 0.862(bit)
H (Z | X ) H (Z | Y ) 0.406(bit)
H ( X | YZ) H (Y | XZ ) 0.406(bit)
H (Z | XY ) 0
• (3)
I( X;Y ) H ( X ) H ( X | Y ) 1 0.811 0.189(bit) I( X; Z ) H ( X ) H ( X | Z ) 1 0.862 0.138(bit) I(Y ; Z ) I( X; Z ) 0.138(bit) I( X;Y | Z ) H( X | Z ) H( X |YZ)
8888
(2)根据(1)得到的联合概率分布和边沿概率分布
信息论第2章(信息量、熵及互信息量)PPT课件
信息论基础
The Basis of Information Theory
主题No2:信息量、熵和互信息量
在上一次课中我们提到香农对信息定性的 定义——事物运动状态或存在方式的不确定性 的描述。事实上,香农对信息不仅作了定性描 述,而且还进行了定量分析。
信源发出的消息常常是随机的,具有不确 定性。如果信源中某一消息的不确定性越大, 一旦发生,并为收信者收到,消除的不确定性 就越大,获得的信息也就越大。同时事件发生 的不确定性与事件发生的概率有关,概率越小, 不确定性就越大。
研究通信系统的目的就是要找到信息传输 过程的共同规律,以提高信息传输的可靠性、 有效性、保密性和认证性,以达到信息传输系 统最优化。
写在最后
经常不断地学习,你就什么都知道。你知道得越多,你就越有力量 Study Constantly, And You Will Know Everything. The More
You Know, The More Powerful You Will Be
谢谢大家
荣幸这一路,与你同行
It'S An Honor To Walk With You All The Way
I(X;Y)是一个用来衡量信道好坏的 非常好的工具。
计算条件熵的例子
例6 设一个二进制对称信道BSC:
其先验概率为p(0)=p(1)=1/2,试计算条 件熵. [解答]由已知条件得:
由条件熵的定义有:
结果表明,虽然每个字符的错误率只有 0.1,可导致整个信宿对信源的平均不确定 性达到了0.469,将近一半。可见通信系统 对信道的要求非常高。
信息论 傅祖芸课后题解答
第二章习题
2.13 (2)每个象素色度所含的信息量为:
H (Y) ? log30 ? 4.91
亮度和色度彼此独立 H ( XY) ? H (X) ? H (Y) ? log10 ? log30 ? 8.23 H ( XY) ? log300 ? 2.5 H ( X) log10
第二章习题
2.18 (1)是平稳的
p log
p 2
?
0
当p=1:
H?
?
? p log p ?
p log
p 2
?1
第二章习题 2.24 图应改为:
1 a1 : 2
s1
a1 :1
a2
:
1 4
1 a3 : 4
s3
a
2
:
1 2
s2
1 a3 : 2
(1)
?Q(s1) ? 0.5Q(s1) ? Q(s3 )
??Q ?
(s2
?Q (s3
) )
? ?
?
?
log 2
p(x /
y)
?
?
log 2
1 0.375
? 1.415( bit )
获得的信息量是 1.415 bit
第二章习题
2.6
I
(a1
)
? ? log 3 ? ? log 0.375
II((aa32))??8??lloogg1414??
2 2
?
1.396
I (a2 )
?
?
log
1 8
?
3
(1) I ?消息?? 14I (a1) ? 13I(a2 ) ? 12I (a3 ) ? 6I(a4 ) ? 87.544bit
信息论课后习题-PPT
(Hz)
5.11(续)
(3)同样由信道容量公式可得:
其中C,
S
C
2B 1
N
log 11,B=0.5MHz
可求得:S
?
N
2.14(续)
(1)求X1X2X3的联合熵和平均符号熵; (2)求这个链的极限平均符号熵; (3)求H0,H1,H2和它们所对应的冗余度。
解始:序(列1X)1X一2X阶3的平联稳合马熵尔:可夫链X1,X2 ,,Xr ,
的起
H (X1X2X3)
P(x1x2 x3 ) log P(x1x2 x3 )
N
H(XN
|
X N 1
X1) H2
33
P(ai )P(a j | ai ) log P(a j | ai )
i1 j1
(3) 1.251 bit/符号
H0 log 3 1.585 bit/符号
3
H1 P(ai ) log P(ai ) 1.414 bit/符号 i 1
H2 1.251 bit/符号
2.8 设随机变量X和Y的联合概率分布如右表所示。随机变Z量 X Y 求:
(1)H(X),H(Y)
Y b1=0 b2=0
(2)H(X|Y),H(Y|X),H(X|Z)
X
a1=0 1/3
1/3
a2=0
0
1/3
2.13 有一个马尔可夫信源,已知转移概率为:
P(S1
|
S1 )
2 3
,P
(
S2
|
S1 )
1 3
宽应为多少? (3)若信道通频带减为0.5MHz时,要保持相
同的信道容量,信道上的信号与噪声的平均功 率比值应等于多大?
信息论PPT第二章
7
2.1 信源的数学模型及分类
B. N次扩展信源的信源空间 次扩展信源的信源空间
因为信源XN 的每一个消息[Xi],(i=1,2,…,N)均 因为信源 的每一个消息 , 均 由信源X的符号集 的符号集A:{a1,a2,…aq}中的 个符号组成, 中的N个符号组成 由信源 的符号集 中的 个符号组成, 所 以 , XN 的 某 一 个 具 体 符 号 α i 可 以 表 示 为 [αi]=(ai1,ai2,…aij…aiN) aij∈A:{a1,a2,…aq},这个关系 , 表明扩展信源的每个符号取值于同一个单符号信源 空间, 空间,A:{ a1,a2,…aq}。 。 因此扩展信源X 就有q 种不同的符号, 因此扩展信源 N就有 N 种不同的符号 , 可以表 示为 [XN ]: {[α1],[α2],…[αi],…[αqN]}; (i=1,2, qN)
X1 1 2 = P(x1) 1/4 1/4
H(x) - H(x1) = 1--获得1bit信息量 X2 1 2 3 4 5 6 7 = P(x2) 1/2 1/2 0 0 0 0 0 H(x1) - H(x2) =1 --获得1bit信息量 X3 = P(x3) 1 1 2 0 3 0 4 0 5 0 6 0 7 0
根据消息的不同的随机性质对信源进行分类: 根据消息的不同的随机性质对信源进行分类: 离散信源:信源输出的都是单个符号( 离散信源:信源输出的都是单个符号(或代 的消息, 码)的消息,它们符号集的取值是有限的或 可数的。 可数的。可用一维离散型随机变量X来描述这 些信源的输出。这样的信源称为~。 些信源的输出。这样的信源称为~。
H(x2) = log2 = 1(bit/符号)
8 H(x3) 0 = log1 = 0(bit/符号)
信息论第二章ppt
特别,对于离散情形,记 xi 表示时刻t i 所取的值, { X (t )} 若 为平稳过程,则其各维联合概率分布均与 t i, t j,( i j) 时间起点无关,即当时 ,有 , P( x ) P( x ) ,
i j
P( xi xi1 ) P(x j x j 1 )
为描述随机过程在不同时刻的状态之间的统 计联系,一般可对任意个 n(n 2,3, ) 不同时 刻 t1, t2 , , tn T,引入 n 维随机变 量 ( X (t1 ), X (t2 ), , X (tn )) ,它的分布函数记为:
FX ( x1, x2 , , xn ; t1, t2 , , tn ) P{X (t1) x1, X (t2 ) x2 , , X (tn ) xn}, xi R, i 1,2, , n
当t1 t2 t
2
2 2 ( t ) C ( t , t ) R ( t , t ) X X X (t ) 时, X
。
如果对每一个 t T ,随机过程 {X (t ), t T }的二 阶矩 E[ X (t )] 都存在,则称它为二阶过程。二阶过 程的相关函数总存在。 例3. 求随机相位正弦波的均值函数、方差函 数和自过程
(1) 如果X (t ) E[ X (t )] X (t ) 以概率1成立,称随机过程{ X (t )} 的均值具有各态历经性; (2) 若对任意实数 ,RX ( ) E[ X (t) X (t )] X (t) X (t ) 以概率1成立,则称随机过程 {X (t )} 的自相关函数具有各 态历经性,特别当 0 时,称均方值具有各态历经 性; (3) 如果随机过程 { X (t )} 的均值和自相关函数都具有各 态历经性,则称 { X (t )}是各态历经过程,或称{ X (t )} 是各 态历经的。各态历经性有时也称作遍历性或埃尔谷德性。
《信息论、编码及应用》课件第2章
r
H (X ) P(ai )logP(ai )
i1
H[P(a1), P(a2 ),, P(ar )]
H(P)
(2-11)
第2章 离散信源及其信息测度
2.4.2 对称性 根据式(2-11),并根据加法交换律可知,当变量P1,
P2,…,Pr的顺序任意互换时,熵函数的值保持不变,即 H (P1, P2 ,, Pr ) H (P2 , P1,, Pr ) H (Pr , Pr1,, P1) (2-12)
在数学上可证明,同时满足以上四个公理条件的函数形 式为
I (ai )
f
[P(ai
)]
l
b
1 P(ai
)
lb P(ai )
(2-7)
在式(2-7)和后面的章节中,采用以2为底的对数,所得信息量的 单位为比特。
第2章 离散信源及其信息测度
2.3 信 息 熵
2.3.1 信息熵的数学表达式 为了求得整个信源所提供的平均信息量,首先,我们应
存在的平均不确定性。例如有三个信源X1,X2,X3,它们的 信源空间分别是:
X1
P(
X
1
)
a1 0.5
0a.25,
X2
P(
X
2
)
a1 0.7
0a.23,
X3 P( X 3
)
a1 0.99
a2 0.01
(3) 用信息熵H(X)来表示随机变量X的随机性。
第2章 离散信源及其信息测度
第2章 离散信源及其信息测度
第2章 离散信源及其信息测度
2.1 单符号离散信源的数学模型 2.2 自信息和信息函数 2.3 信息熵 2.4 信息熵的基本性质 2.5 联合熵和条件熵的分解与计算 2.6 信息熵的解析性质 2.7 离散信源的最大熵值 2.8 多符号离散平稳信源 2.9 多符号离散平稳无记忆信源及其信息熵 2.10 多符号离散平稳有记忆信源及其信息熵 2.11 信源的相关性与冗余度
信息论与编码(第二版)陈运主编课件第二章 (2)
H(X Y) H(X )
(2.1.28)
已知Y后,从中得到了一些关于X的信息,从而 使X的不确定度下降。
信息熵的基本性质
上凸性
熵函数具有上凸性,所以熵函数具有极值, 其最大值存在。
加权熵的概念(了解)
定义信息的
n
加权熵
H ( X ) i p(ai )log p(ai )
1 式中 p(ai ) 1 。当且仅当x 1, np(ai ) i 1 1 即p(ai ) 时,上式等号成立。 n
对于单符号离散信源,当信源呈等概率分布时具 有最大熵。
n
举例
二进制信源是离散信源的一个特例。
1 x 0 p(x) 1
其中 0 p(ai ) 1, i 1,2,, n, 且 p(ai ) 1
i 1
n
信源熵
各离散消息自信息量的数学期望,
即信源的平均信息量。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
j 1 i 1 m n
信道疑义度, 损失熵
p(aib j )log p(ai b j )
j 1 i 1
m
n
(2.1.17)
H (Y X ) E[ I (b j ai )]
n m
噪声熵
(2.1.18)
p ( ai b j ) log p (b j ai )
i 1 j 1
i 1
(2.1.32)
加权熵从某种程度上反映了人的主观因素
例
下雪
小结与作业
信源熵 性质,最大离散熵定理
信息论与编码第二版第2章ppt
3. 联合熵和条件熵 (1)联合熵(共熵)
联合熵是联合符号集合(X,Y)的每个元素对
(xi , y j ) 的自信息量的概率加权统计平均值,它表
示X和Y同时发生的不确定度。定义为
H XY pxi , yjI xi , yj ij pxi , yj log pxi yj ij
H
(V
|
u0
)
H
(1 4
,
3) 4
0.82bit
/
符号
(2)已知发出的符号,求收到符号后得到的信息量;
11
H (V | U ) p(ui , v j ) log p(v j | ui ) i0 j0
p(u0 , v0 ) p(v0 | u0 ) p(u0 ) 3 / 8 p(u0 , v1) 1/ 8 p(u1, v0 ) 1/ 4 p(u1, v1) 1/ 4
P(x 0, y 0) P( y 0 | x 0)P(x 0) 1/ 2 P(x 0, y ?) 1/ 6, P(x 0, y 1) 0 P(x 1, y 0) 0, P(x 1, y ?) 1/ 6 P(x 1, y 1) 1/ 6
H (Y | X ) p(xi , yi ) log p( yi | xi ) 0.88bit / 符号 ij
“o”的自信息量 I (o)= - log2 0.001=9.97 bit;
例: 居住某地区的女孩中有25%是大学生,在女大学生中有75% 身高为1.6m以上,而女孩中身高1.6m以上的占总数一半。假如得 知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息 量?
解:设x1为女孩是大学生; x2为身高1.6m以上的女孩; 则p( x1)=1/4 ; p (x2)=1/2;
信息论第二章课件及习题答案.ppt
2020/1/29
17
图2.2.1
H(X) 1.0
0.5
0
0.5
2020/1/29
1P
18
§2.2 离散型随机变量的平均 自信息量(熵)
定义2.2.2(条件熵) 给定一个二维离散型
随机变量 {(X, Y), (xk, yj), rkj,
k=1~K; j=1~J}。
量定义为I(xk; yj)
2020/1/29
2
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
(本章将给出各种信息量的定义和 它们的性质。)
定义2.1.1(非平均互信息量) 给定 一个二维离散型随机变量
{(X, Y), (xk, yj), rkj, k=1~K; j=1~J} (因此就给定了两个离散型随机
(条件的非平均自信息量实际上是非平均自信息量的简单推 广,只不过将概率换成了条件概率)。
条件的非平均自信息量的特殊性质: h(xk|yj)=h(xk)-I(xk; yj) 。
2020/1/29
12
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
定义2.1.5(联合的非平均自信息量) 给定一个二维离散型随机 变量{(X, Y), (xk, yj), rkj, k=1~K; j=1~J}。事件(xk, yj)∈(X, Y) 的自信息量定义为
I (xk ; y j )
log a
rkj qk wj
log a
P((X ,Y ) (xk , y j )) P( X xk )P(Y y j )
2020/1/29
4
§2.1 离散型随机变量的非平 均信息量(事件的信息量)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
为确定哪一枚是假币,即要消除上述两事件的联合不确定性,由
于二者是独立的,因此有
而用天平称时,有三种可能性:重、轻、相等,三者是等概率的,
均为
,因此天平每一次消除的不确定性为
比特
因此,必须称的次数为:
因此,至少需称3次。
【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之 和为2”或“面朝上点数之和为8”或“两骰子面朝上点数是3 和 4”时,试问这三种情况分别获得多少信息量?
的自信息之和。各消息所包含的信息量分别为:
发出的消息中,共有14个“0”,13个“1” ,12个“2” ,6个“3” , 则得到消息的自信息为从大量统计资料知道,男性中红绿色盲的发病率为7%, 女性发病率为0.5%,如果你问一位男同志:“你是否是红绿色 盲?”,他的回答可能是“是”,也可能是“否” ,问这两个 回答中各含有多少信息量?平均每个回答中含有多少信息量? 如果你问一位女同志,则答案中含有的平均自信息量是多少? 解:男为红绿色盲的概率空间为:
解: “两骰子总点数之和为2”,即两骰子的点数各为1,由于
二者是独立的,因此该种情况发生的概率为
,该事
件的信息量为:
“两骰子总点数之和为8”共有如下可能:2和6、3和5、4和4、5
和3、6 和2,概率为
,因此该事件的信息量为:
“两骰子面朝上点数是3和4”的可能性有两种: 3和4、 4和3, 概率为
“身高1.6米以上的某女孩是大学生”的发生概率为:
已知该事件所能获得的信息量为
【2.5】设离散无记忆信源 , 其发出的消息为 (23211223210),求 (1) 此消息的自信息是多少? (2) 在此消息中平均每个符号携带的信息量是多少? 解: 信源是无记忆的,此时发出的消息的自信息即为各消息
解: 信源为一阶马尔克夫信源,其状态转换图如下所示。
根据上述状态转换图,设状态分别为
P(a)、P(b) 和P(c) ,
【2.20】黑白气象传真图的消息只有黑色和白色两种,即信源, X={白 黑} ,设黑色出现的概率为 P(黑) =0.3 ,白色出现的 概率为P(白)=0.7。 (1) 假设图上黑白消息出现前后没有关联,求熵H(X) ; (2) 假设消息前后有关联,其依赖关系为P(白|白)=0.9 , P(白|黑)=0.2 ,P(黑|白)=0.1 ,P(黑|黑)=0.8 ,求此一阶马 尔克夫信源的熵H2 。 (3) 分别求上述两种信源的冗余度,并比较H(X)和H2的大小, 并说明其物理意义。
这样,平均每个像素携带的信息量为:
每帧图像含有的信息量为:
按每秒传输30帧计算,每秒需要传输的比特数,即信息传输率 为:
(2)需30个不同的色彩度,设每个色彩度等概率出现,则其概 率空间为:
由于电平与色彩是互相独立的,因此有
这样,彩色电视系统的信息率与黑白电视系统信息率的比值为
【2.13】每帧电视图像可以认为是由3×105个像素组成,所以 像素均是独立变化,且每一像素又取128个不同的亮度电平,并 设亮度电平等概率出现。问每帧图像含有多少信息量? 若现有一广播员在约 10000 个汉字的字汇中选 1000 个来口述 此电视图像,试问广播员描述此图像所广播的信息量是多少 (假设汉字是等概率分布,并且彼此无依赖)?若要恰当地描 述此图像,广播员在口述中至少需用多少汉字?
因此该事件的信息量为:
【2.4】居住某地区的女孩中有25%是大学生,在女大学生中有75% 是身高1.6米以上的,而女孩中身高 1.6 米以上的占总数一半。 假如我们得知“身高 1.6 米以上的某女孩是大学生”的消息,问 获得多少信息量?
解: 设 A表示女孩是大学生,P(A)=0.25 ;B表示女孩身 高1.6米以上,P (B|A)=0.75 ,P(B)=0.5
解:(1)如果出现黑白消息前后没有关联,信息熵为:
(2)当消息前后有关联时,首先画出其状态转移图,如下所 示:
设黑白两个状态的极限概率为Q(黑) 和Q (白) ,
解得:
此信源的信息熵为: (3)两信源的冗余度分别为:
问男,回答“是”所获昨的信息量为:
问男,回答“否”所获得的信息量为:
男,平均回答中含有的信息量为:
同样,女为红绿色盲的概率空间为 问女,回答“是”所获昨的信息量为: 问女,回答“否”所获昨的信息量为: 女,平均回答中含有的信息量为
【2.12】 (1)为了使电视图像获得良好的清晰度和规定的适 当的对比度,需要用 5×105个像素和10个不同亮度电平,求传 递此图像所需的信息率(比特/秒)。并设每秒要传送 30帧图 像,所有像素是独立变化的,且所有亮度电平等概率出现。 (2)设某彩电系统,除了满足对于黑白电视系统的上述要求外, 还必须有30个不同的色彩度,试证明传输这彩色系统的信息率 要比黑白系统的信息率约大2.5倍。 解: (1)每个像素的电平取自10个不同的电平,形成的概率 空间为:
解: 每个像素的电平亮度形成了一个概率空间,如下:
平均每个像素携带的信息量为:
每帧图像由3×105个像素组成,且像素间是独立的,因此每帧图
像含有的信息量为:
平均每个汉字携带的信息量为 择1000字来描述,携带的信息量为
bit/sym; 选
需要汉字个数为:
【2.18】设有一信源,它在开始时以P(a)=0.6, P(b)=0.3, P(c)=0.1的概率发出X1。如果X1为a时,则 X2为 a、b、c 的概 率为1/3;如果X1为b时,则X2为 a、b、c 的概率为1/3;如果X1 为c时,则X2为a、b的概率为1/2,为c的概率为0。而且后面发 出Xi的概率只与Xi-1有关,又 。试用马尔克夫信源的图示法画出状态 转移图,并计算此信源的熵H∞。
第二章 课后习题
【2.1】设有 12 枚同值硬币,其中有一枚为假币。只知道假币 的重量与真币的重量不同,但不知究竟是重还是轻。现用比较 天平左右两边轻重的方法来测量。为了在天平上称出哪一枚是 假币,试问至少必须称多少次?
解:“12枚硬币中,某一枚为假币”该事件发生的概率为 “假币的重量比真的轻,或重”该事件发生的概率为 P 1