信息论第三讲-平均交互信息量的特性
平均互信息量
i1
i1 j1
H(X)H(X) 0
4 凸函数性
I (X ;Y )
n i 1
m j 1
p(aibj ) log
p(bj ai ) p(bj )
p(aibj ) p(ai ) p(bj ai )
p(bj )
n i 1
p(aibj )
n i 1
p(aip(aibj ) log
p(bj ai ) p(bj )
信道中流通信息量的整体测度
变形1:
nm
I (X ;Y ) E[I (ai;bj )]
p(aibj )I (ai ;bj )
i1 j1
n i 1
m
p(aibj ) log
j 1
p(ai bj ) p(ai )
p(aibj ) p(bj ) p(ai bj )
4
x1
1 4
3 4
的信道
信宿接收符号Y = {y0, y1},计算信源与信宿间 的平均互信息量I(X;Y),信道疑义度,噪声熵
名称 符号
关系式
图示
H(X ) H(X Y) I(X;Y)
H(X)
无
H(X Y)
条
H (X ) H ( XY ) H (Y X )
件
熵
H (Y ) H (Y X ) I (X ;Y )
名称 符号
关系式
交
I(X;Y) H(X) H(X Y)
I ( X ;Y )
互 I(Y; X )
H (Y ) H (Y X )
熵
H (X ) H (Y ) H (XY)
H (XY) H (X Y ) H (Y X )
图示
• I(X;Y)= H(X)-H(X︱Y) Y)
信息论-第三章PPT课件
一般简单的单符号离散信道的数学模型可以用概率空
间[X,p(y|x),Y]来描述。
a1
b1
X
P (b j | ai )
Y
ar
2021/6/7
bs
6
第一节 信道的数学模型及分类
表示成矩阵形式:
…
y1
y2
… x1 p(y1/x1) p(y2/x1)
[P]=
…
x2 p(y1/x2) p(y2/x2)
2021/6/7
27
第四节 信道容量及其一般计算方法
(3)无噪有损信道
x1
x2
y1
x3
x4
y2
x5
此时信道疑义度为0,而信道噪声熵不为0,从而
C=max{I(X;Y)}=max{H(Y)-H(Y/X)}=max{H(Y)}=logs
2021/6/7
28
第四节 信道容量及其一般计算方法
2、对称离散信道的信道容量
y1
y2
…
x1
p(y1/x1)
p(y2/x1)
…
[P]= x2
p(y1/x2)
p(y2/x2)
…
…
…
…
…
xn
p(y1/xn)
p(y2/xn)
…
ym p(ym/x1) p(ym/x2)
… p(ym/xn)
2021/6/7
10
第一节 信道的数学模型及分类
为了表述简便,可以写成 P(bj /ai)pij
因为H(X),表示传输前信源的不确定性,而H(X/Y)表示
收到一个符号后,对信源尚存的不确定性,所以二者之
差信道传递的信息量。
2.2平均互信息量
2.2平均互信息量现在来一般地研究平均互信息量。
2.2.1平均互信息量的定义定义互信息量在联合概率空间中的统计平均值作为平均互信息量:∑∑===ni mj xi p yj xi p lbxiyj p Y X I 11)()/()();( (2.2.1)考虑到条件概率与联合概率之间的关系式: 容易推出:∑∑===ni mj yj p xi yj p lbxiyj p X Y I 11)()/()();( (2.2.3)2.2.2平均互信息量的物理意义可以从三个不同的角度观察平均互信息。
(1)由式(2.2.3)得: (2)由式(2.2.2)得:(3)由式(2.2.3)得[例 2.2.1]仍以[例 2.1.5]为例,验证式(2.2.4),(2.2.5),(2.2.6)的正确性。
平均互信息的物理意义 (1)Y 对X 的平均互信息)/(log)()/()/()()/(1log)()(1log)()()/(log)();()();(21121121121111j i ni mj j i j i ni mj j i i ni mj j i i j i ni mj j i j i ni mj j i y x p y x p Y X H Y X H X H y x p y x p x p y x p x p y x p y x p y x I y x p Y X I ∑∑∑∑∑∑∑∑∑∑==========-=-=-===其中条件熵:* Y 对X 的平均互信息是对Y 一无所知的情况下,X 的先验不定度与收到Y 后关于X 的后验不定度之差,即收到Y 前、后关于X 的不确定度减少的量。
H(X/Y)表示收到随机变量Y 后,对随机变量X 仍然存在的不确定度,这是Y 关于X 的后验不定度,通常称它为信道疑义度或损失熵(代表了在信道中损失的信息)(2)X 对Y 的平均互信息* X 对Y 的平均互信息是Y 的先验不定度与发出X 后关于Y 的后验不定度之差,即发X 前、后关于Y 的不确定度减少的量。
2015秋.信息论.第3章离散信道及平均互信息量
log2
1 1/ 2
1(bit)
22
X 信源 X 信道 Y 信宿
X 信道故障(设备故障,人员问题)Y=安全X=安全;
信道错误,X,Y取值相反
I ( x安全;y安全 )
log
p( x安全 / y安全 ) p( x安全 )
23
3.2.2平均互信息量
– 互信息量 I(xi; y j ) 是定量地研究信息流通问题 的重要基础。
求出各联合概率:
p(x1 y2 ) p(x1) p( y2 / x1) 0.5 0.02 0.01 p(x1 y1) p(x1) p(y1 / x1) 0.5 0.98 0.49 p(x2 y1) p(x2 ) p(y1 / x2 ) 0.5 0.20 0.10 p(x2 y2 ) p(x2 ) p(y2 / x2 ) 0.5 0.80 0.40
• 但只能描述信源发出某个具体消息 xi ,信宿收
到某具体消息 y j 时流经信道的信息量,是随 xi 和 y j 变化的随机变量。 • 不能从整体上作为信道中信息流通的测度。
– 平均互信息量 I(X;Y )
• 从整体的角度出发,在平均意义上度量每通过一 个符号流经信道的平均信息量。
24
• 互信息量I(xi;yj) 在集XY上的概率加权平均 值称为集合Y与集合X间的平均互信息量。
的信息量,也是任何其他事件所能提供的最大信
息量。
I ( xi ;
yj)
log
p( xi / y p( xi )
j
)
log 1 log 1
p( xi )
p( xi / y j )
xi
yj
I ( xi ) I ( xi / y j )
平均互信息的性质与信道容量
M
N
N
N
M
其中0 1
例1:二进制信源X ~ P(X ),二进制对称信道 Y / X ~ P(Y / X) P(X ) p q p ,P(Y / X) q q q
求平均互信息及p-I(X;Y)和q-I(X;Y)曲线
P(Y) p q p q q pq p q q pq pq
求二进制对称信道的信道容量C及达到C的信源概率P(X)
C max I(X; Y) max[H(Y) H(Y / X)]
P(X) P(X)
max[H(pq p q ) H(q)] max H(pq p q ) H(q 1 H(q)
i 1 j1 M
M
{ [P1 ( x i )]P( y j / x i )}log{ [P1 ( x i )]P( y j / x i )} [P1 ( x i )]P( y j / x i ) log P( y j / x i )
j1 i 1 i 1 i 1 j1
(3)极值
I(X; Y) H(X)
H( X / Y) 0 I(X; Y) H(X) H(X / Y) H(X)
X与Y一一对应时, H(X / Y) 0 I(X; Y) H(X) H(X / Y) H(X)
(4)严格凸
信道给定时,对于信源概率P(X)严格上凸
0
0.5
1 p
信源给定时p为常数,作q-I(X;Y)曲线
当q 0时,I(X; Y) H( p ) H(0) H(p) q 0.5时,I(X; Y) H(0.5) H(0.5) 0 q 1时,I(X; Y) H(p) H(1) H(p) I(X;Y) H(p)
信息论.第3章离散信道与平均互信息量
信道
Y1Y2 YN
p( y1 y2 yN | x1 x2 xN )
若Xi取值于A,Yi取值于B,并且Xi的分布相同,Yj 的分布相同,i=1,2,…N
p( y | x) p( y1 y2 ... y N | x1 x2 ... xN ) p( yi | xi )
第3章 离散信道与平均互信息量
研究信源,研究的是信源输出的信息量,即信源 的熵H(X)。 研究信道,研究的是流经信道的信息量,即信道 的输出Y与输入X之间的平均互信息量I(X;Y)。
1
互信息量与平均互信息量
p( xi / y j ) 1 1 log log log p( xi ) p( xi / y j ) p( xi ) p( xi y j ) p( y j / xi ) log log p ( x ) p ( y ) p ( y ) i j j 1.互易性 1 1 I ( y j ; xi ) log log p( yi ) p( yi / x j ) 2 极值性
信息传输速率 信道在单位时间内平均传输的信息量。
1 Rt I ( X ; Y1)对于给定的一个信道,存在输入分布p(x) 使I(X;Y)达到最大,称为最佳输入分布(最 佳信源); 2)信道容量表征信道传送信息的最大能力; 3)C与p(x)无关,是关于信道p(y|x)的函数。
p( x)
C log s H ( p'1 , p'2 ,..., p's )
二元对称信道的信道容量是 C=1-H(P)。 离散准对称信道
C max I ( X ; Y ) max H (Y ) H (Y / X )
p( x) p( x) def
信息论 第三讲互信息
5
三、互信息
1、条件自信息和条件熵
一般而言:实际问题中常涉及到两个事件集合,因而希望能给出与两个 集合之间相互关联的信息量。
设有事件集合X,它含有N pi ,
个事件:x1,x2,…,xN
,
事件xi出现的概率记作
1≥ pi ≥0,且
p 1
(3-1)
1
设另一事件集合Y,它含有M 个事件:y1,y2,… yM ,事件yj出现的概
16
三、互信息
2、互信息和联合熵
互信息的物理意义 对于无扰信道, H(X/Y) = 0, H(Y/X) = 0,于是有
I(X,Y)=H(X)=H(Y),即X 将信息量全部传给了Y。
最坏的情况是信道干扰相当严重,以致X与Y 统计独立, 此时有I(X,Y)=0 ,H(Y/X)= H(Y)和H(X/Y) = H(X) ,信道 未能传送任何信息。
p(1)= p(k1) p(a)=1/2 ·1/4=1/8 ; p(2)= p(k1) p(b)+ p(k2) p(a) =1/2 ·3/4+ 1/4 ·1/4 =1/8=7/16 p(3)= p(k2) p(b)+ p(k3) p(a) =1/4 ·3/4+1/4 ·1/4=1/4 p(4)= p(k3) p(b) =1/4 ·3/4=3/16
率记作qj , 1≥ qj≥0 ,且
q 1 1
(3-2)
联合事件集合XY含有的事件为{xiyj,i=1,2…N,j=1,2…M},联合事件 xiyj的出现概率为pij,i=1,2,…,N,j=1,2,…,M,
NM
1≥ pij≥0,且
pij 1
i 1 j 1
(3-3)
6
三、互信息
信息论第三讲-平均交互信息量的特性
熵速率R是先验概率的函数,也是信道 转移概率的函数。
2020/6/28
25
信道容量是在给定信道条件下(即一定
的信道转移概率),对于所有可能的信 源先验概率的最大熵速率。它表示为:
C max R P(X )
2020/6/28
26
C max{nI( X ,Y )} max{n[H( X ) H( X / Y )]}
由,当x为大于0的实数时,底大于1的对数 logx是x的严格上凸函数。因此
f{∑pixi}≥∑pif(xi),
如f(x)=logx,则有:
log{∑pixi}≥∑pilogxi
2020/6/28
4
根据这个关系,考虑平均交互信息量, I(X,Y)= ∑∑p(xi,yj)log[p(xi,yj)/p(xi)p(yj)] 则: -I(X,Y)= ∑∑p(xi,yj)log[p(xi)p(yj)/p(xi,yj)] ≤log∑∑p(xi,yj)[p(xi)p(yj)/p(xi,yj)] =log{∑p(xi) ∑p(yj)}=0 所以有:I(X,Y) ≥0
其中:记H(p)= -[plogp+(1-p)log(1-p)] 另外:为了求H(Y), 利用p(yj)= ∑p(xi)p(yj/xi);可得:
p(y=0)=ω(1-p)+(1-ω)p p(y=1)=ωp+(1-ω)(1-p)
则:
H(Y)=H(ω(1-p)+(1-ω)p)
2020/6/28
18
可得平均交互信息量为: I(X,Y)=H(ω(1-p)+(1-ω)p)-H(p)
可知,当p值一定,I(X,Y)是ω的上凸函数,
I(X,Y)
1-H(p)
0
通信原理 平均信息量
通信原理平均信息量
通信原理:
1. 信道特性:信道特性是指传输媒介上环境所对信号形成的影响和限制。
包括容量限制,干扰、噪声、失真等;
2. 信息量:信息量是指传输过程中能够传输的最大信息量,比如模拟的幅度变化和数字的比特变化;
3. 信噪比:信噪比就是传输信号与噪声信号强度之比,表示信号与噪声之间的相对强度;
4. 失真:失真是指传输信号在传播过程中发生的延迟或形变;
5. 传输延迟:传输延迟是指传输过程中因环境的影响而产生的时延;
6. 平均信息量:平均信息量指的是一段时间内传输的信息量的总和除以这段时间的均值。
通过平均信息量的测量,可知道系统的整体性能和发送效率;
7. 多址式:多址式是指一台网关可以控制多台待机设备及终端机,并让多台设备或终端机之间能够进行无线数据传输;
8. 网络协议:网络协议是指网络节点之间进行数据通信所遵循的一系列规范,它的制定使得通信的双方能够按照既定的标准进行通信。
信息论第三讲-平均交互信息量的特性共49页
•
46、寓形宇内复几时,曷不委心任去 留。
•
47、采菊东篱下,悠然见南山。
•
48、啸傲东轩下,聊复得此生。
•
49、勤学如春起之苗,不见其增,日 有所长 。
•
50、环堵萧然,不蔽风日;短褐穿结,箪瓢 屡空, 晏如也 。
61、奢侈是舒适的,否则就不是奢侈 。——CocoCha nel 62、少而好学,如日出之阳;壮而好学 ,如日 中之光 ;志而 好学, 如炳烛 之光。 ——刘 向 63、三军可夺帅也,匹夫不可夺志也。 ——孔 丘 64、人生就是学校。在那里,与其说好 的教师 是幸福 ,不如 说好的 教师是 不幸。 ——海 贝尔 65、接受挑战,就可以享受胜利的喜悦 。——杰纳勒 尔·乔治·S·巴顿
谢谢!
信息论第三讲互信息
互信息的解释性问题
互信息是一种非线性关系,难以解释其物理意义,因此在实际应用中存在一定的 困难。
互信息的解释性受到数据分布的影响,不同的数据分布会导致互信息的值发生变 化,从而影响其解释的准确性。
互信息的度量问题
互信息的度量涉及到熵的计算,而熵的计算涉及到概率的归 一化过程,因此互信息的度量存在一定的难度。
加密通信
加密算法设计
互信息可以用于设计加密算法,通过 增加密文和明文之间的不确定性,提 高加密的安全性。
密钥分配
互信息可以用于密钥分配,通过建立 通信双方之间的共享密钥,保证通信 的安全性。
自然语言处理
语义分析
互信息可以用于自然语言处理的语义分析,通过分析词语之间的关联程度,提高文本分类、情感分析 等任务的准确性。
文本生成
基于互信息的文本生成技术可以用于自动生成文章、对话等文本内容,提高自然语言处理的应用效果 。
05
互信息的限制与挑战
互信息的计算复杂度问题
互信息的计算涉及到概率的计算,而 概率的计算需要大量的数据样本,因 此互信息的计算复杂度较高。
在实际应用中,由于数据样本的限制, 计算出的互信息可能存在误差,影响 后续的分析和决策。
2
在信息论中,互信息用于度量两个变量之间的相 关性,可以反映一个变量中包含的关于另一个变 量的信息的多少。
3
互信息通常用I(X;Y)表示,其中X和Y是两个随机 变量,I(X;Y)表示X中关于Y的信息量。
互信息的性质
非负性
互信息总是非负的,即I(X;Y)≥0。
对称性
互信息具有对称性,即 I(X;Y)=I(Y;X)。
互信息与条件熵的关系
互信息可以理解为条件熵减去被条件化的随机变量的熵,即表示由于给定一个随机变量而减少的另一个随机变量 的不确定性。
第3讲_信源及其信息量2_平均互信息
举例 某地二月份天气构成的信源为:
x (晴), x2 (阴), x3 (雨), x4 (雪)⎫ ⎡ X ⎤ ⎧ 1 ⎪ ⎪ =⎨ 1 1 1 1 ⎬ ⎢P( X )⎥ , , ⎣ ⎦ ⎪ 2, 4 8 8 ⎪ ⎩ ⎭
收到消息 y1:“今天不是晴天” 收到 y1 后:p(x1/y1)=0, p(x2/y1)=1/2, p(x3/y1)=1/4,p(x4/y1)=1/4
2011-3-4
Department of Electronics and Information, NCUT
Song Peng
第10页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量 互信息量定义:
互信息量:yj 对 xi 的互信息量定义为后验概率与先验概率比 值的对数。
Song Peng
第8页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量 互信息量定义:
信源 X、信宿 Y 的数学模型为:
x2 , …, xi , …, xn ⎫ ⎡ X ⎤ ⎧ x1 , ⎢ P( X )⎥ = ⎨ p( x ), p( x ), …, p( x ), …, p( x )⎬ ⎣ ⎦ ⎩ 1 i n ⎭ 2 0 ≤ p( xi ) ≤ 1,
Song Peng
第16页
2.1.4 平均互信息量
2.1 单 符 号 离 散 信 源
(1) 互信息量和条件互信息量
① 互信息量
互信息量的三种不同表达式 观察者站在通信系统总体立场上
▼ 通信前:输入随机变量 X 和输出随机变量 Y 之间没有任
第三讲平均互信息
I (xi ; y j ) I (xi ) I ( y j ) I (xi y j )
第三讲平均互信息
H(X|Y) I(X;Y)
H(Y|X)
H(X,Y)
H(X|Y) 常称为疑义度、含糊度,--损失熵 它表示观察到Y后,集X还保留的不确定性。
H(Y|X) 常称为散布度,--噪声熵(由噪声引起) 它表示由于干扰的影响,使观察的Y存在的 平均不确定性。
X
P(x | y) log P(x | y) , P(x)
P(y) 0
第三讲平均互信息
特定 x 出现所给出的关于集Y的平均互信息:
I (Y; x) EY I ( y; x)
Y
P( y | x) log P( y | x) , P( y)
P(x) 0
集 X 和集 Y 之间的平均互信息为:
I( X ;Y ) EXY I( x; y ) X
P(00 | M1) P(00 | 00) P(0 | 0) p(0 | 0) (1 p)2
P(M1,00) P(M1)P(00 | M1) (1/ 4)(1 p)2
4
P(00) P(Mi )P(00 | Mi ) 1/ 4
i 1Βιβλιοθήκη I (M1;00)log
P(M1,00) P( M 1 ) P(00)
I ( y j ; xi ) I ( y j ) I ( y j | xi ) log P( y j ) log P( y j | xi ) log P( y j | xi ) P(y j )
平均互信息: 特定 y 出现所给出的关于集X的平均互信息:
I (X ; y) EX I (x; y)
(此条件为DMC的充要条件。) (3)、有干扰有记忆情况。
平均信息量
(3) 平均互信息量的性质
① 对称性 ② 非负性 ③ 极值性 ④ 凸函数性 ⑤ 数据处理定理
① 对称性
I(X;Y)= I(Y;X) 证明:根据互信息量的对称性I(x 证明:根据互信息量的对称性 i;yj)= I(yj;xi)
I ( X ; Y ) = ∑∑ p ( xi y j )I ( xi ; y j ) = ∑∑ p ( xi y j )I ( y j ; xi ) = I (Y ; X )
(2) 平均互信息量的物理含义
① 观察者站在输出端 ② 观察者站在输入端 ③ 观察者站在通信系统总体立场上
① 观察者站在输出端
I ( X ; Y ) = ∑∑ p ( xi y j ) log 2
i =1 j =1 n m n m p ( xi / y j ) p ( xi )
= ∑∑ p ( xi y j ) log
自然对数性质: 时取等号。 自然对数性质:lnx≤x-1,x>0,当且仅当 , ,当且仅当x=1时取等号。 时取等号
② 非负性
I(X;Y)≥0
证明: I ( X ; Y ) = ∑∑ p( xi y j ) log
i =1 j =1 n m p ( xi y j ) 2 p ( xi ) p ( y j )
i =1 j =1
1 2 p ( xi )
− ∑∑ p ( xi y j ) log 2
i =1 j =1
n
m
1 p ( xi / y j )
= H (X ) − H (X /Y )
H(X/Y) —信道疑义度 损失熵。 Y关 信道疑义度/损失熵 信道疑义度 损失熵。 关
于X的后验不确定度。表示收到变量 的后验不确定度。 Y后,对随机变量X仍然存在的不确 后 对随机变量 仍然存在的不确 定度。代表了在信道中损失的信息 损失的信息。 定度。代表了在信道中损失的信息。
2[1].1.5平均互信息,熵间的关系
噪声熵
平均互信息量是发送X前、后,关于Y的平均不 确定度减少的量。
由(2.1.45)式
I ( X ; Y ) p(aib j ) log
i, j
p(aib j ) p(ai ) p(b j )
1 1 1 = p(aib j ) log p(ai, bj ) log p(aib j ) log p(ai ) i , j p(b j ) i , j p(aib j ) i, j =H(X)+H(Y)-H(XY) (
I ( X ;Y ) 0
证明1:
I ( X ;Y ) H ( X ) H (Y ) H ( XY )
因为:H(XY) ≤H(X)+H(Y)
所以:
I ( X ;Y ) 0
3 非负性
I ( X ;Y ) 0
n m
证明2:
p(ai ) p(b j ) I ( X ; Y ) p(ai b j ) log i 1 j 1 p(ai b j ) n m p (ai ) p (b j ) p(ai b j ) 1 log e i 1 j 1 p (ai b j )
同理X对Y的平均互信息定义为:
I (Y ; X ) p(ai b j )I (b j ; ai ) p(ai b j ) log
i, j i, j
(2.1.43)
p (b j | ai ) p (b j ) (2.1.44)
考虑到关系式
p(ai b j ) p(b j ) p(ai b j )
3、非负性:
I ( X ;Y ) 0
4、极值性
0 I ( X ;Y ) H ( X )
信息论第三讲-平均交互信息量的特性共49页
Hale Waihona Puke 1、最灵繁的人也看不见自己的背脊。——非洲 2、最困难的事情就是认识自己。——希腊 3、有勇气承担命运这才是英雄好汉。——黑塞 4、与肝胆人共事,无字句处读书。——周恩来 5、阅读使人充实,会谈使人敏捷,写作使人精确。——培根
信息论第三讲-平均交互 信息量的特性
6、纪律是自由的第一条件。——黑格 尔 7、纪律是集体的面貌,集体的声音, 集体的 动作, 集体的 表情, 集体的 信念。 ——马 卡连柯
8、我们现在必须完全保持党的纪律, 否则一 切都会 陷入污 泥中。 ——马 克思 9、学校没有纪律便如磨坊没有水。— —夸美 纽斯
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
当符号速率为n符号/秒时,其熵速率R为:
R=nI(X,Y)
R=n[H(X)-H(X/Y)]=n[H(Y)-H(Y/X)]
对于一个无噪声信道来说:
bit/s
R=nI(X,Y)=nH(X)
2013-12-20
bit/s
24
由于参数n与信道和信源无关,因此一 般在分析中可以表示为:n=1;即
15
可以进一步证明: 当信道一定时,I(X,Y)是信源先验概率的上 凸函数;这就是说,对于一定的信道转移概 率分布,总可以找到一个先验概率分布为
pm(xi)的信源X,使平均交互信息量达到相应
的最大值Imax ,这时称这个信源为该信道的
匹配信源。可以说不同的信道转移概率对应
不同的I。或者说Imax是P(Y/X)的函数。
2013-12-20 6
X和Y相互独立,交互性最小,
I(X,Y) =0;
X和Y完全相关,交互性最大,
I(X,Y) =H(X)=H(Y);
H(X/Y)=H(Y/X)=0,
相当于信道无信息损失。
2013-12-20 7
x1 x2 x3
1 1 1
y1 y2 y3
x1 x2 x3 x1 x2 x3
1 1 1 1 1 1
噪声熵:H(Y/X)
2013-12-20 2
2.5 平均交互信息量的特性
2.5.1 I(X,Y)的非负性 2.5.2 平均交互信息量的交互性
2.5.3 平均交互信息量的极值性
2.5.4 平均交互信息量的凸函数性 2.5.5 平均交互信息量的不增性
2013-12-20
3
2.5.1 I(X,Y)的非负性
2013-12-20
5
2.5.2 平均交互信息量的交互性
由于p(xi,yj)=p(yj,xi) 则:I(X,Y)=I(Y,X)(对于一个信息系统来说) 交互性表明在Y中含有关于X的信息,I(X,Y); 在X中含有关于Y的信息,I(Y,X);而且两者相 等。实际上I(X,Y)和I(Y,X)只是观察者的立足 点不同,对信道的输入X和输出Y的总体测度 的两种表达形式。
29
2.6.3 离散无噪声信道的信道容量
这里讨论三种无噪声信道的信道容量。
①具有一一对应关系的无噪声信道
其信道转移概率图及矩阵如下:
x1 x2 x3 x4 x5
2013-12-20
1 1 1
y1 y2 y3 y4 y5
定理: 对于所有满足p(x,y,z)>0的(x,y,z),
I ( X , Y ; Z ) I (Y ; Z )
当且仅当p(z/x,y)=p(z/y)时,等式成立。
这个关系就称为平均交互信息量的不增加性。
2013-12-20 22
2.6 离散信道的信道容量
Capacity of Discrete Memoryless Channel 信道容量是表征信道最大传信能力的信道参量。
i 1 j 1 n m
H (Y / X ) p( yj ) p( xi / yj ) log p( xi / yj ) 0
所以有:I(X,Y)=I(Y,X)=H(X)=H(Y)
2013-12-20
9
2.5.3 平均交互信息量的极值性
平均交互信息量I(X,Y)不可能超过信源熵H(X),
Y P(X/Y)
H(X/Y)
27
2.6.2 信道容量的计算方法
信道容量是在一定的信道条件下,对所有可 能的先验概率求平均交互信息量的最大值。 作辅助函数
F [ p( x1), p( x 2),... p( xn )] I ( X , Y ) p( xi )
i 1 n
求辅助函数对p(xi)的偏导置为0,得下列方程组。
=∑p(xi){-[plogp+(1-p)log(1-p)]} =H(p)
其中:记H(p)= -[plogp+(1-p)log(1-p)] 另外:为了求H(Y), 利用p(yj)= ∑p(xi)p(yj/xi);可得:
p(y=0)=ω(1-p)+(1-ω)p p(y=1)=ωp+(1-ω)(1-p)
Discrete Memoryless Channel-DMC
离散无记忆信道;
Binary Symmetric Channel-BSC
二元对称信道;
2013-12-20
23
2.6.1 熵速率与信道容量
平均交互信息量I(X,Y)是通信系统{X, P(Y/X), Y}
输出一个符号传输的信息量,也就是接收熵,熵就
F p( xi ) 0 n p( xi ) 1 i 1
2013-12-20 28
由此方程组可以解得使I(X,Y)达到最大值的信源先 验概率分布和待定系数λ ,然后求出信道容量C。
C log 2
j 1
m
j
j C log p( yj )
( j 1,2,... m)
由这个C值,根据上面关系求p(yj),再由p(yj) 和 p(yj/xi)求信源先验概率分布p(xi)。解这个方程组后 就可以得到最佳信源先验概率分布。
p( yj )
2013-12-20
p( xi ) p( yj / xi )
i 1
n
( j 1,2,... m)
2013-12-20 20
[ 例 2-12] : I(X,Y)=H(ω(1-p)+(1-ω)p)-H(p) , 当固定信源先验概率分布ω时,I(X,Y)是信 道转移概率p的下凸函数,如图所示。
I(X,Y)
H(ω) )
0
2013-12-20
1/2
1
p
21
串联信道关系(练习)
X Y Z
DMC1
DMC2
y1 y2 y3 y1 y2 y3
x1 x2 x3
1 1 1
y1 y2 y3
这种信道的特点是: n=m,每行只有一个元素为1,每列只有一个元素 为1。其转移概率不为1,就为0。
2013-12-20 8
这时有:
H ( X / Y ) p( xi ) p( yj / xi ) log p( yj / xi ) 0
Jensen不等式: 如果f(x)是严格的上凸函数, 则E(f(x))≤f(E(x))。 由,当x为大于0的实数时,底大于1的对数 logx是x的严格上凸函数。因此
f{∑pixi}≥∑pif(xi),
如f(x)=logx,则有:
log{∑pixi}≥∑pilogxi
2013-12-20 4
根据这个关系,考虑平均交互信息量, I(X,Y)= ∑∑p(xi,yj)log[p(xi,yj)/p(xi)p(yj)] 则: -I(X,Y)= ∑∑p(xi,yj)log[p(xi)p(yj)/p(xi,yj)] ≤log∑∑p(xi,yj)[p(xi)p(yj)/p(xi,yj)] =log{∑p(xi) ∑p(yj)}=0 所以有:I(X,Y) ≥0
2013-12-20 14
2.5.4 平均交互信息量的凸函数性
平均交互信息量是先验概率p(xi)和信道转移概 率p(yj/xi)的函数,可以记为:
I(X,Y)=I[p(xi),p(yj/xi)]
也就是说:
信道固定,I(X,Y)是先验概率的函数; 信源固定,I(X,Y)是信道转移概率的函数。
2013-12-20
C max{nI ( X , Y )} max{n[ H ( X ) H ( X / Y )]}
P( X ) P( X )
信道容量 C 与信源无关,只是信道转移概率的 函数,不同的信道就有不同的信道容量。它反 映了信道本身的传信能力。
X P(X) H(X)
2013-12-20
P(Y/X)
2013-12-20 16
[例2-11] 设二元对称信道的信源空间为:
X={0,1}; [P(X)]={ω, 1-ω};
平均交互信息量为:I(X,Y)=H(Y)-H(Y/X);
信道转移概率如图。
0 p 1
2013-12-20
1-p p
0
1-p
1
17
H(Y/X)=-∑∑p(xi)p(yj/xi)logp(yj/xi)
R=I(X,Y)
=[H(X)-H(X/Y)]=[H(Y)-H(Y/X)]
熵速率R是先验概率的函数,也是信道
转移概率的函数。
2013-12-20 25
信道容量是在给定信道条件下(即一定
的信道转移概率),对于所有可能的信 源先验概率的最大熵速率。它表示为:
C max R
P( X )
2013-12-20 26
则:
H(Y)=H(ω(1-p)+(1-ω)p)
2013-12-20 18
可得平均交互信息量为:
I(X,Y)=H(ω(1-p)+(1-ω)p)-H(p) 可知,当p值一定,I(X,Y)是ω 的上凸函数,
I(X,Y)
1-H(p)
0
2013-12-20
1/2
1
ω
19
当信源一定时,平均交互信息量I(X,Y)是信 道转移概率的下凸函数; 这就是说,对于一个已知先验概率为P(X) 的离散信源,总可以找到一个转移概率分 布为Pm(Y/X)的信道,使平均交互信息量达 到相应的最小值Imin 。可以说不同的信源 先验概率对应不同的Imin 。或者说Imin 是 P(X)的函数。即平均交互信息量的最小值 是体现了信源本身的特性。
因为H(X/Y) ≥0
所以有I(X,Y)=H(X)-H(X/Y)≤H(X)
因为H(Y/X) ≥0
所以有I(X,Y)=H(Y)-H(Y/X)≤H(Y)