第三章 信源熵(3)

合集下载

信源熵

信源熵

I ( y j ) I ( y j | xi ) I ( y j )
19
条件互信息量
条件互信息量: 在给定 zk 的条件下,xi 与 y j 之间的互信
I ( xi ; y j ) 0 后验概率 先验概率,X 与 Y 统计独立
I ( xi ; y j ) 0 后验概率 先验概率:由于信道受到干扰, 信宿收到 y j 后不但未使 xi 的不确定度 减少,反而增大了 xi 的不确定度 两个消息之间的互信息不大于其中任一消息的自信息 I ( xi ; y j ) I ( xi ) I ( x i | y j ) I ( x i )
符号从平均意义上表征信源总体特性的一个量对于特定的信源其熵只有一个1log?niiipxpx????1logniiipxpx????信息熵的物理含义信源输出前表征信源的平均不确定度信源输出后表征信源发出的每个消息所能提供的平均信息量是一个统计量反映了随机变量x的随机性22统计热力学中熵是表示分子混乱程度的一个物理量在孤立系统中进行的自发过程总是沿着熵增加的方向进行它是不可逆的平衡态相应于熵取最大值的状态即熵增加原理香农借用热力学中熵来描述信源的平均不确定度在信息论中有用的信息熵只会减少不会增加所以信息熵也被称为负热熵ijxyxy
2
信源的分类
信源输出以符号形式出现的具体消息,其分类如下: 按发送消息的时间和取值空间的分布 离散信源 单符号离散信源 连续信源 信源发出的 按发出符号之间的关系 消息是离散的、 无记忆信源 有限的或无限可 列的符号,且一 有记忆信源 个符号代表一条 按发送一条消息所需要的符号数 完整的消息 单个符号信源 符号序列信源
三种表达形式等效
log log p( x i y j ) p( x i ) p( y j ) p( y j | x i ) p( y j )

第三章 信道与信道容量 习题解答

第三章 信道与信道容量 习题解答

6
由于二元信源,等概率分布,信道对称,满足山农的理想观察者原理的三个假设条件,因此计算疑义度: 比特/消息
接收熵速率:
比特/秒
而系统要求的传信率为:
比特/秒,大于 1289比特/秒,故 10秒内无法无失真传递完。
11.已知一个平均功率受限的连续信号,通过带宽
的高斯白噪声信道,试求
(1) 若信噪比为 10,信道容量为多少?
(2) 若要保持信道容量不变,信噪比降为 5,信道带宽应为多少?
(3) 若要保持信道容量不变,信道带宽降为 0.5MHz,信号的功率信噪比应为多少?
(4) 其中有什么规律可总结?
解:根据香农公式:
(1) 信噪比为 10倍,信道容量: (2) 信噪比为 5倍,信道带宽:
比特/秒
(3) 信道带宽为 0.5MHz,信号的功率信噪比:
(2)信源熵速率: 接收熵速率: (3)一消息共有 4000个二元符号,该消息的信息量: 无失真地传递完该消息所需的时间:
10.有一个二元对称信道,其信道矩阵为
,设该信源以 1500符号/秒的速度传输输入符号。现
有一消息序列共有 14000个二元符号,并设其符号等概分布,问从信息传输的角度来考虑,10秒钟内能否 将这消息序列无失真地传递完? 解:根据信道转移矩阵画出下图:

时,根据

得:
作业:1、3(2)、6、7(1)、8、9或 10、11、13、15、16(1)
mW/Hz、限频 、限输入
9
解:设将电阻按阻值分类看成概率空间 X:

按功耗分类看成概率空间 Y:
已知:

通过计算
, ,


通过测量阻值获得的关于瓦数的平均信息量:

信息论讲义-第三章(8讲)

信息论讲义-第三章(8讲)

2006-11-61信息理论基础第8讲北京航空航天大学201教研室陈杰2006-11-62当前状态u l =(a l1, a l2, a l3, …, a lm )当前输出X l =a l1.信源状态S={S 1, S 2 ,…S J }, J =q m⎧⎪⎪⎨⎪⎪⎩()12|m q i j S S S p S S ⎡⎤⎢⎥⎢⎥⎣⎦()112|m mi i i i p a a a a + 状态转移概率p (S i |S j )由条件符号概率确定u lu l+1X l =a l新状态u l+1=(a l2, a l3, …, a lm ,a l )2.状态空间2006-11-633.极限熵当时间足够长时,遍历的m 阶马尔可夫信源可视为平稳信源()121lim |N N N H H X X X X ∞−→∞= ()112|m m H X X X X += 1m H +=()()|jj j s p S H X S =∑H (X|S j )是信源处于状态S j 时的条件熵()()()||log |jj i j i j S H X S p a S p a S =∑()()|log |ji j i j S p S S p S S =∑2006-11-64例3.7一阶马尔可夫信源的状态如例题图所示,信源X 的符号集为{0,1,2}。

(1)求平稳后的信源的概率分布;(2)求信源熵H ∞(3)求当p =0或p =1时信源的熵12pppppp2006-11-65解(1)状态转移矩阵令信源的平稳分布为则0 00 p p p p p p ⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦P []012 W W W =W 0011120121W pW pW W pW pW W W W =+⎧⎪=+⎨⎪++=⎩2006-11-66整理得,平稳后信源的概率分布(2)求信源熵H ∞。

根据平稳分布01213W W W ===()()jj k j s H p S H a S ∞=∑1113[lo g lo g ]3p p p p =×+11log logp p p p=+2006-11-67(3)p =0时p =1时∞→→=+=−=0311lim [loglog]lim ()log 0p p H p p ppp e∞→→=+=−=0311lim [loglog]lim ()log 0P P H p p ppp e3.5.3 马尔可夫信源解释:•信源熵表示的是信源的平均不确定性。

信源及信源熵介绍

信源及信源熵介绍
14
2.2.1 自信息量
2. 不确定度 定义:随机事件的不确定度在数量上等于它的 自信息量.
说明:
a. 两者的单位相同,但含义却不相同。 b. 具有某种概率分布的随机事件不管发生与否,都存在
不确定度,不确定度表征了该事件的特性,而自信息 量是在该事件发生后给予观察者的信息量。
15
2.2.1 自信息量
22
2) 因为X中各符号xi的不确定度I(xi)为非负值,p(xi)也 是非负值,且0 p(xi)1,故信源的平均不确定度H(X) 也是非负量。
3) 平均不确定度H(X)的定义公式与热力学中熵的表示形 式相同,所以又把H(X)称为信源X的熵。熵是在平均意 义上来表征信源的总体特性的,可以表征信源的平均不确 定度。
2
p(xi ) log 2 p(xi ) i 1
= 0.72比特/次 说明:
1) 自信息量I(x1)和I(x2)只是表征信源中各个 符号的不确定度,一个信源总是包含着多个符 号消息,各个符号消息又按概率空间的先验概 率分布,因而各个符号的自信息量就不同。所 以自信息量不能作为信源总体的信息量。
=3 × 105 × 3.32 比特/画面
25
有一篇千字文章,假定每字可从万字表中任选, 则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文 可提供的信息量为 H(X)=log2N =4 × 103 × 3.32
1.3 × 104 比特/千字文
离散消息的信源,如文字、数字、数据等符号都是
离散消息。
{ 离散信源
离散无记忆信源 离散有记忆信源
{ {
5
发出单个符号的无记忆信源 发出符号序列的无记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源

第三章连续信源的信息熵

第三章连续信源的信息熵
R
where, R is the domain of x . 为什么说相对熵反映连续变量的客观存在的平均不定度?首 先一个随机变量,当它的概率分布一旦确定,则它的不定性就该 给定,而不能随划分精度的变化而变化。第二,由于信息量的概 念是不定度的解除量,如果在相同划分精度下,再讨论两者之差 时,H()将会消失。所以我们可看到仅从Hc(X)上就可真正反映出 信息的全部属性 (包括非负性) 。因此,我们只要相对熵的定义就 足够了。同时我们也能给出两个连续变量的互信息问题:
H c ( X ) H c ( X Y ) H c (Y ) H c (Y X ) H c ( X ) H c (Y ) H c ( XY )
第三章. 连续信源的信息熵 §3. 3 相对熵的性质
( The Properties of Differential Entropy)
H c ( X ) H ()
def b
信息散度 D( p//q ) (relative entropy)
称为相对熵 Differential entropy 称为绝对熵 absolute entropy
where : and
H c ( X ) p ( x ) log p ( x )dx
a
H ( ) lim(log ) 0
n
def
§3. 2 连续变量的相对熵
在取极限的过程中由于n→∞ 相当于 →0,此时这个离散变 量越来越逼近一个连续变量;而离散集合中的信息熵Hn(X)就分解 为两项,其中一项与划分精度无关,趋于一个常量——Hc(X)。 而另一项,随着 →0最终趋于一个无穷大的量。很显然这与取极 限之前的离散熵差别很大,那么这种极限形式能否表达出信源平 均不定度的概念吗? 由于表达形式的不同,则它的物理意义也应有所不同。所以 我们不能以离散熵的概念来理解上述表达式,特别是当某些离散 熵的数学性质不在继续保持的情况下,如:非负性、对称性、扩 展性等。但值得庆幸,上式中将熵函数中最能反映信源的固有属 性的数学性质如可加性、极值性和上凸性仍旧依然保持着。因此 有可能上述表达式的某些部分仍能代表连续信源的某些物理属性。 (但我们要深入讨论离散向连续逼近时,物理属性的变化。)

二次扩展信源的熵

二次扩展信源的熵

二次扩展信源的熵:
H ( X ) H ( X ) p(i )log 2 p(i ) 3
2 i 1
9
2、离散平稳有记忆信源的概念及其信源熵

离散平稳有记忆信源:输出的符号序列是平稳随机序 列,并且符号之间是相关的,即不是统计独立的信源。 数学模型为:
X X1 X 2 X 3
例3.2
设有一离散无记忆信源X,其概率空间为 x1 x2 x3 X 1 1 1 P X 2 4 4 求该信源的熵率及二次扩展信源的熵。


注意:题目中的概率空间不是离散多符号无记忆信源 的概率空间,而是其对应的离散单符号信源的概率空 间。 该例题是对离散平稳无记忆信源求熵率的一个练习,
二次扩展信源的概率空间:
X 2 1 ( x1 x1 ) 2 ( x1 x2 ) 3 ( x1 x3 ) 4 ( x2 x1 ) 5 ( x2 x2 ) 2 1/ 8 1/ 8 1/ 8 1/16 P( X ) 1/ 4 6 ( x2 x3 ) 7 ( x3 x1 ) 8 ( x3 x2 ) 9 ( x3 x3 ) 1/16 1/ 8 1/16 1/16
X X1 X 2 X 3
离散单符号信源的 N 次平稳无记忆扩展信源( N 次无记忆扩展信源)

它是一种N 次扩展信源,其每次输出的是 N 长符号序 列,数学模型为 N 维离散随机变量序列(随机矢量)
X X1 X 2 X N
其中每个随机变量之间统计独立。由平稳性知,每个 随机变量统计特性相同,故该信源又可表示为:
比特/号
2) 如果不考虑符号间的相关性,则信源熵为
1 4 11 H ( X ) H ( , , ) 1.542 比特/符号 4 9 36

第三章离散信源及离散熵

第三章离散信源及离散熵

电子科技大学
H(X) = −∑p(xi )lbp(xi )
i =1
4
1 1 1 1 1 1 = − lb − lb − lb × 2 2 2 4 4 8 8
2011-3-13
1 1 1 1 1 1 = lb2 + lb4 + lb8 = + × 2 + × 3 2 4 4 2 4 4 bol = 1.75(bit / sym )
2011-3-13
1、离散平稳信源及其数学模型 对于多符号离散信源发出的符号序列 X1X2 L 如果任意两个不同时刻k …, 如果任意两个不同时刻k和l,k=1,2, …, l=1,2, …,其概率分布相同,即 …,其概率分布相同, P(Xk ) = P(Xl ) 则称该多符号离散信源为一维离散平稳 信源。 信源。
该信源的离散熵
2011-3-13
H(X1X2 ) = −∑p(ai )lbp(ai )
= −∑∑p(xi1 xi 2 )lbp(xi1 xi 2 )
i1 =1i 2 =1 n n n n
n2
电子科技大学
i =1
= −∑∑p(xi1 xi 2 )lbp(xi1 )p(xi 2 / xi1 )
i1 =1i 2 =1
电子科技大学
H(X) = −∑p(i)lbp(i)
i =1
6
1 1 bol = − lb × 6 = lb6 = 2.585(bit / sym ) 6 6
2011-3-13
例2,求某一天简单的天气气象这一信源 的离散熵。 的离散熵。 该信源的数学模型为: 解: 该信源的数学模型为:
) ) ) 雨 x1(晴 x2(阴 x3( ) x4(雪 X 1 1 1 P(X) = 1 2 4 8 8

信息熵的基本性质

信息熵的基本性质

pi pij log pi
pi pij log pij
i 1 j 1
i 1 j 1
nm
n
m
( pij ) pi log pi pi pij log pij
i1 j 1
i 1
j 1
n
n
m
pi log pi pi ( pij log pij )
电子信息工程学院
H ( p1, p2,, pq ) H ( p2, p3,, pq , p1) H ( pq , p1,, pq1)
电子信息工程学院
信息论
2.3 信息熵的基本性质
该性质表明:熵只与随机变量的总体结构有关,即与信源的总
体的统计特性有关。
X / 6
a3 1/ 2
,
Y P

a1 1/ 6
a2 1/ 2
a3 1/ 3
,
Z P

b1 1/ 3
b2 1/ 2
b3 1/ 6
差别:信源X与Y同一消息的概率不同,X与Z的具体信息不同,但 它们的信息熵相同,表示三个信源总的统计特性相同,它们的信 息数和总体结构是相同的。即:
该性质是非常明显的,因为随机变量X的所有取值的概率 分布满足0 pi 时 1,熵是正值的,只有当随机变量是确知量 时,其熵等于零。
这种非负性对于离散信源而言是正确的,但对于连续信源 来说这一性质就不一定存在。以后可以看到,在差熵的概 念下,可能出现负值。
电子信息工程学院
信息论
2.3 信息熵的基本性质
pi log
pi
0
。而其余分量
pi
0(i

j), lim p j 0

第3章_信源及信源熵_修改

第3章_信源及信源熵_修改

第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
4. 马尔可夫信源
(1) 定义 (2) 熵率
(3) 马尔可夫信源
(4) 马尔可夫链
马尔可夫链
第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
4. 马尔可夫信源(续1)
(1) 定义
实际的有记忆信源,符号间的相关性可以追溯到很远,使 得熵率的计算比较复杂。
离散多符号信源可以用随机矢量/随机变量序列来描述, 即

一般来说,信源的统计特性随着时间的推移而有所变化。 为了便于研究,我们常常假定在一个较短的时间段内, 信源是平稳信源。
第三章:信源及信源熵
信源分类
单符号信源
多符号信源 连续信源
1. 预备知识(续1)
定义1:对于离散随机变量序列 ,若任意两个不同 时刻i和j (大于1的任意整数) 信源发出消息的概率分布完全相 同,即对于任意的 , 和 具有相同的概率分布。也就是
怎样确定信源产生的信息量、产生信息的速率 √
信源编码
(第五章)
根据信源输出消息在时间和取值上是离散或连续分类:
时间 (空间) 离散 取值 信源种类 举例 消息的数学描述
离散
离散信源 (数字信源)
文字、数据 、 离散化图象
离散随机变量序列
离散 连续
连续 连续
连续信源 波形信源 (模拟信源) 语音、音乐 、热噪声、 图形、图象 不常见
第三章:信源及信源熵
一:信源的分类及其数学模型
1. 预备知识 二:离散单符号信源 2. 离散平稳无记忆信源 三:离散多符号信源 3. 离散平稳有记忆信源 4. 马尔可夫信源 5. 信源的相关性和剩余度

第三章 信源及信息熵

第三章  信源及信息熵
H
N


(X )
N
H (X1X 2 X
N
)
称为平均符号熵。如果当 N 时上式极限存在, 则 lim H ( X ) 称为熵率,或称为极限熵,记为
N N
def
H lim H
N
N
(X )
3.3.1
一般情况
离散平稳无记忆信源
数学模型
设一个离散无记忆信源为:
X a1 P p1 a2 p2 ... ... aq pn
19
解(1)因为信源是无记忆信源,所以符号的平均熵
H(X ) H( 1 4 3 4 ) 1 4 2 3 4
100 m
0.415 0.81bit / 符号
(2)某一特定序列(例如有m个0和100-m个1)出现的概率为
P( X ) P( X 1 , X 2 , X 100 ) P(0)

例:有一离散平稳无记忆信源 X
x1 1 p( x) 2
x2 1 4
x3 1 4
求:二次扩展信源的熵及其该信源的熵率。
X2信源 的元素 对应的 消息序列 概率p(ai)
a1 x1x1
1/4
a2 x 1x2
1/8
a3 x1x3
1/8
a4 x2x1
1/8
i 1 3
H lim H N ( ) lim
N
1 N
N
NH ( X ) 1.5bit / 符号
例题



某一无记忆信源的符号集{0,1},已知 p(0)=1/4,p(1)=3/4. (1)求符号的平均熵; (2)由100个符号构成的序列,求某一 特定序列(例如有m个0和100-m个1) 的自信息量的表达式; (3)计算(2)中的序列的熵

第三章 信源及信源熵

第三章 信源及信源熵

3.3.1 离散平稳信源
P(Xi) P(Xj )
推论1
P(Xi Xi1) P(Xj Xj1)
PXi1Xi PXj1Xj P(Xi Xi1
XiN) P(Xj Xj1
XjN )
PX XX X iN i i1
iN1
PXjNXjXj1 XjN1
离散平稳信源的条件概率分布与时间起点无关,只与关联长度N有关。
第19页,共60页。
3.3.2 离散平稳无记忆信源
熵率
H lN iH m NX lN iN 1 m NX H H X
离散平稳无记忆信源的熵率等于单符号离散信源熵。
例1
离散无记忆信源为:X:{a1,a2,a3};P(X):{1/4, 1/2, 1/4},试求:
12))该写信出源该的信熵源;的二次H 扩(展X 信)源 ,1并.5 求b其it概率分布;
均为离散平稳 信源
中文自然语言文字
离散平稳信源又分为无记忆信源和有记忆信源。
第11页,共60页。
3.3 离散多符号信源
离散平稳无记忆信源 信源发出的各个符号彼此是统计独立的。 对于多符号信源X=(X1 X2 …XN),各随机变量Xi(i=1,2, …,N)之
间是统计独立的,即: 称该多符号信源为离散无记忆信源的N次扩展信源。
3)根据2)中结果求该信源二次扩展信源的信源熵及熵率。
第20页,共60页。
3.3.2 离散平稳无记忆信源
2)写出该信源的二次扩展信源,并求其概率分布;
解:
二次扩展信源为: 信源符号为:
X 2 :{A1…A9}
A1=a1a1 A4=a2a1 其概率分A布7=为a3:a1
A2=a1a2 A5=a2a2 A8=a3a2

信源熵的计算与理解习题3及详细解答

信源熵的计算与理解习题3及详细解答

习题3-1(情况二:认为事件“0/0”“1/1”不会出现;)
解:设X={S1=“0”, S2=“1”}, (1) Y={ t1=“0” , t2=“1”};
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号
序列熵: 而 即:
p(1) [a(1) d (1)] max [a(1) d min] max
由于 t (1) [a(1) d min],
(6 8) (6 8)
且d (1) a(1) t (1)为确定值
H ( X Y ) H ( X ) H (Y / X )
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
n 2 m2 i 1 j 1 n 2 m2 i 1 j 1
H (Y / X ) rij log2 (rij / p(s i )) rij log2 Pij
即:
[r11log2 P 11 r12 log2 P 21 r 21log2 P 12 r 22 log2 P 22 ]
信源熵的计算与理解习题3及详细解答
公式:
习题3-1(?)
解:设X={S1=“0”, S2=“1”}, Y={ t1=“0” , t2=“1”};
(1)
H ( X ) H (Y ) [0.8 log2 0.8 0.2 log2 0.2] 0.72bit / 符号

信源及信源熵课件

信源及信源熵课件
编码是将信息从一种 形式或格式转换为另 一种形式的过程。
编码的方式和格式取 决于应用场景和需求 。
编码的目的是为了便 于信息的存储、传输 和处理。
信源编码的原理
信源编码是对信源输出的符号或数据 进行压缩编码,以减少存储空间和传 输带宽。
信源编码的目标是在保证信息无损的 前提下,尽可能地减小编码后的数据 量。
差分编码
02
通过消除信号中的冗余信息,降低信号的复杂性,提高信号传
输的效率和可靠性。
深度学习在信源编码中的应用
03
利用深度学习算法对信源进行自动编码,提高编码的自适应性
和智能化水平。
信源熵的新应用
信息隐藏
利用信源熵将秘密信息隐 藏在普通数据中,实现隐 蔽通信和数据保护。
数据加密
通过改变数据熵值,增加 数据破解的难度,保护数 据的机密性和完整性。
LZ77编码
基于字典的压缩算法,通过查找已输出的字符串在字典中的匹配项, 替换为较短的指针,实现数据压缩。
BWT编码
将信源输出按字节进行排序并连接成一个字符序列,通过游程编码和 差分编码等技术实现数据压缩。
04
信源的应用
在通信系统中的应用
信源编码
通过将信源输出的消息转换为二进制 或其它形式的数字信号,实现数字通 信,提高通信系统的传输效率和可靠 性。
信源编码的原理基于信息论和概率统 计的知识,通过对信源输出的概率分 布进行分析,采用适当的编码方式实 现数据压缩。
常见信源编码方式
Huffman编码
基于信源符号出现概率的编码方式,通过为出现概率高的符号分配较 短的码字,实现数据压缩。
算术编码
将信源输出区间划分为若干个子区间,每个子区间对应一个符号,通 过小数形式的码字表示输出区间的范围,实现高压缩比。

信息导论-第6讲-信源熵

信息导论-第6讲-信源熵

信源熵的度量
03
熵的离散型度量
离散型熵
离散型熵是用于度量离散随机变量不确定性的量,其定义基于概率分布。对于一个离散随机变量X,其熵H(X)定 义为H(X)=−∑p(x)log⁡p(x)text{H}(X) = -sum p(x) log p(x)H(X)=−∑p(x)logp(x),其中p(x)是随机变量取某个值 的概率。
深入研究信源熵与信息论其他概念,如互信息、相对熵等之间的联系,有助于更全面地 理解信息传递的本质。
扩展信源熵到多维和连续变量
目前信源熵主要应用于离散随机变量,未来研究可以探索将其扩展到多维和连续变量的 情况,以更好地描述复杂数据。
信源熵的量子化研究
随着量子信息理论的不断发展,探索信源熵在量子领域的表现和性质,有望为信息理论 带来新的突破。
条件熵
条件熵是在给定某个条件随机变量下,另一个随机变量的熵。条件熵H(X∣Y)表示在已知Y的条件下,X的不确定 性。
熵的连续型度量
连续型熵
对于连续随机变量,其熵的度量方式 略有不同。连续型熵通常使用概率密 度函数来定义,并涉及到积分运算。
条件连续型熵
与离散型条件熵类似,连续型条件熵 表示在给定某个连续随机变量条件下 ,另一个连续随机变量的不确定性。
03
通过信源熵的分析,可以帮助决策者更好地理解和 评估决策的风险,从而做出更明智的决策。
信源熵与其他信息论
05
概念的关联
与互信息的关系
互信息
互信息是描述两个随机变量之间相互依赖程度的概念,它表示一个随机变量中包含的关 于另一个随机变量的信息量。在信息论中,互信息用于度量两个信源之间的相互依赖程
度。
熵的极限性质
熵函数的连续性

信息论离散信源的熵

信息论离散信源的熵
j 1
(i 1,2,...n)
2020/3/20
26
⑵转移矩阵描述
矩阵[P]称为转移矩阵或信道矩阵;表示为:
y1
y2
x1 p(y1/x1) p(y2/x1)…
… [P]= x2 p(y1/x2) p(y2/x2)
……


xn p(y1/xn) p(y2/xn) …

ym p(ym/x1) p(ym/x2) … p(ym/xn)
⑵离散信源空间:
信源的符号(状态)随机地取值于一个离散
集 合 [X]= ( x1,x2,…xn ) 中 , 一 个 离 散 信 源
可以用一个离散随机变量的概率空间表示。
[P]=(p1,p2,…pn) 这种表示称为离散无记忆信源的信源空间。
信源空间必为一个完备空间, n
即其概率和为1。
pi 1
i1
i 1
n
n
pi log pi [ pi 1]
i 1
i 1
2020/3/20
13
Hmax(X)=H(1/n, 1/n,……,1/n)=logn
这个结果称为离散信源得最大熵定理。它 表明,在所有符号数相同,而概率分布不 同的离散信源中,当先验概率相等时得到 的熵最大。最大熵的值取决于符号状态数 ,状态数越多,熵越大。
当X,Y独立时,有p(x,y)=p(x)p(y)。
m
m
p( xi ) p( xi , y j ) p( y j ) p( xi / y j )
j 1
j 1
n
n
p( y j ) p( xi , y j ) p( xi ) p( y j / xi )
i1
i1
nm

第三章4连续信源及信源熵

第三章4连续信源及信源熵

(1) 均匀分布的连续信源的熵
一维连续随机变量X在[a,b]区间内均匀分布 时的熵为 Hc(X)=log2(b-a)
若N维矢量X=(X1X2…XN)中各分量彼此统计独 立,且分别在[a1,b1][a2,b2] …[aN,bN]的区域内 均匀分布,即
1
N
p(x)
(N
x (bi ai ) i 1
若一维随机变量X的取值区间是[0,∞),其概 率密度函数为
p(x)
1 m
e
x m
(x 0) m是X的均值
E[X ] m
xp(x)dx
0
0
x
1 m
e
x m
dx
m
指数分布连续信源的熵为
Hc ( X ) 0 p(x) log2 p(x)dx
0
p(x) log2
1 m
e
x m
dx
随机变量X的方差E[( X m)2 ] E[ X 2 ] m2 P2 m2 2
当均值m 0时,平均功率P 2
对平均功率和均值的限制就等于对方差的限制;
把平均功率受限的问题变成方差受限的问题来讨 论;
把平均功率受限当成是m=0情况下,方差受限的 特例。
定义高斯分布的连续信源的熵记为Hc[p(x),X] 定义任意分布的连续信源的熵记为Hc[q(x),X] 已知Hc[p(x),X]=(1/2)log2(2πeσσ) 任意分布的连续信源的熵为
Hc (XY ) p(xy) log2 p(xy)dxdy R2
两个连续变量的条件熵
Hc (Y / X ) p(xy) log2 p( y / x)dxdy R2
Hc (X / Y ) p(xy) log2 p(x / y)dxdy R2

第三章 信道与信道容量 习题解答

第三章 信道与信道容量 习题解答
但与理论不矛盾因为信息速率不光与信源熵有关还与每秒发送的符号数有关该信源的两个消息是非同价代码每个码元消息的时间长度不同等概率时信源熵提高了但每秒发送的符号数下降了因此才有此结果
第三章 信道与信道容量 习题解答
1.设信源
通过一干扰信道,接收符号为
信道传递矩阵为
(1) 信源 中符号 和 分别含有的自信息量。
(4)说明如果信噪比降低,则为保持信道容量不变,必须加大信道带宽。反之加大信道带宽,则可降低对信 噪比的要求。如果信道带宽降低,则为保持信道容量不变,必须加大信号功率信噪比。反之加大信号功率信 噪比,则可降低对信道带宽的要求。
12.在一个理想通信系统中,已知信道中功率信噪比为 10分贝,为了使功率节省一半又不损失信息量,有 几种办法?请计算并讨论各自的优缺点。

将各数据代入: 解得:
如果

将各数据代入: 解得:
14.在理想系统中,若信道带宽与消息带宽的比为 10,当接收机输入端功率信噪比分别为 0.1和 10时,试
比较输出端功率信噪比的改善程度,并说明

之间是否存在阀值效应。
解:已知
根据公式:
前者改善不明显,后者改善明显,故存在阀值效应。 15.设加性高斯白噪声信道中,信道带宽 3kHz,又设
解:设将电阻按阻值分类看成概率空间 X:

按功耗分类看成概率空间 Y:
已知:

通过计算
, ,


通过测量阻值获得的关于瓦数的平均信息量:
6.有一以“点”和“划”构成的老式电报系统,“点”的长度为 30毫秒,“划”的长度为 150毫秒,“点”和“划”出现的
4
概率分别为 0.8和 0.2,试求信息速率为多少?“点”、“划”出现的概率相等时,信息速率为多少?是否“点”、“划” 出现的概率相等时信息速率一定最高?是否和理论相矛盾?为什么? 解:

(完整版)信息论基础与编码课后题答案(第三章)

(完整版)信息论基础与编码课后题答案(第三章)

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为51661344P ⎡⎤⎢⎥=⎢⎥⎢⎥⎢⎥⎣⎦,求: (1) 信源X 中事件1x 和2x 分别含有的自信息量;(2) 收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5) 接收到消息Y 后获得的平均互信息量(;)I X Y 。

解:(1)12()0.737,() 1.322I x bit I x bit ==(2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-,22(;)0.907I x y bit =(3)()(0.6,0.4)0.971/H X H bit symbol ==()(0.6,0.4)0.971/H Y H bit symbol ==(4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol ==(/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol =(5)(;)0.9710.7140.257/I X Y bit symbol =-=3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。

该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。

验证在该信道上每个字母传输的平均信息量为0.21比特。

证明:信道传输矩阵为:11112666111162661111662611116662P ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦,信源信宿概率分布为:1111()(){,,,}4444P X P Y ==, H(Y/X)=1.79(bit/符号),I(X;Y)=H(Y)- H(Y/X)=2-1.79=0.21(bit/符号)3-3 已知信源X 包含两种消息:12,x x ,且12()() 1/2P x P x ==,信道是有扰的,信宿收到的消息集合Y 包含12,y y 。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1 0.71
这说明,写英语文章时,71%是由语言结构定好 的,是多余成分,只有29%是写文章的人可以自 由选择的。直观的说,100页英文书,理论上看 仅有29页是有效的,其余71页可以压缩掉,这压 缩掉的文字可以根据英文的统计特性来恢复。 信源的冗余度表示信源的可压缩程度。
从提高信息传输效率的观点出发,人们总是 希望尽量去掉剩余度。比如发电报,我们都知道 尽可能把电文写的简洁些以去除相关性。但冗余 度大的消息具有比较强的抗干扰性。从我们的第 五章开始,将讨论信源编码和信道编码,信源编 码是减少或消除信源的剩余度以提高信息的传输 效率,而信道编码则通过增加冗余度来提高消息 传输的抗干扰能力。
例3
一阶马尔可夫信源的状态图如下图所示。信源X的 符号集为{0, 1, 2}。 (1) 求平稳后信源的概率分布; (2) 求信源的熵H∞。 (3)求当P=0或P=1时信源的熵 ,并说明理由
P 0 P P P 2 P P
1
3.7 信源剩余度与自然语言的熵
1、关于离散信源熵的总结: 实际信源可能是非平稳的有记忆随机序列信源; 其极限熵是不一定存在的;解决的方法是假设其为离 散平稳随机序列信源,极限熵存在,但求解困难;进 一步假设其为m阶Markov信源,用其m阶条件熵近 似;再进一步假设为一阶Markov信源,用其一阶条 件熵来近似;最简化的信源是离散无记忆信源,其熵 为H(x);最后还可以假定为等概的离散无记忆信源, 其熵H(x); 它们之间的关系可以表示为:
H0 X log2 27 4.76
Bit/符号
但实际上,用英文字母组成单词,再由单词 组成句子时,英文字母并不是等概率出现, 此时有:
1 H1 pi log 4.03 pi i 1
27
Bit/符号 Bit/符号 Bit/符号
H 2 3.32 H 3 3.1
因此,在信源所输出的序列中依赖关系越复杂, 信息熵就越小。实际上,英文信源的信息熵还 要小得多,一般认为 H 。因此,信息效 1.4 率和冗余度为:
(不依赖于i ) n 1 2 2 1 n 或 P ( n) P ( n ) 1 2 则称此链具有遍历性.
j
lim Pij ( n) j
j j j
qm i 1 im1 1

i
q
p( si ) p ( xim1 | si ) log p( xim1 | si )
p ( si ) H ( X | si ) p ( si ) p ( s j | si ) log p ( s j | si )
i j
例3 求例2中的二阶马尔可夫信源的极限熵。 解:这4种状态是不可约的非周期长返态,因 此是遍历的。 设状态的平稳分布为(w1,w2,w3,w4),根据马 尔可夫链遍历的充分条件:WP=W,得
1 2 m
,从而得到
s1 si s q m p( s j | si )
状态空间由所有状态及状态间的状态转移概率组成。 通过引入状态转移概率,可以将对马尔可夫信源的研究转 化为对马尔可夫链的研究。
下面计算遍历的m阶马尔可夫信源的熵率。 当时间足够长后,遍历的马尔可夫信源可 以视作平稳信源来处理,又因为m阶马尔可 夫信源发出的符号只与最近的m个符号有关, H 所以极限熵 等于条件熵 。 H m1
第三章 信源及信源熵(3)
上节课回顾
马尔可夫链基础知识 什么是马尔可夫链? 转移概率---转移概率矩阵 平稳性 遍历性
马尔可夫链的定义
时间和状态都是离散的马尔可夫过程称为马尔
可夫链, 简记为 { X n X ( n), n 0,1,2,}.
转移概率
称条件概率 Pij (m, m n) P{ X m n a j | X m ai }
i
符号的平稳概率分布为:
p 0 0.8 p s1 0.5 p s2 0.5 p s3 0.2 p s4 0.5 p 1 0.2 p s1 0.5 p s2 0.5 p s3 0.8 p s4 0.5
为了更经济有效的传送信息,需要尽 量压缩信源的剩余度,压缩剩余度的方法 是尽量减小符号间的相关性,并且尽可能 的使信源输出消息等概率分布。
当冗余度=0时,信源的熵=极大熵 H 0 ,表明 信源符号之间:(1)统计独立无记忆;(2)各符号 等概分布。因此,冗余度可衡量信源输出的符 号序列中各符号之间的依赖程度。 例:以符号是英文字母的信源为例,英文字母加 上空格共有27个,则最大熵为
3、信源剩余度
H 1 1 H0
信源的剩余度来自两个方面:一是信源符号间的 相关性,相关程度越大,符号间的依赖关系越长, H 信源的 越小;另一方面是信源输出消息的不 等概分布使信源的 H减小。当信源输出符号间 不存在相关性并且输出消息为等概分布时信源的 H0 最大,等于 。对于一般平稳信源来说,其极 H H 限熵 远小于 。 H 0
H =H m 1 H3
i
Wi H X | si 5 1 1 5 H 0.8,0.2 H 0.5,0.5 H 0.5,0.5 H 0.8,0.2 14 7 7 14 0.8 比特/符号
p ak p si p ak | si
H m 1 H 2 ( x2 x ) 1
log q
log q H0 ( x) H1 ( x) H11 ( x) H 21 ( x) H m1 ( x) H
2、熵的相对率(一个信源的熵率与具有相同符号 集的最大熵的比值)
H H0
H 0 log q
对于一般的 m 阶马尔可夫信源,它的概率空间可以表 示成:
X x1 xi xq p( x | x x x ) im1 i1 i2 im P X
令 si xi xi xi , i1, i2 ,, im 1, 2, , q 马尔可夫信源的状态空间:

马尔可夫信源
例1 设一个二元一阶的马尔可夫信源,信源符号集为 x={0,1},信源输出符号的条件概率为:
p(0|0)=0.25, p(0|1)=0.5, p(1|0)=0.75, p(1|1)=0.5
求状态转移概率
例2:二阶马尔可夫信源,原始符号集为{1,0}, 条件概率定为:P(0|00)=P(1|11)=0.8 P(1|00)=P(0|11)=0.2 P(0|01)=P(0|10)=P(1|01)=P(1|10)=0.5
0.8 W1 +0.5 W3 = W1 0.2 W +0.5 W = W 1 3 2 0.5 W2 +0.2 W4 = W3 0.5 W +0.8 W = W 2 4 4 W1 +W2 +W3 +W4 =1
求出
W1 =W4 =
5 1 ,W2 =W3 = 14 7
所以,
由此可见,信源共有2^2=4种状态 S:{S1=00,S2=01,S3=10,S4=11}
0:0.8 1:0.2 01 1:0.5
00
0:0.5 1:0.5 11 1:0.8
0:0.5 10 0:0.2
由上例可知,m阶马尔可夫信源符号集共有q个符号, 则信源共有 m 个不同状态。信源在某一时刻时,必然处于 q 某一种状态,等到下一个字符输出时,转移到另外一个状态。
若 j 1, 则称 ( 1 , 2 ,)为链的极限分布 .
本节课内容
马尔科夫信源 信源的相关性和剩余度
3.6
马尔可夫信源
马尔可夫信源是一类相对简单的有记 忆信源,信源在某一时刻发出某一符号 的概率除与该符号有关外,只与此前发 出的有限个符号有关。因此我们把前面 若干个符号看作一个状态,可以认为信 源在某一时刻发出某一符号的概率除了 与该符号有关外,只与该时刻信源所处 的状态有关,而与过去的状态无关。信 源发出一个符号后,信源所处的状态即 发生改变,这些状态的变化组成了马氏 链。
对于齐次遍历的马尔可夫链,其状态 si 由 xi xi xi 唯一确定,所以
1 2 m
p(s j | si ) p( xim1 | xi1 xi2 xim ) p( xim1 | si )
H m 1 H ( X m 1 | X 1 X 2 X m ) E p( xim1 | xi1 xi2 xim ) E p( xim1 | si )
为马氏链在时刻 处于状态ai条件下, 在时刻 m n m
转移到状态a j的转移概率.
平稳性
当转移概率 Pij ( m , m n) 只与 i , j 及时间间距 n
有关时, 称转移概率具有平稳性.
同时也称此链是齐次的或时齐的.
遍历性 定义 设齐次马氏链的状态空 间为 I , 若对于所有
的ai , a j I , 转移概率Pij ( n)存在极限
相关文档
最新文档