通信原理第三章-离散信源及信息测度
离散信源及其信息测度PPT优秀版
![离散信源及其信息测度PPT优秀版](https://img.taocdn.com/s3/m/f4623385caaedd3382c4d3c9.png)
2.3 信息熵的基本性质
u H(X) 表示以离散随机变量X描述的信 源的信息熵。
u H(P) 或H(p1, p2,…,pq) 表示概率矢量 为P = (p1, p2,…,pq) 的q个消息信源的 信息熵。
2.3 信息熵的基本性质
u 对称性 u 确定性 u 非负性 u 扩展性 u 可加性 u 强可加性 u 递增性 u 极值性 u 上凸性
统计独立信源X和Y的联合信源的熵等于分别熵之和。
如这果性对 质任表其意明取,中出若a来原i的信代功源表率X(值阻n进个行值符事号为先的猜概i的测率,分电那布么为阻可p1,以,看. P成(是另a一i)概率是空选间。取出阻值为i电阻的概率。为
可加性是简强可便加起性的见特殊,情假况。设电阻选取的概率是相等的,则
b1 1
m
b2 1
m
... bm
...
1 m
2.3 信息熵的基本性质
——可加性
设在第三个布袋中,放入有n种不同阻值,而每一种阻值又有m种不同功率的电 阻,即有m×n个电阻,并设它们的选取也是等可能性的。
它们的联合信源是
PZ(z)nc11m
c2 ... 1 ... nm
m 1 nm
可计算得联合信源的联合熵
信信息息熵熵,的的基基并本本对性性质质取出的电阻值进行事先猜测,其猜测的困难程度相当于概率空
在离散信间源情的况不下,确信源定各性符号。等概甲率布分布袋时,的熵值概最率大。空间为
3 信息熵的基本性质
3 信息熵的基本性质
——这3 ——表信递 递明息增 增,熵性性当的X基和本Y统性计质独立时,联合P 信X (源xX)Y的联合熵P 等(a 于a 1分1)别信源P X(a 和a 2 信2源)Y各..自..熵之..P 和。(aa nn)
信息论:第2章离散信源及其信息测度
![信息论:第2章离散信源及其信息测度](https://img.taocdn.com/s3/m/71adfc47be1e650e52ea99b2.png)
Copyright ©赵越 ise_zhaoy1@
概率
概率是事件发生可能性的数量指标。 即在多次重复后,某结果出现的比率。 1、古典型概率
定义1 若试验结果一共有n个基本事件组成,且这些事 件的出现具有相同的可能性,且事件A由其中某m个基 本事件组成,则事件A的概率为
有利于A的基本事件数 m P(A) = 试验的基本事件总数 n
联合概率p(xiyj) ——X 取值xi ,Y 取值yj同时成立的概率
条件概率p(yj/xi)——X 取值xi 条件下,Y 取值yj的概率 条件概率p(xi/yj)——Y 取值yj条件下,X取值xi的概率
15
Copyright ©赵越 ise_zhaoy1@
无条件概率、条件概率、联合概率满足下 面一些性质和关系:
信源分类有多种方法,根据信源输出的消息在时间和 取值上是离散或连续进行分类:
时间(空间) 取值 离散 离散 信源种类 离散信源 (数字信 源) 举例 文字、数据、 离散化图象 数学描述 离散随机变量序列
离散
连续
跳远比赛的结果、 连续随机变量序列 连续信号 语音信号抽样以 后 波形信源 (模拟信 源) 语音、音乐、热 噪声、图形、图 象 不常见 信源的分类
23
Copyright ©赵越 ise_zhaoy1@
例:掷一个六面均匀的骰子,每次出现朝上一面
的点数是随机的,以朝上一面的点数作为随机实 验的结果,并把实验结果看作一个信源的输出, 试建立数学模型。
24
Copyright ©赵越 ise_zhaoy1@
A:{1,2,3,4,5,6}——样本(状态)空间 离散随机变量X P:{p(X=1)=1/6,p(X=2)=1/6,…, p(X=6)= 1/6} 信源的数学模型:
信息论与编码基础第2章离散信源及其信息测度
![信息论与编码基础第2章离散信源及其信息测度](https://img.taocdn.com/s3/m/63b07b2901f69e3142329415.png)
故:
P1(Xi) = P2 (Xi)= ···= PN (Xi)
N
P( X ) P( X1, X 2, , X N ) P( X i ) i 1
2.1 信源的数学模型及分类
15
设各随机变量 Xi 取自同样符号集 A={a1, a2, …, aq},则:
N
P( X i ) P(ai1 , ai2 ,..., aiN ) P(aik ), ik {1, 2,..., q} k 1
... ...
aq P(aq )
q
P(ai ) 1
i 1
称事件ai发生所含有的信息量为 ai 的自信息量。定义为:
I (ai )
f [P(ai )] logr
1 P(ai )
logr
P(ai )
2.2 离散信源的信息熵
24
I(ai)代表两种含义:(1) 当事件ai 发生以前,表示事件ai 发生 的不确定性;(2) 当事件ai 发生以后,表示事件ai 所提供的信 息量。
1
信息论与编码基础
第二章 离散信源及其信息测度
第二章 离散信源及其信息测度
2
消息是信息的载荷者。对信息的研究,要从消息开始。 信源是产生消息或消息序列的源头。我们并不关心信源的内
部结构,不关心消息的产生原因和过程,而研究信源各种可 能的输出,以及输出各种可能消息的不确定性。 对收信者而言,在收到消息之前,对于信源发送什么消息是 不可预知的、随机的。因此可以用随机变量和随机过程来描 述信源输出的消息,或者说用一个概率空间来描述信源。 不同的信源输出不同类型的消息。可以根据消息不同的随机 性质来对信源进行分类。
qN
qN N
k 1
P(i ) P(aik ) 1
《通信原理》课后习题答案及每章总结(樊昌信,国防工业出版社,第五版)第一章
![《通信原理》课后习题答案及每章总结(樊昌信,国防工业出版社,第五版)第一章](https://img.taocdn.com/s3/m/b8de368e0408763231126edb6f1aff00bed570f8.png)
《通信原理》习题参考答案第一章1-1. 设英文字母E 出现的概率为0.105,x 出现的概率为0.002。
试求E 及x 的信息量。
解: )(25.3105.01)(log 2bit E I ==)(97.8002.01)(log 2bit X I == 题解:这里用的是信息量的定义公式)(1log x P I a =注:1、a 的取值:a =2时,信息量的单位为bita =e 时,信息量的单位为nita =10时,信息量的单位为哈特莱2、在一般的情况下,信息量都用bit 为单位,所以a =21-2. 某信息源的符号集由A ,B ,C ,D 和E 组成,设每一符号独立出现,其出现概率分别为1/4,1/8,1/8,3/16和5/16。
试求该信息源符号的平均信息量。
解:方法一:直接代入信源熵公式:)()()()()(E H D H C H B H A H H ++++=516165316163881881441log log log log log 22222++++=524.0453.083835.0++++= 符号)/(227.2bit =方法二:先求总的信息量I)()()()()(E I D I C I B I A I I ++++= 516316884log log log log log 22222++++= 678.1415.2332++++= )(093.12bit =所以平均信息量为:I/5=12.093/5=2.419 bit/符号题解:1、方法一中直接采用信源熵的形式求出,这种方法属于数理统计的方法求得平均值,得出结果的精度比较高,建议采用这种方法去计算2、方法二种采用先求总的信息量,在取平均值的方法求得,属于算术平均法求平均值,得出结果比较粗糙,精度不高,所以尽量不采取这种方法计算注:做题时请注意区分平均信息量和信息量的单位:平均信息量单位是bit/符号,表示平均每个符号所含的信息量,而信息量的单位是bit ,表示整个信息所含的信息量。
2离散信源及其信息测度
![2离散信源及其信息测度](https://img.taocdn.com/s3/m/f18f4d114431b90d6c85c793.png)
2.1 离散信源的数学模型 2.2 离散信源的信息熵 2.3 信息熵的基本性质 2.4 离散无记忆的扩展信源 2.5 离散平稳信源 2.6 马科夫信源
离散信源的数学模型(1)
研究对象是: 例如,掷一个质地均匀的六面骰子,如把 信源各种可能 朝上一面的点数作为作为随机试验结果, 的输出以及输 把试验结果看作信源的输出,那么这个随 出各种消息的 机试验可视为一个信源。信源的输出X的 不确定性。不 状态空间及其概率空间P(X)集合分别为 X A : 2 3 4 5 6 1 研究信源的内 部结构,不研 P( X ) P : / 6 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6 1 究信源为什么 所以,这个单符号离散信源的数 产生和如何产 学模型可表示为: 生各种不同的、 X 1 2 3 4 5 6 可能的消息。
I (ai ) logb 1 P( ai )
定义 2.1
自信息量的定义:某离散消息 a i 所携带的自信息量
I (ai ) logb 1 P( ai )
b=2 b=e
单位为比特(bit) 单位为奈特(nat——nature unit)
b=10 单位为哈特莱(Hart——Hartley)
自信息(4)
例 2.1 从英文字母中任意选取一个字母所给出的信息给出的信息是多少呢? 因为有 26 种可能情况,取任一字母的概率为 1/26,所以
I log 26 4.7(bit)
例 2.2 假设一条电线上串联了 8 个灯泡 x1 , x2 , x3, x4 , x5 , x6 , x7 , x8 ,这 8 个灯泡损坏的概率是 相同的,现假设有一个灯泡是坏的,现用万用表去检测,检测过程如下图所示
电子科技大学《移动通信原理》 第三章 移动通信中的信源编码和调制解调技术
![电子科技大学《移动通信原理》 第三章 移动通信中的信源编码和调制解调技术](https://img.taocdn.com/s3/m/01c564b51a37f111f1855bb0.png)
第三章 移动通信中的信源编码和调制解调技术
7
典型波形编码方式
PCM:Pulse-Code Modulation
2014年3月
1 1 1
* a1 a2
1 1 1
16
推广: b1 b2
2014年3月
第三章 移动通信中的信源编码和调制解调技术
数字调制器
exp j 2p f c t
二进制序列 比特变 符号
基带调 制
成形滤 波
si t
图3.3 数字调制器功能框图
2014年3月
各类二进制调制波形
14
数字调制技术分类
不恒定包络 ASK(幅移键控) QAM(正交幅度调制) MQAM(星座调制) FSK (频移键控) BFSK(二进制频移键控) MFSK(多进制频移键控) BPSK(二进制相移键控) DPSK(差分二进制相移键控) QPSK OQPSK(偏移QPSK) (正交四相 p/4QPSK 相移键控) DQPSK(差分QPSK) MSK(最小频移键控) GFSK(高斯滤波MSK) TFM(平滑调频)
对于M阶调制信号,有:
E s Eb log 2 M Eb log 2 M N0 N0 N0
2014年3月
第三章 移动通信中的信源编码和调制解调技术
18
频带利用率
也是带宽效率
每赫兹可用带宽可以传输的信息速率: R W b s Hz
R:为信息比特速率 R R log M s 2 W:信号所需带宽
信息论复习笔记
![信息论复习笔记](https://img.taocdn.com/s3/m/bdf49b4ef524ccbff02184d0.png)
信息论复习笔记(总23页) -本页仅作为预览文档封面,使用时请删除本页-1. 绪论信息论回答了通信的两个最基本问题:(1)数据压缩的极限;(2)信道传输速率的极限;信息、消息和信号消息:信息的載體(能被感知和理解、進行傳遞和獲取)信息:事物運動狀態或存在方式的不確定性的描述(香農)先驗概率:P(a i)自信息:I(a i)=log[P-1(a i)];(信息接收的不確定性)互信息:I(a i;b i)= log[P-1(a i)]- log[P-1(a i|b i)];(信息接收的多少度量)(若信道無干擾,則互信息等於自信息等於0)優點:明確的數學模型、定量計算;缺點:有適用範圍;信號;通信系统的模型通信系统的基本要求:有效、可靠、保密、认证2. 离散信源及其信息测度﹣离散信源的定义:輸出信息數有限、每次只輸出一個;﹣自信息的定义及物理意义事件發生前:事件發生的不確定性;事件發生后:時間含有的信息量;信息熵的定义及物理意义,信息熵的基本性质定義:自信息的數學期望( H(X)= -∑[ P(a i)logP(a i) ] )信源的總體信息測度(1)每個消息所提供的平均信息量;(2)信源輸出前,信源的平均不確定性;性質:(1)對稱性;(2)確定性;(3)非負性;(4)擴展性(可拆開);(5)可加性;[ H(XY)=H(X)+H(Y) ](6)強可加性;[ H(XY)=H(X)+H(Y|X) ](7)遞增性;(8)極值性; [ H(p1,p2,p3…,p q)≤H(q-1,,…, q-1)= logq ]等概率分佈信源的平均不確定性最大,稱為最大離散熵定理;—离散无记忆信源的扩展信源—扩展信源的熵 H(X) = NH(X)—离散平稳信源:联合概率分布与时间起点无关;熵:联合熵 H(X1X2)=∑∑P(a i a j)logP(a i a j)条件熵 H(X2|X1)=-∑∑P(a i a j)logP(a i|a j)关系:H(X1X2)=H(X1)+H(X2|X1)熵率:离散平稳信源的极限熵 = limH(X N|X1X2…X N-1)—马尔可夫信源:某一时刻的输出只与此刻信源所处的状态有关而与以前的状态及以前的输出符号都无关;—马尔可夫信源的熵:H m+1=H(X m+1|X1X2…X m)—信源剩余度熵的相对率η= H极限/H0信源剩余度(输出符号间依赖强度)γ= 1-η=1-H极限/H0 3. 离散信道及其信道容量—H(X;Y)=H(X)-H(X|Y)—离散信道的数学模型—信道矩阵性質(1)P(a i bj)=P(a i)P(b j|a i)=P(b j)P(a i|b j);(2)[ P(b1) ] [ P(a1) ][ P(b2) ] [ P(a2) ][ P(b3) ] = [ P(a4) ] (r≠s)[ … ] [ … ][ P(b s) ] [ P(a r) ](3)輸出端收到的任一b j一定是輸入符號a r中的某一個送入信道;─信道疑义度的定义:收到Y後對變量X尚存在的平均不確定性:H(X|Y)=E[H(X|b j)]=∑P(xy)log-1P(X|Y)物理意义:噪聲造成的影響大小;─平均互信息的定义:收到Y後平均每個符號獲得的關於X的信息量(物理意義:反映輸入輸出兩個隨機變量之間的統計約束關係):I(X;Y)= H(X)-H(X|Y) = ∑P(xy)P(y|x)P-1(y)無噪一一對應信道中:I(X;Y)=H(X)=H(Y)=0—信道容量的定义:信道每秒鐘平均傳輸的信息量稱為信息傳輸速率,最大信息傳輸率稱為信道容量;—信道容量的计算:无噪信道(求H(X)極值):C = logr对称信道(信道矩陣的每一行或列是另一行或列的置換):C = logs-H(p1,p2,…,p s)强对称信道:C = logr-plog(r-1)-H(p);准对称信道:C = logr-H(p1,p2,…,p s)-∑N k logM k(Nk是第k個子矩陣行元素之和,Mk是第k個子矩陣列元素之和)一般离散信道(對所有可能的輸入概率分佈求平均互信息的最大值):C =λ+loge條件:I(x i;Y) = ∑s j=1P(b j|a i)*log[P(b j|a i)/P(b j)]≤ C—数据处理定理如果X、Y、Z组成一个马尔科夫链,则有I(X;Z)≤I(X;Y)I(X;Z)≤I(Y;Z)信息不增性原理一般的数据处理原理I(S;Z)≤I(S;Y)I(S;Z)≤I(X;Z)I(S;Z)≤I(X;Y)—信道剩余度= C-I(X;Y)相对剩余度 = 1-I(X;Y)/C无损信道的相对剩余度 = 1-H(X)/logr4. 波形信源和波形信道連續信源的相對熵: h(X)Δ= ﹣∫R p(x)logp(x)dx 波形信源的差熵:h(x(t))Δ=lim N->★h(X1X2…X N)连续信源的差熵:均匀分布连续信源的差熵:N維均勻分佈:高斯信源的差熵:N維高斯信源的差熵:差熵的性质:(1)可加性;(2)凸性;(3)可負性;(4)變換性(X1->X2,差熵會變化);(5)極值性:離散信源的信源符號等概率分佈時信源的熵最大;連續信源:﹣當峰值功率受限為p^時(輸出信號的瞬時電壓限制為±(p^)1/2),此時信源輸出的連續隨機變量限制在[a,b]內,信源具有最大熵:h=log(b-a)如果隨機矢量取值受限,則各隨機分量統計獨立并均勻分佈時具有最大熵;﹣當信源輸出信號的平均功率被限定為P,則其信號幅度的概率密度分佈為高斯分佈時,信源有最大熵:h=1/2*log2πePN維連續平穩信源如果其N維隨機序列的協方差矩陣C被限定,則N維隨機矢量為正太分佈時信源的熵最大。
通信原理第四章-波形信源及信息测度
![通信原理第四章-波形信源及信息测度](https://img.taocdn.com/s3/m/82c5c6dc89eb172dec63b70f.png)
(4-5)
4.2.2 两种特殊连续信源的差熵
现在来计算两种常见的特殊连续信源的差熵。
1)均匀分布连续信源的差熵
一维连续随机变量 X 在 a,b区间内均匀分布时,概率密度函数为
p
x
1 / 0
(b
a)
x [a,b] 其他
(4-6)
差熵为
hX logb a 比特/自由度
2N
... ... ... ...
N1
N 2
...
NNBiblioteka (4-19)C
又称协方差矩阵,其中 i
j
时,ii
2 i
为每一变量的方差,ij
为变量
Xi 和
X
j 之间的协
方差,描述二变量之间的依赖关系,所以有 ij ji (i j) 。用| C | 表示矩阵的行列式,| C |ij
(4-1)
其中 R 是全实数集,是连续变量 X 的取值范围。上述连续信源的信息熵可表示为
H
X
R
p
x
log
p
x
dx
lim
0
log
(4-2)
一般情况下,上式的第一项是定值。而当 0 时,第二项是趋于无限大的常数。 所以避开第二项,定义连续信源的熵为
h X R p xlog p x dx
是时间连续的波形信号。而且当固定某一时刻 t t0 时,它们的可能取值也是连续和随机的。
这样的信源称为随机波形信源。随机波形信源的输出可以用随机过程 xt来描述。若信 xt 为平稳随机过程,则此信源为连续平稳信源。一般认为,在无线电通信系统中,信号
第2章离散信源及其信息测度
![第2章离散信源及其信息测度](https://img.taocdn.com/s3/m/765ab438ce2f0066f433223d.png)
X
P
(a, b) p(x)
p(x) 0,
b
p(x)dx 1
a
2.1 信源的数学模型及分类
2.1.2 信源输出的消息用随机矢量描述
实际信源每次输出的消息是按一定概率选取的 符号序列,可以看做是时间上或者空间的随机矢 量。用N维随机矢量X=(X1,X2,…,XN)表示,又称 为随机序列。
主要内容
2.1 信源的数学模型及分类 2.2 离散信源的信息熵 2.3 信息熵的基本性质 2.4 离散无记忆信源的扩展信源 2.5 离散平稳信源 2.6 信源剩余度
2.1 信源的数学模型及分类
通信过程是从信源开始的,信源发送的是消息 或消息序列,通信系统中传递的是消息,消息中 包含信息。因此,通过研究消息来研究信源。
若随机矢量的各维概率分布都与时间起点无关, 这样的信源称为平稳信源。
每个随机变量Xi都是离散取值且其可能取值是 有限的,这样的信源称为离散平稳信源。
每个随机变量Xi都是连续取值的连续型随机变 量,则为连续平稳信源。
2.1 信源的数学模型及分类
若信源先后发出的各个符号彼此统计独立,则:
P(X ) P(X1X 2 X N ) P(X1)P(X 2)P(X N )
小与信源的符号数及其概率分布有关。
用概率矢量P来表示概率分布,H(P)为熵函数。
P (P(a1), P(a2), , P(aq )) ( p1, p2, , pq )
2.1 信源的数学模型及分类
则信源X所输出的随机矢量X所描述的信源称 为离散无记忆信源X的N次扩展信源
若信源在不同时刻发出的符号之间是相互依赖 的,这种信源为有记忆信源。
通常符号之间的依赖关系(记忆长度)是有限 的,若记忆长度为m+1,则称这种有记忆信源为 m阶马尔可夫信源。
第二章 离散信源及其信息测度_01
![第二章 离散信源及其信息测度_01](https://img.taocdn.com/s3/m/d80635e69e31433239689382.png)
I [ P2 ( x)] I [ P 3 ( x)]
第三次测量只需在2个灯泡中进行。图2.2中假设第二次测量的结果是不 通,也就知损坏的灯泡在最左边二个之一。这样,第三次测量如图2.2所示, 通过第三次测量完全消除了不确定性,能获知哪个灯泡是坏了的。第三次 测量后已不存在不确定性了,因此,尚存在的不确定性等于零。 第三次测量获得的信息量: I [ P ( x)] 0 I [ P ( x)]
a2 ... aq X a1 P( x) P(a ) P(a ) ... P(a ) 2 q 1
我们称由信源空间 X , P( x) 描述的信源 X 为离散无记忆信源。这信源在 不同时刻发出的符号之间是无依赖的,彼此统计独立的。
2.1 信源的数学模型及分类
a2 p2
... ...
xq pn
p
i 1
q
i
1
集合X中,包含该信源包含的所有可能输出 的消息,集合P中包含对应消息的概率密度,各 个消息的输出概率总和应该为1。 例:投硬币、书信文字、计算机的代码、 电报符号、阿拉伯数字码等。
2.1 信源的数学模型及分类
—— 信源输出的消息用随机变量描述
连续信源(连续平稳信源、连续非平稳信源)
按照信源符号之间的关系: 无记忆信源
发出单个符号的无记忆信源
发出符号序列的无记忆信源 有记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源
2.1 信源的数学模型及分类
—— 信源输出的消息用随机变量描述
有些信源可能输出的消息数是有限的或可数的,而且 每次只输出其中一个消息。例如,扔一颗质地均匀的,研 究其下落后,朝上一面的点数。每次试验结果必然是1点、 2点、3点、4点、5点、6点中的某一个面朝上。这种信源 输出消息是“朝上的面是1点”、“朝上的面是2 点”、......、“朝上的面是6点”等六个不同的消息。 每次试验只出现一种消息,出现哪一种消息是随机的,但 必定是出现这六个消息集中的某一个信息,不可能出现这 个集合以外的什么消息。这六个不同的消息构成两两互不 相容的基本事件集合,用符号ai , i 1,...,6 来表示这些消息, , a6 } 。由大 得这信源的样本空间为符号集 A : {a1 , a2 , a3 , a4 , a5 。 量试验结果证明,各消息都是等概率出现的,都等于1 6 。
第三章 离散信源 - 2013-单页
![第三章 离散信源 - 2013-单页](https://img.taocdn.com/s3/m/9ae14443ddccda38376bafe3.png)
k 1 N
21
2.3、N次扩展信源的熵
H ( X) H ( X N ) P( X) log P( X) p( i ) log p( i )
XN XN
信源X的熵与扩展信源 X 的熵之间的关系
N次扩展信源
2
N
19
2.2、离散无记忆信源的扩展信源 – 数学模型
单符号离散信源的数学模型
X a1 ai aq P( x) p p p i q 1
p( x ) 1
i 1 i
q
N次扩展信源对应的数学模型
i qN X N 1 p( ) p( ) p( ) 1 i qN P ( X)
什么是信源?
本章的研究内容
信息的来源,是产生消息/符号、消息序 信息的来源 是产 消息/符号 消息序
列/符号序列以及时间连续的消息的来 源 。 数学上,信源是产生随机变量,随机序 列/矢量和随机过程的源。 列/矢量和随机过程的源
信源的研究内容
只研究信源产生消息的不确定性! 1 信源的输出如何描述? 1. 2. 如何计算信源产生的信息量? 3. 能否压缩?可压缩程度?
– 每个符号 i 对应于某一个由 对应于某 个由N个 ai 组成的序列 – i 的概率 p i 是对应的N个
ai 组成序列的概率
20
2.2、无记忆信源扩展信源 – 数学模型(续)
扩展信源的输出符号数目 q
序列长度 N 符号集中的符号个数 q
N
输出符号的概率
2.3第二章-离散信源及其信息测度
![2.3第二章-离散信源及其信息测度](https://img.taocdn.com/s3/m/1de4de573c1ec5da50e270f5.png)
•
其中q=nN,每个符号 i是对应于某一个由 个xi组成的序列 每个符号a 是对应于某一个由N个 其中 ai的概率 i)是对应的 个xi组成的序列的概率 的概率p(a 是对应的 是对应的N个
∑ p(a ) = 1
i
因为信源是无记忆的, 因为信源是无记忆的,所以消息序列
ai = xi1 xi2 ⋯ xiN 的概率为 p ( ai ) = p ( xi1 ) p ( xi2 ) ⋯ p ( xiN ), i1 , i2 , ⋯ , iN ∈ {1, 2, ⋯ n}
上式共有N项 上式共有 项,考察其中第一项
∑ p(a ) log
i X
N
1 2 p ( xi1 )
= ∑ p( xi1 ) p( xi2 ) … p( xiN ) log 2
XN n n n
1 p ( xi1 )
= ∑∑ … ∑ p( xi1 ) p ( xi2 ) … p ( xiN ) log 2
X=X1X2X3…XN
信源在不同时刻的随机变量X 的概率分布P(Xi)和 信源在不同时刻的随机变量 i和Xi+r的概率分布 和 P(Xi+r)一般来说是不相同的,即随机变量的统计特性随 一般来说是不相同的, 一般来说是不相同的 着时间的推移而有所变化。 着时间的推移而有所变化。
第三章 离散信源(11)
![第三章 离散信源(11)](https://img.taocdn.com/s3/m/c389801ea8114431b90dd88f.png)
第二节
1.概念 1.概念
离散无记忆信源及其扩展信源
一.离散无记忆信源
信源先后发出的一个个消息符号彼此独立。
2.数学模型 2.数学模型
, 信源输出随机变量X 信源输出随机变量X,可能的取值 xi ,i =1 2,..., q
[X
x2 ... xq x1 P] = p(x1) p(x2) ... p(xq )
第三章 离散信源及其信息测度
本章需要掌握的内容: 本章需要掌握的内容:
信源的分类 离散平稳无记忆信源及扩展信源的特点和信息√ 离散平稳无记忆信源及扩展信源的特点和信息√ 离散平稳有记忆信源的特点和信息 马尔可夫信源的特点和信息√ 马尔可夫信源的特点和信息√ 信源的相关性和剩余度√ 信源的相关性和剩余度√
三.信源分类 1.按信源发出的消息在时间上的分布划分: 1.按信源发出的消息在时间上的分布划分: 按信源发出的消息在时间上的分布划分
离散信源 连续信源 2.按信源发出的前后消息是否有关划分: 按信源发出的前后消息是否有关划分 2.按信源发出的前后消息是否有关划分: 无记忆信源 有记忆信源 有记忆平稳信源 有限长记忆信源(马尔可夫信源) 有限长记忆信源(马尔可夫信源)
依次推出N 依次推出N次扩展信源 X
N
N
X = X1X2...XN
X N的 学 型 : 数 模 为
[X
N
α2 ... α2N α1 P = p(α1) p(α2) ... p(α2N )
]
其中α i = α i1α i 2 ...α iN , α ik ∈ A = (0,1) p(α i ) = p(α i1 ) p(α i 2 )...p(α iN ) = ∏ p(α iK )
信息论基础教学课件ppt-离散信源
![信息论基础教学课件ppt-离散信源](https://img.taocdn.com/s3/m/c194cf40f524ccbff0218476.png)
3.1.4 离散平稳信源数学模型
l 信源X具有有限符号集 l 信源产生随机序列 l 对所有
有 则称信源为离散平稳信源,所产生的序列为平稳序列。
• 12
3.1.4 离散平稳信源数学模型
平稳序列的统计特性与时间的推移无关
•Page 13
3.1.4 离散平稳信源数学模型
n 例3.2 一平稳信源X的符号集A={0,1},产生随机序列{xn}, 其中P(x1=0)=p, 求P(xn=1)(n >1)的概率。 解: 平稳性
数就是消息长度。
如果消息构成满树,消息概率也满足归一化条件,
这时消息集中的消息可视为某个信源的输出。这个
信源称为信源X的变长扩展源
19
3.2.2 变长消息扩展
如果消息树是全树
就对应着信源的等长扩展。所以等长扩展可以视为 变长扩展的特例。
20
3.2.2 变长消息扩展
什么消息集可以作为某信源的扩展?
7
单符号离散无记忆信源
n 例3.1 一个二元无记忆信源,符号集 A={0,1}, p为X=0
的概率,q为X=1的概率,q=1-p;写出信源的模型。 解:信源的模型
•8
3.1.2 离散无记忆信源的数学模型
多维离散无记忆信源数学模型:
Xi的符号集 的符号集
9
3.1.2 离散无记忆信源的数学模型
因为信源是无记忆的,所以:
●网格图 每时刻的网格节点与马氏链的状态一一对应
●状态转移图 状态转移图与矩阵有一一对应关系
47
3.4.2 齐次马氏链(3)
例3.8 一个矩阵,验证此矩阵对
=1
应一个齐次马氏链的转移概率矩
=1
阵并确定此马氏链的状态数
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
X P(x)
a1, P(a1),
a2 , P(a2 ),
aq
P(aq ),q 源自 1P(ai )1
我们将自信息的数学期望定义为信源的平均自信息量,即
1 q
H
(X
)
E
log
P(ai
)
i1
P(ai
) log
P(ai
)
(3-6)
H ( X ) 也被称为信源的信息熵。
言文字作为信源,输出的消息是由汉字和标点符号组成的符号序列,其中每个符号的出现是 不确定的、随机的,由此构成了不同的中文消息。又如,对离散化的平面灰度图像信源来说, 从 XY 平面空间上来看,每幅黑白灰度画面都是一系列空间离散的灰度值符号,而空间每一 点的符号(灰度值)又都是随机的,由此形成了不同的图像消息。上述这类信源输出的一系 列随机变量,即为随机矢量。这样,信源的输出可用 N 维随机矢量 X (X1X2 X N ) 来描 述,其中 N 可为有限正整数或可数的无限值。这 N 维随机矢量 X 也称为随机序列。
在通信系统中收信者在未收到消息以前,对信源发出什么消息是不确定的,是随机的, 所以可用随机变量、随机矢量或随机过程来描述信源输出的消息。不同的信源输出的消息不 同,可以根据消息的不同的随机性质来对信源进行分类。
1)信源输出的单符号消息可用随机变量描述 在实际情况中,有些信源可能输出的消息数是有限的或可数的,而且每次只输出其中一
个消息,如书信文字、计算机的代码、电报符号、阿拉伯数字码等。这些信源输出的都是单
个符号的消息,它们符号集的取值是有限的或可数的。我们可用一维离散型随机变量 X 来
描述这些信源的输出。这样的信源称为离散信源。它的数学模型就是离散型的概率空间
X P(x)
a1, P(a1),
a2 , P(a2 ),
aq
3.4 离散无记忆的扩展信源
前面几节,我们讨论的只是最简单的离散信源,即信源每次输出只是个单个符号的信息。
我们给出了信息熵 H ( X ) 来对基本离散信源进行测度,以及研究了解信息熵 H ( X ) 的基本
性质。从本节开始,我们将进一步讨论较为复杂的离散信源及其信息测度。 首先,我们来研究平稳离散无记忆信源,此信源输出的消息序列是平稳随机序列并且符
P(aq
)
(3-1)
显然, P(ai )(i 1, 2, , q) 应满足
q
P(ai ) 1
i 1
(3-2)
式中,ai 是离散信源可能的输出符号; 0 P(ai ) 1(i 1, 2, , q) 是信源输出符号
ai (i 1, 2, , q) 的先验概率。 有的信源虽然输出的是单个符号(代码)的消息,但其可能出现的消息数是不可数的无
信息熵是从平均意义上来表征信源的总体信息测度的一个量。信息熵具有以下两种物理 含义:
第一,信息熵 H(X)是表示信源输出后,每个消息(或符号)所提供的平均信息量。 第二,信息熵 H(X)是表示信源输出前,信源的平均不确定性。 应该注意的是:信息熵是信源的平均不确定的描述。在一般情况下,它并不等于平均获 得的信息量。只是在无噪声情况下,接收者才能获得信源的平均信息量 H(X)。
立。则由这个随机矢量 X 组成的新信源成为离散无记忆信源 X 的 N 次扩展信源。离散无记 忆信源 X 的 N 次扩展信源被表示为 X N 。
中,各随机变量 Xi (i 1,2, , N) 之间是统计独立的,即 N 维随机矢量的联合概率分布满足
P(X ) P(X1X2 X N ) P1(X1)P2 (X2 ) PN (X N )
(3-4)
因为信源是平稳的,根据离散平稳随机序列的统计特性可知,各变量 Xi 的一维概率分布都
相同,即 P1(X1) P2 (X2 ) PN (X N ) ,则得
3.3 信息熵的基本性质
令 P=( p1, p2, , pq ) 表示信源概率空间中的概率矢量。信源的信息熵为 P 的函数, 它具有下列一些性质
1)确定性
在概率矢量 P=( p1, p2, , pq ) 中,当某分量 pi 1时, H ( X ) 0 。
这个性质意味着从总体来看,信源虽然有不同的输出消息(符号),但它只有一个消息
3.2 离散信源的信息熵
我们首先研究最基本的离散信源,即信源输出是单个符号的消息。 对于一般实际输出为单个符号的离散信源都可用一维离散型随机变量 X 来描述信源的 输出,信源的数学模型统一抽象为
X P(x)
a1, P(a1),
a2 , P(a2 ),
aq
P(aq
)
q
其中 0 P(ai ) 1(i 1, 2, , q) 且 P(ai ) 1 i 1
限值,即输出消息的取值是连续的,或取值是实数集 (, ) 。例如,语音信号、热噪声信
号某时间的连续取值数据,遥控系统中有关电压、温度、压力等测得的连续数据。这些数据
取值是连续的,但又是随机的。我们可用一维的连续型随机变量 X 来描述这些消息,则这
种信源称为连续信源,其数学模型是连续型概率空间
X P(x)
可以用一组长度为 N 的序列来表示。这时,它就等效成了一个新信源。新信源输出的符号
是 N 长的消息序列,用 N 维离散随机矢量来描述,写成 X X1, X2, , X N ,其中每个
分量 Xi i 1, 2, , N 都是随机变量,样本空间均为 a1, a2, , aq ,并且分量之间统计独
假设随机矢量 X 为严平稳随机过程。若信源输出的随机序列 X (X1X2 X N ) 中,每
个随机变量 Xi (i 1,2, , N) 都是取值离散的离散型随机变量,即每个随机变量 Xi 的可能取
值都是有限的或可数的,这样的信源称为离散平稳信源;若每个随机分量 Xi (i 1,2, , N) 都
是取值为连续的连续型随机变量,则信源称为连续平稳信源。例如,语音信号X (t) 、热
这样的信源能输出多少信息?每个消息的出现又携带多少信息量呢?下面我们来讨论 这些问题。
3.2.1 自信息 我们已知信源发出的消息常常是随机的,所以在没有收到消息前,收信者不能确定信源 发出的是什么消息。这种不确定性是客观存在的。只有当信源发出的消息通过信道传输给收 信者后,才能消除不确定性并获得信息。如果信源中某一消息发生的不确定性越大,一旦它 发生,并为收信者收到后,消除的不确定性就越大,获得的信息量也就越大。在信息传输的 一般情况下,收信者所获得的信息量应等于信息传输前后不确定性的减少(消除)的量。因 此,我们直观地把信息量定义为: 收到某消息获得的信息量(即收到某消息后获得关于某基本事件发生的信息量) =(收到此消息前关于某事件发生的不确定性)-(收到此消息后关于某事件发生的不确 定性) 在无噪声时,通过信道的传输,关于消息的不确定性完全消除,因此 收到某消息获得的信息量=收到消息前关于某事件发生的不确定性
示事件 ai 所提供的信息量。
自信息采用的单位取决于对数所选取的底。如果选取以 2 为底,则所得的信息量单位称 为比特(bit,binary unit 的缩写)。
3.2.2 信息熵 前面定义的自信息量是指某一信源发出某一消息所含有的信息量。所发出的消息不同,
它们所含有的信息量也就不同。所以自信息 I (ai ) 是一个随机变量,不能用它来作为整个信
4.强可加性
H(XY) H(X ) H(Y | X )
(3-9)
两个互相关联的信源 X 和 Y 的联合信源的熵等于信源 X 的熵加上在 X 已知条件下信源
Y 的条件熵。
5.极值性
H ( p1, p2, , pq ) H (1/ q,1/ q, ,1/ q) log q
(3-10)
此性质表明,在离散信源情况下,对于具有 q 个符号的离散信源,只有在 q 个信源符号 等可能出现的情况下,信源熵才能达到最大值。这也表明等概率分布信源的平均不确定性为 最大。这是一个很重要的结论,称为最大离散熵定理。
号之间是无依赖的,即是统计独立的。因此,离散无记忆信源的数学模型与前最简单的离散
信源的数学模型基本相同,也用 X , P(x) 概率空间来描述,所不同的只是离散无记忆信源
输出的消息是一串符号序列(用随机矢量来描述),并且随机矢量的联合概率分布等于随机 矢量中各个随机变量的概率乘积。
如果有一个离散无记忆信源 X ,其样本空间为 a1, a2, , aq ,对它的输出信息序列,
几乎必然出现,而其他消息都是几乎不可能出现,那么,这个信源是一个确知信源,其熵等
于零。
2. 非负性
H(P) 0
(3-7)
这种非负性对于离散信源的熵而言是正确的,但对连续信源来说这一性质并不存在。以
后可以看到,在差熵的概念下,可能出现负值。
3.可加性
H(XY) H(X ) H(Y )
(3-8)
统计独立信源 X 和 Y 的联合信源的熵等于分别熵之和。
连续平稳信源情况下也分无记忆信源和有记忆信源。若信源输出的连续型随机矢量
X (X1X2 X N ) 中,各随机变量 Xi (i 1,2, , N) 之间无依赖,统计独立,称此信源为连
续平稳无记忆信源,否则称为有记忆信源。
3)信源输出的消息用随机过程描述 更一般地说,实际信源输出的消息常常是时间和取值都是连续的。例如,语音信号 X(t)、
R p(x)
(3-3)
并满足
b
p(x) d x 1 或 p(x) d x 1
a
R
式中, R 表示实数集 (, ) ; p(x) 是随机变量 X 的概率密度函数。
上述离散信源和连续信源是最简单、最基本的情况,信源只输出一个消息(符号),所
以可用一维随机变量来描述。
2)信源输出的符号序列用随机矢量描述 然而,很多实际信源输出的消息往往是由一系列符号序列所组成的。例如,中文自然语