连续信源和波形信源
《信息论与编码技术》复习提纲复习题
《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
信息论重点 (新)
1.消息定义信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。
信号是表示消息的物理量,包括电信号、光信号等。
信号中携带着消息,信号是消息的载体。
信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。
信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和运动状态变化的方式。
➢ 语法信息(语法信息是指信息存在和运动的状态与方式。
) ➢ 语义信息(语义信息是指信宿接收和理解的信息的内容。
) ➢ 语用信息(语用信息是指信息内容对信宿的有用性。
)2.狭义信息论、广义信息论。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
3.自信息 互信息 定义 性质及物理意义 自信息量: ()log ()i x i I x P x =-是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e 时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
自信息物理意义: 1.事件发生前描述该事件发生的不确定性的大小 2.事件发生后表示该事件所含有(提供)的信息量 互信息量:互信息量的性质:1) 互信息的对称性2) 互信息可为零3) 互信息可为正值或负值4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息互信息物理意义: 1.表示事件 yj 出现前后关于事件xi 的不确定性减少的量 2.事件 yj 出现以后信宿获得的关于事件 xi 的信息量4.平均自信息性质 平均互信息性质平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵):(;)()(|)i j i i j I x y I x I x y =-log ()log (|)(1,2,,;1,2,,)i i jp x p x y i n j m =-+=⋯=⋯(|)log ()i j i p x y p x =1()[()][log ()]()log ()ni i i i i H X E I x E p x p x p x ===-=-∑熵函数的数学特性包括:(1)对称性 p =(p1p2…pn)各分量次序可调换 (2)确定性p 中只要有为1的分量,H(p )为0(3)非负性离散信源的熵满足非负性,而连续信源的熵可能为负。
信息论与编码[第二章离散信源及其信息测度]山东大学期末考试知识点复习
第二章离散信源及其信息测度2.1.1 信源的分类信源是信息的来源,是产生消息或消息序列的源泉。
不同的信源输出的消息其随机性质不同。
根据消息所具有的随机性质的不同,对信源进行如下分类:按照消息取值集合以及取值时刻集合的离散性和连续性,信源可分为离散信源(数字信源)和波形信源(模拟信源);按照某取值时刻消息的取值集合的离散性和连续性,信源可分为离散信源和连续信源;按照信源输出消息所对应的随机序列的平稳性,信源可分为平稳信源和非平稳信源;按照信源输出的信息所对应的随机序列中随机变量前后之间有无统计依赖关系,信源可分为无记忆信源和有记忆信源。
2.1.2 基本信源的数学模型根据信源输出消息所对应的不同的随机特性就有不同的信源数学模型。
而基本的信源数学模型有以下几种。
1.离散信源信源输出的是单个符号或代码的消息,信源符号集的取值是有限的,或可数的,可以用一维离散型随机变量来描述。
信源的数学模型就是离散型随机变量x的概率空间,表示为2.连续信源信源输出的是单个符号或代码的消息,但信源符号集的取值是连续的,可以用一维连续型随机变量来描述。
相应的信源的数学模型就是连续型随机变量的概率空间,表示为其中(a,b)是连续随机变量X的取值区间,R表示全实数集,而p(x)是连续随机变量X的概率密度函数。
2.1.3 离散信源的信息熵1.自信息自信息即为某事件a i发生所含有的信息量。
事件的自信息定义为式中P(a i)是事件a i发生的概率。
自信息的单位有几种:以2为底的对数时单位是比特(bit);以e为底的自然对数时单位是奈特(nat);以10为底的常用对数时单位是哈特(hart)。
2.信息熵离散随机变量X的信息熵就是其概率空间中每个事件所含有的自信息量的数学期望,即其单位是:以2为底的对数时是比特/符号(bit/symbol);以e为底的对数时是奈特/符号(nat/symbol);以10为底的对数时是哈特/符号(hart/symbol)。
第四章 波形信源和波形信道
2
-2 F 2 F 其他
其自相关函数
Rn
(
)
1
2
Pn
()e
j
d
N0
F
sin(2 F 2 F
)
由功率谱密度可知在时间间隔 1的两个样本点之间的相
2F
关函数等于零,
所以各样本值之间不相关。有因为随即变量是高斯概率
密度分布的,所以随机变量之间统计独立。
第四节 连续信道和波形信道的分类
4.有色噪声信道 除白噪声以外的噪声称为有色噪声。信道的噪声是
率是按正、负两半轴上的频谱定义的。只采用正半轴频谱来
定义,则功率谱为
N
,常称为单边谱密度。而
0
N0 /称2 为双
边谱密度,单位为瓦/赫(W/Hz)。显然。白噪声的相关函数
是 函数:
Pn ()
N0 2
Rn ( )
N0 2
( )
第四节 连续信道和波形信道的分类
3.高斯白噪声信道
具有高斯分布的白噪声称为高斯白噪声。一般情况把既服 从高斯分布而功率谱密度又是均匀的噪声称为高斯白噪声。 关于低频限带高斯白噪声有一个很重要的性质,即低频限带 高斯白噪声经过取样函数取值后可分解成N(=2FT)个统计 独立的高斯随机变量(方差为 N0 / ,2 均值也为零)。
且当随机序列中各变量统计独立时等式成立。
第二节 波形信源和波形信源的信息测度
两种特殊连续信源的差熵
1.均匀分布连续信源的熵值
一维连续随机变量X在[a,b]区间内均匀分布时,这基本连
续信源的熵为 h( X ) log(b a)
N维连续平稳信源,若其输出N维矢量 X ( X1X 2 X N )
其分量分别在 [a1, b2 ], ,[aN , bN ] 的区域内均匀分布,
北邮-田宝玉-信息论基础-第一章
仙农在1948年指出 :
“ 通信的基本问题是在一点精确地或近似地恢复 另一点所选择的消息。通常,这些消息是有含义 的,即它对于某系统指的是某些物理的或概念的 实体。这些通信的语义方面与通信问题无关,而
重要的方面是实际消息是从一个可能消息集合中
选择出的一条消息。”
可见,仙农在研究信息理论时,排除了语义 信息与语用信息的因素,先从语法信息入手,解 决当时最重要的通信工程一类的信息传递问题。 同时他还把信源看成具有输出的随机过程,所研 究的事物运动状态和变化方式的外在形式遵循某 种概率分布。因此仙农信息论或经典信息论所研 究的信息是语法信息中的概率信息。
信 息 论 即 仙 农 (Claude Edwood Shannon, 1916—2001 ) 信 息 论 , 也 称 经 典信息论,是研究通信系统极限性能的理 论。从信息论产生到现在几十年来,随着 人们对信息的认识不断深化,对信息论的 研究日益广泛和深入,信息论的基本思想 和方法已经渗透到许多学科,在人类社会 已经进入信息时代的今天,信息理论在自 然科学和社会科学研究领域还会发挥更大 的作用。
第一层:通信符号如何精确传输?(技术问题) 第二层:传输的符号如何精确携带所需要的含义? (语义问题) 第三层:所接收的含义如何以所需要的方式有效地 影响行为?(效用问题)
• Weaver认为仙农的工作属于第一层,但他又证明 仙农的工作是交叉的,对第二、三层也有意义。
• 信息是认识主体(人、生物、机器) 所感受的和 所表达的事物运动的状态和运动状态变化的方式。
可见,信息收集组是根据所得到的消 息提取出语法信息,信息处理组是根据所 得到的语法信息提取出语义信息,而信息 分析组是根据所得到的语义信息提取出语 用信息。 可以看到,研究语义信息要以语法信 息为基础,研究语用信息要以语义信息和 语法信息为基础。三者之间,语法信息是 最简单、最基本的层次,语用信息则是最 复杂、最实用的层次。
课程教学大纲-信息工程学院
《信息论与编码》课程教学大纲一、课程名称1.中文名称:信息论与编码2.英文名称:Information Theory and Coding二、课程概况课程类别:专业选修课学时数:36学分数:2适用专业:通信工程、电子信息工程等专业开课学期:第一学期开课单位:信息工程学院电子信息工程系三、大纲编写人:张露四、教学目的及要求•教学目的:通过本课程向学生介绍信息科学的基础理论和基本方法,使学生掌握信息理论的基础和编码理论。
•教学要求:掌握信息论的基本原理、编码理论和实现方法,主要包括:绪论、离散信源及其信息测度、离散信道及其信道容量、无失真信源编码、有噪信道编码、波形信源和波形信道。
本课程以概率论为基础,数学推导较多,教学时主要关注学生对概念的理解,不过分追求数学细节的推导。
注意帮助学生理解各个概念的含义和作用,结合其他课程理解它的意义。
注重培养学生的独立思考能力。
五、课程主要内容及先修课程•主要内容:1)绪论: 信息的概念,信息论研究的对象、目的和内容,信息论的发展简史与现状2)离散信源及其信息测度:信息的数学模型及分类,离散信源的信息熵,信息熵的基本性质,离散无记忆的扩展信源,离散平衡信源,马尔可夫信源,信息冗余度与自然语言的熵3)离散信道及其信道容量:信道的数学模型及分类,平均互信息,平均互信息的特性,信道容量及其一般计算方法,离散无记忆扩展信道及其信道容量,信源与信道的匹配4)无失真信源编码:码的分类,等长信源编码定理,变长信源编码定理,香农编码,费诺编码,霍夫曼编码,游程编码、算术编码、冗长编码5)有噪信道编码:错误概率与译码规则,错误概率与编码方法,有噪信道编码定理,联合信源信道编码定理,纠错编码的基本思想,常用编码方法6)波形信源和波形信道:波形信源的统计特性和离散化,连续信源和信源的信息测度,具有最大熵的连续信源,连续信道和波形信道的分类,连续信道和波形信道的信息传输率,连续信道和波形信道的信道容量,连续信道编码定理•先修课程《概率论》和《通信原理》六、课程教学方法《信息论与编码》理论性较强,授课时应根据学生的基础,采用PPT和板书推导相结合的教学方式。
信息论第3章信源及信息熵
举例
数学描述
离散信源 (数字信源)
连续信号
文字、数据、 离散化图象
离散随机变量 序列
跳远比赛的结果、语音 连续随机变量
信号抽样以后
序列
波形信源 (模拟信源)
语音、音乐、热噪声、 图形、图象
不常见
随机过程
表3.1 信源的分类
3.1 信源的分类及其数学模型
我们还可以根据各维随机变量的概率分布是否随时间的推移 而变化将信源分为平稳信源和非平稳信源,根据随机变量间 是否统计独立将信源分为有记忆信源和无记忆信源。
定义3.2 随机变量序列中,对前N个随机变量的联合熵求平
均:
HN
(X)
1 N
H ( X1X 2
XN)
称为平均符号熵。如果当N
时上式极限存在,则
lim
N
H
N
(X)
称为熵率,或称为极限熵,记为
def
H
lim
N
H
N
(
X
)
3.3.1 离散平稳无记忆信源
离散平稳无记忆信源输出的符号序列是平稳随机序列,并且
H(X ) H(X1X2 XN ) H ( X1) H ( X2 | X1) H ( X3 | X1X 2 ) H ( X N | X1X 2 X N1)
定理3.1 对于离散平稳信源,有以下几个结论:
(1)条件熵 H (X N | X1X 2 X N1) 随N的增加是递减的;
(2)N给定时平均符号熵大于等于条件熵,即
s1
si p(s j
| si )
s q
m
状态空间由所有状态及状态间的状态转移概率组成。通过引
入状态转移概率,可以将对马尔可夫信源的研究转化为对马 尔可夫链的研究。
普通高等教育 电子信息工程专业教学大纲合集 1041812信息论与编码课程教学大纲
《信息论与编码》教学大纲课程编码:1041812课程性质:专业课程适用专业:电子信息工程学分:2学分学时:36学时开设学期:第5学期一、教学目的本课程的教学目的是使学生掌握信息处理的理论基础和各种编码原理、手段与方法。
培养学生能够适应数字通信、信息处理、信息安全、计算机信息管理等编码工作的要求。
使学生掌握信息理论的基本概念和信息分析方法及主要结论,为今后从事信息领域的科研及工程工作的进一步研究打下坚实的理论基础。
二、教学重点与难点1.重点:信息以及失真的测度、信道及信道容量、无失真信源编码方法以及有噪信道编码方法。
2.难点: 典型序列以及由此推导出的香农三大编码定理及其逆定理。
三、教学方法建议讲授法:教师讲授信息论与编码的基本知识和研究现状。
讨论法:师生共同讨论信息论与编码中研究的问题。
探究法:师生共同探究信息论与编码中前沿问题。
四、教学内容第一章信息理论基础(4学时)教学要求:了解信息论研究对象、目的、发展简史与现状;了解通信系统的模型以及通信系统各部分的主要组成以及作用。
1.信息论的形成和发展2.通信系统的模型3.信息论研究的内容第二章离散信源及其测度(8学时)教学要求:了解信源的相关性和剩余度的概念,消息、信息、信号的概念,信息,信号,消息,数据的关系及其联系。
掌握信源的数学模型、离散无记忆信源、离散平稳信源和马尔可夫信源基本理论。
1.信源的数学模型及分类2.信息熵及其基本性质3.离散平稳信源4.马尔可夫信源5.信息剩余度第三章离散信道及其信道容量(8学时)教学要求:了解一般信道容量的计算方法。
掌握信道的数学模型,离散无记忆信道以及一些特殊信道容量的计算方法。
1.信道数学模型及分类2.平均互信息及特点3.信道容量及一般计算方法4.离散无记忆扩展信道及其容量第四章无失真信源编码(8学时)教学要求:了解其它一些无失真信源编码方法;理解渐近等分割性及ε典型序列,算术编码方法及具体实现方案;掌握编码的定义、码的分类、定长编码定理、变长编码定理、最佳编码方法、香农编码方法、费诺编码方法、哈夫曼编码方法。
信息论复习笔记
信息论复习笔记(总23页) -本页仅作为预览文档封面,使用时请删除本页-1. 绪论信息论回答了通信的两个最基本问题:(1)数据压缩的极限;(2)信道传输速率的极限;信息、消息和信号消息:信息的載體(能被感知和理解、進行傳遞和獲取)信息:事物運動狀態或存在方式的不確定性的描述(香農)先驗概率:P(a i)自信息:I(a i)=log[P-1(a i)];(信息接收的不確定性)互信息:I(a i;b i)= log[P-1(a i)]- log[P-1(a i|b i)];(信息接收的多少度量)(若信道無干擾,則互信息等於自信息等於0)優點:明確的數學模型、定量計算;缺點:有適用範圍;信號;通信系统的模型通信系统的基本要求:有效、可靠、保密、认证2. 离散信源及其信息测度﹣离散信源的定义:輸出信息數有限、每次只輸出一個;﹣自信息的定义及物理意义事件發生前:事件發生的不確定性;事件發生后:時間含有的信息量;信息熵的定义及物理意义,信息熵的基本性质定義:自信息的數學期望( H(X)= -∑[ P(a i)logP(a i) ] )信源的總體信息測度(1)每個消息所提供的平均信息量;(2)信源輸出前,信源的平均不確定性;性質:(1)對稱性;(2)確定性;(3)非負性;(4)擴展性(可拆開);(5)可加性;[ H(XY)=H(X)+H(Y) ](6)強可加性;[ H(XY)=H(X)+H(Y|X) ](7)遞增性;(8)極值性; [ H(p1,p2,p3…,p q)≤H(q-1,,…, q-1)= logq ]等概率分佈信源的平均不確定性最大,稱為最大離散熵定理;—离散无记忆信源的扩展信源—扩展信源的熵 H(X) = NH(X)—离散平稳信源:联合概率分布与时间起点无关;熵:联合熵 H(X1X2)=∑∑P(a i a j)logP(a i a j)条件熵 H(X2|X1)=-∑∑P(a i a j)logP(a i|a j)关系:H(X1X2)=H(X1)+H(X2|X1)熵率:离散平稳信源的极限熵 = limH(X N|X1X2…X N-1)—马尔可夫信源:某一时刻的输出只与此刻信源所处的状态有关而与以前的状态及以前的输出符号都无关;—马尔可夫信源的熵:H m+1=H(X m+1|X1X2…X m)—信源剩余度熵的相对率η= H极限/H0信源剩余度(输出符号间依赖强度)γ= 1-η=1-H极限/H0 3. 离散信道及其信道容量—H(X;Y)=H(X)-H(X|Y)—离散信道的数学模型—信道矩阵性質(1)P(a i bj)=P(a i)P(b j|a i)=P(b j)P(a i|b j);(2)[ P(b1) ] [ P(a1) ][ P(b2) ] [ P(a2) ][ P(b3) ] = [ P(a4) ] (r≠s)[ … ] [ … ][ P(b s) ] [ P(a r) ](3)輸出端收到的任一b j一定是輸入符號a r中的某一個送入信道;─信道疑义度的定义:收到Y後對變量X尚存在的平均不確定性:H(X|Y)=E[H(X|b j)]=∑P(xy)log-1P(X|Y)物理意义:噪聲造成的影響大小;─平均互信息的定义:收到Y後平均每個符號獲得的關於X的信息量(物理意義:反映輸入輸出兩個隨機變量之間的統計約束關係):I(X;Y)= H(X)-H(X|Y) = ∑P(xy)P(y|x)P-1(y)無噪一一對應信道中:I(X;Y)=H(X)=H(Y)=0—信道容量的定义:信道每秒鐘平均傳輸的信息量稱為信息傳輸速率,最大信息傳輸率稱為信道容量;—信道容量的计算:无噪信道(求H(X)極值):C = logr对称信道(信道矩陣的每一行或列是另一行或列的置換):C = logs-H(p1,p2,…,p s)强对称信道:C = logr-plog(r-1)-H(p);准对称信道:C = logr-H(p1,p2,…,p s)-∑N k logM k(Nk是第k個子矩陣行元素之和,Mk是第k個子矩陣列元素之和)一般离散信道(對所有可能的輸入概率分佈求平均互信息的最大值):C =λ+loge條件:I(x i;Y) = ∑s j=1P(b j|a i)*log[P(b j|a i)/P(b j)]≤ C—数据处理定理如果X、Y、Z组成一个马尔科夫链,则有I(X;Z)≤I(X;Y)I(X;Z)≤I(Y;Z)信息不增性原理一般的数据处理原理I(S;Z)≤I(S;Y)I(S;Z)≤I(X;Z)I(S;Z)≤I(X;Y)—信道剩余度= C-I(X;Y)相对剩余度 = 1-I(X;Y)/C无损信道的相对剩余度 = 1-H(X)/logr4. 波形信源和波形信道連續信源的相對熵: h(X)Δ= ﹣∫R p(x)logp(x)dx 波形信源的差熵:h(x(t))Δ=lim N->★h(X1X2…X N)连续信源的差熵:均匀分布连续信源的差熵:N維均勻分佈:高斯信源的差熵:N維高斯信源的差熵:差熵的性质:(1)可加性;(2)凸性;(3)可負性;(4)變換性(X1->X2,差熵會變化);(5)極值性:離散信源的信源符號等概率分佈時信源的熵最大;連續信源:﹣當峰值功率受限為p^時(輸出信號的瞬時電壓限制為±(p^)1/2),此時信源輸出的連續隨機變量限制在[a,b]內,信源具有最大熵:h=log(b-a)如果隨機矢量取值受限,則各隨機分量統計獨立并均勻分佈時具有最大熵;﹣當信源輸出信號的平均功率被限定為P,則其信號幅度的概率密度分佈為高斯分佈時,信源有最大熵:h=1/2*log2πePN維連續平穩信源如果其N維隨機序列的協方差矩陣C被限定,則N維隨機矢量為正太分佈時信源的熵最大。
ch2-信息论与编码技术(MATLAB实现)-朱春华-清华大学出版社
2.1 离散信源的数学模型与分类
信源的主要问题:
1.如何描述信源(信源的数学建模问题) 2.怎样计算
2.1 离散信源的数学模型与分类
信源是发出消息的源,信源输出以符号形式出现 的具体消息。
按照信源发出的消息在时间上和幅度上的分布情况:
先验概率。
离散有记忆信源
所发出的各个符号 的概率是有关联的。
2.1 离散信源的数学模型与分类
有记忆信源符号间的概率关联性可用两种方式:
一种是用信源发出的一个符号序列的整体概率(即 联合概率)反映有记忆信源的特征.
一种限制记忆长度,即某一个符号出现的概率只与 前面一个或有限个符号有关,而不依赖更前面的那 些符号,这样的信源可以用信源发出符号序列内各 个符号之间的条件概率来反映记忆特征,这就是发 出符号序列的马尔可夫信源.
解:设消息x1:摸出红球;消息x2:摸出白球; 若放回,该单符号信源为无记忆信源,其数学模型
为:
若不放回,该单符号信源为有记忆信源,每个符号 出现的概率与之前出现的符号有关,用条件概率描 述。
2.1.2 离散序列无记忆信源
最简单的序列信源是N=2的情况
2
X =X 1 X 2
信源的概率空间为
若每次取两个球,每次均放回。则该信源每次输出 两个符号作为一个消息,称为符号序列信源。
设消息x1 x1 :先后摸出红球;
消息x1x2:先摸出红球,后摸出白球;
消息x2 x1 :先摸出白球,后摸出红球;符号序列
消息x2 x2 :先后摸出白球。
无记忆信源
长度为2的符号序列信源的数学模型 其中
2.1.3 离散序列有记忆信源
发出单个符号的信源 发出符号序列的信源
指信源每次发出一 组含二个以上符号 的符号序列代表一 个消息.
第二章信源信息熵(第二讲)
第二章 信源与信息熵(第二讲)(2课时)主要内容:(1)信源的描述(2)信源的分类 重点:信源的分类,马尔可夫信源。
难点:信源的描述,马尔可夫信源。
作业:2.1, 2.2, 2.3说明:本堂课推导内容较多,枯燥平淡,不易激发学生兴趣,要注意多讨论用途。
另外,注意,解题方法。
多加一些内容丰富知识和理解。
2.1 信源的描述与分类在通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的,所以可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度——概率空间来描述信源。
信源:产生随机变量、随机序列和随机过程的源。
信源的基本特性:具有随机不确定性。
信源的分类离散信源:文字、数据、电报——随机序列 连续信源:话音、图像——随机过程离散信源:输出在时间和幅度上都是离散分布的消息。
消息数是有限的或可数的,且每次只输出其中一个消息,即两两不相容。
发出单个符号的无记忆信源离散无记忆信源: 发出符号序列的无记忆信源离散信源离散有记忆信源: 发出符号序列的有记忆信源发出符号序列的马尔可夫信源 概率论基础:无条件概率,条件概率和联合概率的性质和关系: 非负性0()()(/)(/)()1i j j i i j i j p x p y p y x p x y p x y ≤≤,,,, 完备性111111()1,()1,(/)1,(/)1,()1n m nijiji j i mm nji i j j j i p x p y p x y p yx p x y ===========∑∑∑∑∑∑11()(),()()n mijjijii j p x y p y p x y p x ====∑∑联合概率()()(/)()(/)()()()(/)()(/)()i j i j i j i j i j i j j i j i j i p x y p x p y x p y p x y X Y p x y p x p y p y x p y p x y p x =====当与相互独立时,,贝叶斯公式11()()(/)(/)()()i j i j i j j i nmijiji j p x y p x y p x y p y x p x y p x y ====∑∑,2.1.1 无记忆信源:例如扔骰子,每次试验结果必然是1~6点中的某一个面朝上。
10-11第二学期信息论作业题参考答案
第1讲2、信息论创始人是谁?香农。
3、信息和消息、信号有什么联系与区别?从信息理论角度上看,信号是消息的载体,信息含藏在消息之中,有信号有消息不一定有信息。
4、通信系统的主要性能指标是什么? 有效性、可靠性和安全性。
5、举例说明信息论有哪些应用?为信息传送和处理系统提供数学模型和评估方法,在通信和信息处理领域是一门基础理论,在其它领域如语言学、生物学、医学、神经网络、经济学方面的应用也很成功。
具体应用实例有:语音、图像和数据信息的压缩,通信信道有效性和可靠性的提高,或信道传输功率指标要求的降低,通信或计算机系统可靠性和安全性的提高,信息处理领域的信号重建和模式识别等。
2.4 (求车牌自信息量)某车牌号的概率是(1/26)3×(1/10)3,24bit/牌,后一种概率为(1/36)6,31bit/牌, 第2讲设二元对称信道的传递矩阵(条件概率矩阵)为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡32313132若P(0) = 3/4, P(1) = 1/4,求H(X), H(Y), H(X/Y), H(Y/X)和I(X;Y);先求P(Y)=∑X P(XY)和P(XY)=P(X)P(Y|X),再得各种熵和互信息。
H(X)=H(3/4,1/4), H(Y)=H(7/12,5/12);H(XY)=H(1/2,1/4,1/12,1/6); H(X/Y)=H(XY)-H(Y)H(Y/X)=H(XY)-H(X);或H(Y/X)=∑P(X=a)H(Y/a)=H(3/4,1/4) I(X;Y)=H(X)-H(X/Y)=H(X)+H(Y)-H(XY); 2.2(求条件信息量)1.6米以上女孩是条件,某个1.6米以上的女大学生是概率事件,得条件概率为:P=0.25×0.75/0.5=0.375=3/8,信息量为I= -log0.375=1.42比特。
2.52.10(1)(2)(由联合概率分布求熵、联合熵和条件熵)(1)思路:先求出X 、Y 、Z 、XZ 、YZ 、XYZ 的概率或联合分布,再求其熵。
信息论_连续信源和波形信道
∑ ∑ C
=
max p(x)
I (X; Y)
=
max p(x)
n i =1
I ( Xi ;Yi )
=
1 2
n i =1
log(1 +
PX i PNi
)
⇒ C = n log(1+ PX
)
=
n
log(1 +
σ
2 X
)
2
PN 2
σ
2 N
当且仅当输入随机矢量X中各分量统计独立,并且均 为高斯分布时达到信道容量。
p(x)
说明:加性连续信道的信道容量取决于噪声N(即 信道)的统计特性和输入随机变量X所受的限制条 件。对于不同的限制条件,连续随机变量具有不同 的最大熵值。
讨论平均功率受限下的高斯白噪声信道的信道容量。
[ ( )] ( ) C
=
max h(Y )− h(N ) =
p(x)
1 2
log
2πe
⎥⎦
∫ ∫ b p(x)dx = 1
+∞
p(x)dx = 1
a
−∞
5
1.1 连续信源的概率密度函数 pi = p( xi )Δ
连续随机变量X的取值分割成n个等宽区间,Δ=(b-a)/n。则
∫ P(a + (i −1)Δ ≤ X
≤ a + iΔ) =
a+iΔ a + (i −1) Δ
p( x)dx
⎟⎟⎠⎞ = W
log ⎜⎜⎝⎛1 +
PS PN
⎟⎟⎠⎞
bit / s
25
2.4 波形信道及其信道容量
单位时间的信道容量为 :
信息论基础2
回忆
信源分类;
离散信源、连续信源、波形信源
什么是信息?
通信所消除掉的不确定度是信宿所获得的 信息量。
自信息、信息熵的概念与计算;
I i log p i
H ( X ) p i lo g p i
i 1 m
1.3.1离散信道数学模型
信道是信息的传输媒体。这里存在噪声干 扰,也包含通信设备对信号的作用,是通信 系统最为复杂的部分。 在讨论信道中的信息传输规律这个主要问 题时,对实际信道抽象出三个简化模型: 1. 广义信道模型: 2. 符号映射模型: 3. 传输概率模型:
0和1在信道中的地位 对等,p为错传概率。 a1 a2
1-p p p 1-p
B.二元删除信道(BEC, Binary Erasure Channel)
接收端为三电平码, b3为删除码。 a1 a2
1-p
b1 b2
p q
1-q
b1
b3
b2
(3)有噪无损信道与无噪有损信道:
噪声与损耗都会造成误码。作为数学模型把二者
(6)平均互信息:
I(X;Y)=H(X)-H(X|Y)= 0.881 –0.8558=0.0252 bit/符号
课后复习题
思考题:
为什么说平均互信息是通信的净信息?
作业题:
教材第32页习题一第11、14题;
1.3.3 平均互信息的性质
1. 非负性
平均互信息不会是负值: I(X;Y)≥0
实际上,因为条件熵不大于无条件熵: H(X) ≥H(X|Y) 必然有:I (X;Y)=H(X)-H(X|Y) ≥0 表明通信总可以获得一些信息,至少是零信息, 不会是负信息。
b1 b2
有损信道
信源的数学模型及分类
第三次获得的信息量
I[P 3 ( x)] log2
1 1 log2 1 P ( x ) 1 2 3
电子信息工程学院
信息论
2.2 离散信源的信息熵
结论:
收到某消息获得的信息量 =不确定性减少的量 =(收到消息前某事件发生的不确定性) -(收到消息后关于该事件的不确定性) 自信息是指某一消息所含有的信息量,消息不同,所含有的 信息量也不同,不能用它作为整个信源的信息测度。
Y b1 P( y ) 0.5
b2 0.5
H ( X ) 0.99 log 0.99 0.01log 0.01 0.08(比特 / 符号) H (Y ) 0.5 log 0.5 0.5 log 0.5 1(比特 / 符号)
H (Y ) H ( X ) 可见 信源Y比信源X的平均不确定性要大。信息熵正好反映了信源输 出消息前,接收者对信源存在的平均不确定程度的大小,也反 映了信源随机性的大小。
单位:比特/符号。(底数不同,单位不同) 信源的信息熵H考虑的是整个信源的统计特性。它是从平均意义 上来表征信源的总体信息测度。 对于某特定的信源(概率空间给定),其信息熵是个确定的数值。 不同的信源因统计特性不同,其熵也不同。
电子信息工程学院
信息论
2.2.2 信源熵的物理意义
用什么作为整个信源的信息测度?
信息熵
电子信息工程学院
信息论
2.2 离散信源的信息熵
2.2.2 信息熵
各离散消息自信息量的数学期望,即信源的平均自信息量—— 信息熵。
n 1 H ( X ) E[ I (ai )] E[log2 ] p(ai ) log2 p(ai ) p(ai ) i 1
信息论基础总结
⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)()()()(2211I Ix q x x q x x q x X q X ΛΛ∑==I i ix q 11)(⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡)()()()(2211m q q q q x x x x x x X X m ΛΛ∏=Ni i x q 1)(第1章 信息论基础信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。
消息是能被人们感觉器官感知的客观物质和主观思维的运动状态或存在状态。
通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。
信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。
狭义信息论信息论研究的范畴: 实用信息论广义信息论信息传输系统信息传输系统的五个组成部分及功能:1. 信源 信源是产生消息的源。
2. 编码器 编码器是将消息变换成适合于信道传送的信号的设备。
编码器分为信源编码器和信道编码器两种。
3. 信道 信道是信息传输和存储的媒介,如光纤、电缆、无线电波等。
4.译码器 译码器是编码器的逆变换,分为信道译码器和信源译码器。
5. 信宿 信宿是消息的接收者,可以是人,也可以是机器。
离散信源及其数学模型离散信源—消息集X 为离散集合,即时间和空间均离散的信源。
连续信源—时间离散而空间连续的信源。
波形信源—时间和空间均连续的信源。
无记忆信源—X 的各时刻取值相互独立。
有记忆信源—X 的各时刻取值互相有关联。
离散无记忆信源的数学模型—离散型的概率空间:x i ∈{a 1,a 2,…,a k } 1≤i ≤I0≤q(x i )≤1离散无记忆N 维扩展信源的数学模型: x =x 1x 2…x N x i ∈{a 1,a 2,…,a k } 1≤i ≤Nq (x )=q (x 1x 2 … x N )=离散信道及其数学模型离散信道—信道的输入和输出都是时间上离散、取值离散的随机序列。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第7章 连续信源和波形信源主要内容◆ 连续/波形信源的统计特性 ◆ 连续/波形信源的信息度量 ◆ 连续信源的信息率失真函数7.1 连续/波形信源的统计特性图7.1 一个随机过程{}()x t111212121212()()()n n n p x t p x x t t p x x x t t t ⎧⎪⎪⎨⎪⎪⎩ ,,,,,,,,,,, 12121212()()12n n n n n n p x x x t t t p x x x t t t n τττ=+++=,,,,,,,,,,,,,,,,sin π(2)()2π(2)n n Ft n f t f F Ft n ∞=-∞-⎛⎫=⎪-⎝⎭∑12f F ⎛⎫⎪⎝⎭,信息论基础及应用21622f F ⎛⎫ ⎪⎝⎭, 12F∆=7.2 连续信源和波形信源的信息度量7.2.1 连续信源的差熵d ()()d X F x p x x=d ()()d Y F y p y y =111()[]()d x X F x p X x p x x -∞==⎰≤//(/)(/)Y X X Y p y x p x y2111111()()XY F x y p x y x y ∂=∂∂,//()()(/)()(/)XY X Y X Y X Y p xy p x p y x p y p x y ==()()d X Y Rp x p xy y =⎰ ()()d Y X Rp y p xy x =⎰⎥⎥⎦⎤⎢⎢⎣⎡=)(x p R X 并满足()d 1Rp x x =⎰(1){(1)}()d ()(12)i a i i a i p p a i x a i p x x p x i n ∆∆∆∆∆++-=+-+===⎰≤≤,,,1212()()()n n n X x x x p x p x p x P ∆∆∆⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦图7.2 概率密度分布第7章 连续信源和波形信源217(1)11()()d ()d 1n na i Δbi a i Δai i p x p x x p x x ∆++-=====∑∑⎰⎰()log ()log[()]()log ()()log n i i i i iii i i iiH X p p p x p x p x p x p x ∆∆∆∆∆=-=-=--∑∑∑∑()lim ()lim ()log ()lim(log )()()log ()d limlog n i i i n ibaH X H X p x p x p x p x p x x ∆∆∆∆∆→∞∆→∆→→==--=--∑∑⎰()()log ()d Rh X p x p x x =-⎰()()log ()d d (/)()(/)log (/)d d (/)()(/)log (/)d d RRRh XY p xy p xy x yh Y X p x p y x p y x x y h X Y p y p x y p x y x y=-=-=-⎰⎰⎰⎰⎰⎰()()(/)()(/)h XY h X h Y X h Y h X Y =+=+(/)()h X Y h X ≤或(/)()h Y X h Y ≤()()()h XY h X h Y +≤1()0a x b p x b ax b x a ⎧⎪=-⎨⎪><⎩≤≤, 11()log d log()b a h X x b a b a b a=-=---⎰πcos ||()2A x x p x x ⎧⎪=⎨⎪⎩≤取其他值信息论基础及应用218()[][][]π2π2ππ22ππ22π2π2π2π2ππ22ππ22cos ln cos d ln cos d cos ln cos d 2ln 2ln ln(1sin )(1sin )dsin 22ln ln(1sin )d(1sin )ln(1sin )d(1sin )222ln h X A x A x xA A x x A x x x A A A x A A A x x xA A A A x x x x A -------=-=--=--=---+=-+---++=-⎰⎰⎰⎰⎰⎰⎰2ln 22A A A-+π2π2()d 1p x x -=⎰12=A 即21=A ()1h X =奈特/自由度 ()()()I X Y h X h Y =-;222222()()()()1()2(1)x y y x x x y y x m y m y m x m p xy ρρδδδδ⎧⎫⎡⎤----⎪⎪=--+⎢⎥⎨⎬-⎢⎥⎪⎪⎣⎦⎩⎭221()()d ()2x x x p x p xy y x m δ∞-∞⎧⎫=--⎨⎬⎩⎭⎰()()log ()d )x h X p x p x x ∞-∞=-=⎰()()log ()d )y h Y p y p y y ∞-∞=-=⎰222222222222(/)()log (/)d d 2()()()1()2(1)(1)()() log e d d (1)log e 1212111x y x x x y y y y y h X Y p xy p x y x yx m y m x m p xy y m y m x yρρδρδδρδδρρρρ∞∞-∞-∞∞∞-∞-∞=-⎧⎡---⎪=-⎢⎨--⎢⎪⎣⎩⎫⎤--⎪+-⎥⎬-⎥⎪⎦⎭=-+---⎰⎰⎰⎰21⎛⎫- ⎪⎝⎭=()/h Y X =第7章 连续信源和波形信源2192222222()()log ()d d 2()()()1()log 2π2(1)(1)() log e d d (1)x y x x x x y y y h XY p xy p xy x yx m y m x m p xy y m x yρδδρδρδδρδ∞∞-∞-∞∞∞-∞-∞=-⎧⎡---⎪⎡=+-⎢⎨⎣--⎢⎪⎣⎩⎫⎤-⎪+⎥⎬-⎥⎪⎦⎭⎰⎰⎰⎰2222log e 121log 2π2111log 2πe x x ρδδρρρδδ⎛⎫⎡=+-+ ⎪⎣---⎝⎭⎡=⎣()()(/)I X Y h X h X Y =-==-;7.2.2 波形信源的差熵1212()()N N p p x x x y y y xy =1212111211112111()d d d d 1()()()d d ()()()d d ()(/)()()(/)()NN N N RN N N NRN N N N Rp x x xy y y x x y y p x p x x x p x x y y y y p y p y y y p x x y y x x p xy p y x p x p xy p x y p y =======⎰⎰⎰⎰⎰⎰1212112()()()log ()d ()()()log ()d (/)(/)()log (/)d d N RN RN N Rh X h X X X p x p x xh Y h YY Y p y p y y h Y X h Y Y X X X p p y x x yxy ==-==-==-⎰⎰⎰⎰11(/)(/)()log (/)d d N N Rh X Y h X X Y Y p p x y x yxy ==-⎰⎰()()(/)()(/)I X Y h X h X Y h Y h Y X =-=- ;(())lim ()N h x t h X →∞∆(())lim ()N h y t h Y →∞∆信息论基础及应用220(()/())lim (/)N h y t x t h Y X →∞∆(()/())lim (/)N h x t y t h X Y →∞∆(()())lim ()N I x t y t I X Y →∞∆;;12121312121()()()(/)(/)(/)N N N h X h X X X h X H X X h X X X h X X X X -==++++1212()()()()()N N h X h X X X h X h X h X =+++≤7.2.3 三种特殊连续信源的差熵)log()(a b X h -= 比特/自由度1111()()()0()Ni i Ni i i i N i i i x b a b a p x x b a ===⎧∈-⎪⎪-⎪=⎨⎪⎪∈-⎪⎩∏∏∏ 121()()()NN i i p x p x x x p x ===∏111112111()()log ()d 11logd d d ()()log () /N NN Nb b a a b b N NNa a iiiii i Ni i i h X p x p x xx x x b a b a b a N ====-=---=-⎰⎰⎰⎰∏∏∏ 比特自由度1()log ()2log()N i i i h X b a FT b a ==-=-∏)log(2)(a b F X h t -= 1e 0()00xa x ap x x -⎧>⎪=⎨⎪⎩≤1[]e d xa m E X x x a a-∞===⎰第7章 连续信源和波形信源22102002211()()log ()d e log e d 11log e d e d 11log log 1x xa a x x a a h X p x p x x xaa a x x xa a a a a a a a--∞∞--∞∞⎡⎤⎡⎤=-=-⎢⎥⎢⎥⎣⎦⎣⎦=⋅+=⋅+⋅=+⎰⎰⎰⎰22()()2x m p x σ⎛⎫-=- ⎪⎝⎭(22222()()log ()d ()()log d 2()()d ()d log e 21log e21log 2πe 2h X p x p x xx m p x x x m p x x p x x σσσ∞-∞∞-∞∞∞-∞-∞=-⎡⎤⎛⎫-=--⎥ ⎪⎝⎭⎦⎡⎤-=--+⋅⎢⎥⎣⎦==⎰⎰⎰⎰ ()d 1p x x ∞-∞=⎰和22()()d x m p x x σ∞-∞-=⎰。
1()log2πe 2h X P =N j i m X m X E j j i i ij ,,,, 21)])([(=--=μ111212122212N N N N NN R μμμμμμμμμ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦1/21/21111()exp ||()()(2π)||2||N N ij i i j j i j p x R x m x m R R ==⎡⎤=---⎢⎥⎣⎦∑∑ 1/21/211/21/2/21/2()()log ()d 11()log exp ||()()d d (2π)||2||log(2π)||log e2log[(2πe)||]1log(2πe)||2N N ij i i j j N N R i j N N N h X p x p x x p x R x m x m x x R R NR R R ∞-∞===-⎫⎤⎧⎡⎪=--⨯--⎨⎬⎥⎢⎣⎪⎩⎦⎭=+=⋅=⎰∑∑⎰⎰ 21||Ni i R σ==∏信息论基础及应用2222221/121()log 2πe()()2N NN i i N h X h X σσσ===∑7.3 最大差熵定理122()d 1()d ()()d p x x xp x x K x m p x x K ∞-∞∞-∞∞-∞==-=⎰⎰⎰求泛函数()()log ()d h X p x p x x ∞-∞=-⎰的极值。