第2讲 信息论基础和信号分析-NEW
信息论理论基础
N
M
j
) 1, p( xi | y j ) 1,
i 1 N
N
p( y
j 1
N
j
| xi ) 1, p( xi , y j ) 1
j 1 i 1
M j
M
(3)
p( x , y
i 1 i
) p( y j ), p( xi , y j ) p( xi )
H(x) 1
p 0
2013-10-26
1/2
1
22
3. 熵函数的性质
(1) 非负性 H(x) ≥0
H ( x ) - p( xi ) log p ( xi )
i 1 N
由于 0≤p(xi)≤1 所以 log p(xi) ≤0 因此有 H(x)≥0 (2) 对称性
H ( p1 , p2 ,... pn ) H ( pn , p1 , p2 ,... pn1 )
H (0.99, 0.1) H (0.5, 0.5)
H (0.25, 0.25, 0.25, 0.25)
H (0.99,0.01) H (0.5,0.5) H (0.25,0.25,0.25,0.25)
(1) 不确定程度与信源概率空间有关; (2) 若状态数相同,等概分布时不确定程度最大; (3) 等概分布时,状态数越多则不确定程度越大。
2.不确定性的度量——不确定程度
不确定程度可以直观理解为猜测某些随机事件的 难易程度。 【例】布袋中有100个小球,大小、重量、手感完 全相同,但颜色不同。从布袋中任取一球,猜测 其颜色。 A. 99个红球,1个白球; B. 50个红球,50个白球; C. 25个红球,25个白球,25个黑球,25个黄球。
信息论基础知识
信息论基础知识在当今这个信息爆炸的时代,信息论作为一门重要的学科,为我们理解、处理和传输信息提供了坚实的理论基础。
信息论并非是一个遥不可及的高深概念,而是与我们的日常生活和现代科技的发展息息相关。
接下来,让我们一同走进信息论的世界,揭开它神秘的面纱。
信息是什么?这似乎是一个简单却又难以精确回答的问题。
从最直观的角度来看,信息就是能够消除不确定性的东西。
比如,当我们不知道明天的天气如何,而天气预报告诉我们明天是晴天,这一消息就消除了我们对明天天气的不确定性,这就是信息。
那么信息论又是什么呢?信息论是一门研究信息的量化、存储、传输和处理的学科。
它由克劳德·香农在 20 世纪 40 年代创立,为现代通信、计算机科学、统计学等众多领域的发展奠定了基础。
在信息论中,有几个关键的概念是我们需要了解的。
首先是“熵”。
熵这个概念听起来可能有些抽象,但其实可以把它理解为信息的混乱程度或者不确定性。
比如说,一个完全随机的字符串,其中每个字符的出现都是完全不确定的,它的熵就很高;而一个有规律、可预测的字符串,其熵就相对较低。
信息的度量是信息论中的一个重要内容。
香农提出了用“比特”(bit)作为信息的基本度量单位。
一个比特可以表示两种可能的状态(0 或1)。
如果一个事件有8 种等可能的结果,那么要确定这个事件的结果,就需要 3 个比特的信息(因为 2³= 8)。
信息的传输是信息论关注的另一个重要方面。
在通信过程中,信号会受到各种噪声的干扰,导致信息的失真。
为了保证信息能够准确、可靠地传输,我们需要采用一些编码和纠错技术。
比如,在数字通信中,常常使用纠错码来检测和纠正传输过程中产生的错误。
信息压缩也是信息论的一个重要应用。
在数字化的时代,我们每天都会产生大量的数据,如图片、音频、视频等。
通过信息论的原理,可以对这些数据进行压缩,在不损失太多有用信息的前提下,减少数据的存储空间和传输带宽。
再来说说信息的存储。
信息论基础第二章PPT
8
则用转移概率矩阵表示为 0.25 0.75 p 0.6 0.4
也可用状态转移图表示为
0.75
0.25
0
1
0.4
0.6
9
其n长序列的联合分布为:
Pr { X n x n } Pr {( X 1 X 2 X n ( x1 x2 xn )} ( x1 )i 1 Pr ( X i 1 xi 1 | X i xi )
Pr {( X1 , X 2 , X n ) ( x1 , x2 xn )}
( x1, x2 xn ) n , n 1, 2
p( x1 , x2 xn )
唯一决定
4
无记忆信源
当 X1, X 2 X n 为相互独立的随机变量, 且服从相同的分布:
Pr ( X i x) p( x)
P(0 | 00) 0.8, P (1|11) 0.8, P (1| 00) P (0 |11) 0.2 P(0 | 01) P(0 |10) P (1| 01) P (1|10) 0.5
用转移概率矩阵表示为
11
0 0.8 0.2 0 0 0 0.5 0.5 P 0.5 0.5 0 0 0 0.2 0.8 0
1 k
1 k
Pr {( X t1 , X t2 , , X tm ) ( x1 , x2 ,, xm )} Pr {( X t1 k , X t2 k , , X tm k ) ( x1 , x2 xm )}
14
如果一个马氏过程是平稳的,则
Pr {X m xm | X m1 xm1 , X m2 xm2 ,, X1 x1} Pr {X m xm | X m1 xm1} Pr {X 2 xm | X1 xm1}
通信原理知识要点
通信原理知识要点第一章概论1 、通信的目的2 、通信系统的基本构成●模拟信号、模拟通信系统、数字信号、数字通信系统●两类通信系统的特点、区别、基本构成、每个环节的作用3 、通信方式的分类4 、频率和波长的换算5 、通信系统性能的度量6 、传码速率、频带利用率、误码率的计算第二章信息论基础1 、信息的定义2 、离散信源信息量的计算(平均信息量、总信息量)3 、传信率的计算4 、离散信道的信道容量5 、连续信道的信道容量:掌握香农信道容量公式第三章信道与噪声了解信道的一般特性第四章模拟调制技术1 、基带信号、频带信号、调制、解调2 、模拟调制的分类、线性调制的分类3 、 AM 信号的解调方法、每个环节的作用第五章信源编码技术1 、低通、带通信号的采样定理(例 5 - 1 、例 5 -2 )2 、脉冲振幅调制3 、量化:●均匀量化:量化电平数、量化间隔、量化误差、量化信噪比●非均匀量化: 15 折线 u 律、 13 折线 A 律4 、 13 折线 A 律 PCM 编码(过载电压问题- 2048 份)5 、 PCM 一次群帧结构( P106 )6 、 PCM 系统性能分析7 、增量调制 DM 、增量脉码调制 DPCM :概念、特点、与 PCM 的比较第六章数字基带信号传输1 、熟悉数字基带信号的常用波形2 、掌握数字基带信号的常用码型3 、无码间干扰的时域条件、频域条件(奈奎斯特第一准则)4 、怎样求“等效”的理想低通()5 、眼图分析(示波器的扫描周期)6 、均衡滤波器第七章数字调制技术1 、 2ASK 、 2FSK 、 2PSK 、 2DPSK 的典型波形图2 、上述调制技术的性能比较3 、 MASK 、 MFSK 、 MPSK 、 MDPSK 、 QPSK 、 QDPSK 、 MSK ( h=0.5 )、APK 的含义、特点4 、数字调制技术的改进措施第七章复用与多址技术1 、复用与多址技术的基本概念、分类、特点、目的(区别)2 、同步技术的分类、应用第九章差错控制技术1 、常用的差错控制方式( ARQ 、 FEC 、 HEC )、优缺点2 、基本概念3 、最小码距与检错纠错能力的关系4 、常用的简单差错控制编码(概念、特点、编写)5 、线性分组码:基本概念、特点6 、汉明码的特点6 、循环码●概念●码字的多项式描述、模运算、循环多项式的模运算●循环码的生成多项式●根据生成多项式求循环码的:码字、(典型)生成矩阵、监督多项式、(典型)监督矩阵较大题目的范围1 、信息量的度量2 、信道容量的计算3 、 13 折线 A 律 PCM 编码4 、均衡效果的计算5 、数字调制波形的绘制6 、 HDB3 编码、解码7 、循环码重点Part I 基础知识1. 通信系统的组成框图 , 数字 / 模拟通信系统的组成框图。
信息论基础教学课件ppt信息论基础概述信息论基础概论
§1.2.1 通信系统模型
例如,奇偶纠错 将信源编码输出的每个码组的尾补一个1或0 当传输发生奇数差错,打乱了“1”数目的奇偶性,就 可以检测出错误。
34
§1.2.1 通信系统模型
(a) 无检错
(b) 可检错 (奇校验) (c) 可纠错(纠一个错)
图1.4 增加冗余符号增加可靠性示意图
35
§1.2.1 通信系统模型
信源的消息中所包含的信息量 以及信息如何量度
核心 问题
29
§1.2.1 通信系统模型
编码器(Encoder)
编码器的功能是将消息变成适合于信道传输的信号 编码器包括:
信源编码器(source encoder) 信道编码器(channel encoder) 调制器(modulator)
信源编码器
信道编码器
调制器
功能:将编码器的输出符号变成适合信道传输的信号 目的:提高传输效率 信道编码符号不能直接通过信道输出,要将编码器的输 出符号变成适合信道传输的信号,例如,0、1符号变成 两个电平,为远距离传输,还需载波调制,例如,ASK, FSK,PSK等。
36
§1.2.1 通信系统模型
信道(channel)
13
§1.1.2 信息的基本概念
1949年,Weaver在《通信的数学》中解释香农的工 作时,把通信问题分成三个层次: 第一层:通信符号如何精确传输?(技术问题) 第二层:传输的符号如何精确携带所需要的含义?(语义问题) 第三层:所接收的含义如何以所需要的方式有效地影响行为? (效用问题)
14
§1.1.2 信息的基本概念
§1.1.2 信息的基本概念
信息的三个基本层次:
语法(Syntactic)信息 语义(Semantic) 信息 语用(Pragmatic)信息
2.信号分析与信息论基础(确定信号分析)
信号通过线性系统会引起变化,从传送信息的角度考虑 重要的是信号波形的变化。我们认为信号波形大小和时延的 变化不影响信号所带的信息(不失真)。因此我们定义通过线 性系统信号不失真的条件为:
信号不失真的时域的充分条件 在频域有: 信号不失真的频域的充分条件 (理想系统)
理想系统
理想系统的幅-频特性为一常数 k 即:
3分贝带宽 实际系统的幅频特性
实际频谱与有效频谱(有效带宽)
信号带宽
由于信道带宽不足导致数字信号错误
希 尔 伯 特 变 换 ---一种特殊而又有用的系统
希氏变换 希氏变换是完全在时域中进行的一种特殊的变换。也 可以看成它是由一种特殊的滤波器完成的。 为了便于理解变换特点,我们首先讨论这种变换在频 域中的规律(规则),然后再返回到时域来进一步认识它, 并且变换后信号以 表示,相应频谱以 表示。 希氏变换在本章最后窄带噪声统计特征分析中,以及线 性调制单边带生成过程中,均有非常重要的作用。
8. 信号通过线性系统
通信系统由许多部份组成,例如天线,放大器,信 道和调制解调器等。其中一些部份可看作是线性系统例 如信道放大器滤波器等。本节研究确定信号通过线性系 统并限于研究具有一个输入端和一个输出端的系统
一 个 输 入 信 号 x (t) 对 应 有 一 个 确 定 的 输 出 信 号 ( 响 应)y(t).将x (t)变换为y(t)的运算数学上称为算子以 L表示 则可表示为:
任一信号都可看成由某个频率范围内的频谱成分组成.
信号的频率特性对信号带宽和数据率等至关重要.
对信号频率特性的分析在频域(Frequency Domain)上进行.
在频域上表示信号的图象称为频域图. 频域图有最大振幅-频率和相位-频率两种图象. 在频域上进行信号分析通常比在时域上简便.
信息,消息,信号三者之间的关系
1.1.2信息、消息和信号的关系消息是表达客观物质运动和主观思维活动的状态,指报道事情的概貌而不讲述详细的经过和细节,以简要的语言文字迅速传播新近事实的新闻体裁,也是最广泛、最经常采用的新闻基本体裁,如文字、语言、图像等。
消息传递过程即是消除不确定性的过程:收信者存在不确定(疑问),收信前,不知消息的内容。
干扰使收信者不能判定消息的可靠性,收信者得知消息内容后,消除原先的“不确定”。
消息的结构:(一)标题(1)单行题(2)多行题;1.引题(眉题、肩题):交代背景。
2.主标题:概括主要新闻或消息。
3.副标题:补充说明主标题。
(二)导语:一般是对事件或事件中心的概述。
(三)主体:承接导语,扣住中心,对导语所概括事实作比较具体的叙述,是导语内容的具体化。
(四)背景:说明原因、条件、环境等。
(五)结语:或小结,或指出事情发展方向等。
消息的三个特点:真实性,实效性,传播性。
信息与消息的关系:形式上传输消息,实质上传输信息;消息具体,信息抽象;消息是表达信息的工具,信息载荷在消息中,同一信息可用不同形式的消息来载荷;消息可能包含丰富的信息,也可能包含很少的信息。
信号(也称为讯号)是运载消息的工具,是消息的载体。
从广义上讲,它包含光信号、声信号和电信号等。
例如,古代人利用点燃烽火台而产生的滚滚狼烟,向远方军队传递敌人入侵的消息,这属于光信号;当我们说话时,声波传递到他人的耳朵,使他人了解我们的意图,这属于声信号;遨游太空的各种无线电波、四通八达的电话网中的电流等,都可以用来向远方表达各种消息,这属电信号。
把消息变换成适合信道传输的物理量,如光信号、电信号、声信号和生物信号等,人们通过对光、声、电信号进行接收,才知道对方要表达的消息。
对信号的分类方法很多,信号按数学关系、取值特征、能量功率、处理分析、所具有的时间函数特性、取值是否为实数等,可以分为确定性信号和非确定性信号(又称随机信号)、连续信号和离散信号、能量信号和功率信号、时域信号和频域信号、时限信号和频限信号、实信号和复信号等。
第二章-信号分析与信息论基础
4、随机过程的数字特征 随机过程的数字特性,比如,随机过程的数学期望、
方差及相关函数等。 1)数学期望
随机过程ξ(t)的数学期望被定义为
可把t1直接写成t。随机过程的 数学期望被认为是时间t的函数。
2.1 确知信号分析
信号是通过电的某一物理量(如电压或电流)表 示出的与时间t之间的函数关系。 确知信号:能用函数表达式准确表示出来的信号。它 与时间的关系是确知的。 随机信号:与上述相反。
通信中传输的信号及噪声都是随机信号。
2.1.1 周期信号与非周期信号 周期信号:满足条件 s(t)=s(t+T0) -∞<t<∞,T0>0 非周期信号:不满足上述条件。 功率信号:信号在(0,T)内的平均功率S(式2-2)值为 一定值。 能量信号:当T→ ∞时,式(2-3)是绝对可积的。
解: Γ[COS ω0 t]= π[δ(ω- ω0)+ δ(ω+ω0)] 冲激 强度为π,根据卷积定理:
Γ[f(t)COS ω0 t] =(1/2 π)F(ω)* {π[δ(ω- ω0)+ δ(ω+ω0)] }
=(1/2) [F(ω- ω0)+ F(ω+ω0)]
2.1.3 信号通过线性系统
线性系统:输出信号与输入信号满足线性关系(允许
说,如果对于任意的n和τ,随机过程ξ(t)的n维概率
密度函数满足:
则称ξ(t)是平稳随机过程。
6、广义平稳过程 广义平稳概念:若一个随机过程的数学期望及方差 与时间无关,而其相关函数仅与τ有关,则称这个随
信息论基础第2章
第二章无失真信源与信息熵讲授思路1)按照“概念、描述、度量、分析、计算”10字方针逐步深入。
2)讲授步骤按照离散单个消息→离散消息序列↑↑离散化(纵向)连续单个消息→连续消息序列↑离散化(横向)连续消息过程重点熵H(U)—无失真单消息信源的度量值;概念、度量与计算互信息I(U;V)—单消息信宿的度量值;概念、度量与计算§2-1 信源特性与分类一)信源的统计特性1)什么是信源?信源是信息的来源,实际通信中常见的信源有:语音、文字、图像、数据…。
在信息论中,信源是产生消息(符号)、消息(符号)序列以及连续消息的来源,数学上,信源是产生随机变量U ,随机序列U 和随机过程U(t,ω)的源。
2)信源的主要特性信源的最基本的特性是具有统计不确定性,它可用概率统计特性来描述。
二)信源的描述与分类1)单消息(符号)信源:它是最简单也是最基本的信源,是组成实际信源的基本单元。
它可以用信源取值随机变量的范围U 和对应概率分布P(u)共同组成的二元序对[U,P(u)]来表示。
对离散信源⎪⎪⎭⎫⎝⎛====⎪⎪⎭⎫ ⎝⎛n i n i p p p u U u U u U P U 11 例:对于二进制数据、数字信源:U={0,1},则有⎪⎪⎭⎫ ⎝⎛=⎪⎪⎭⎫⎝⎛===⎪⎪⎭⎫ ⎝⎛==21,211,0,1,021p 101110p p p u u P U 当 对于连续变量信源()()⎪⎪⎭⎫ ⎝⎛=⎪⎪⎭⎫ ⎝⎛u p b a P U , 其中:[)()的概率密度为连续变量u ,01u p R U u ∞==∈ 2)实际信源实际信源在离散情况下是消息序列信源,在连续情况下是随机过程信源,它们分别代表数字与模拟信源。
①离散序列信源()()L l iL il i i U U U U U U U U U 2121简记==其中,i=1,2,…n 为每个消息(符号)取值的种类数 l =1,2,…L 为消息(符号)序列的长度应注意的是i 和l 是代表两个不同范畴的变量,表示不同的概念,切勿混淆。
信息理论基础知识点总结
信息理论基础知识点总结1.信息量信息量是表示信息的多少的一个概念。
在信息理论中,通常使用二进制对数函数来表示信息的量,这个函数被称为信息自由度函数。
它的表达式是I(x)=-log2P(x),其中x是一种情况,P(x)是x发生的概率。
信息量的单位是比特(bit),它表示传递或存储信息的最小单位。
当一种情况的概率越大,它所携带的信息量就越小;反之,概率越小的情况所携带的信息量就越大。
信息量的概念在通信、数据压缩和密码学等领域有着广泛的应用。
2.信息熵信息熵是表示信息不确定度的一个概念。
在信息理论中,熵被用来度量信息源的不确定性,它的值越大,信息源的不确定性就越大。
信息熵的表达式是H(X)=-∑p(x)log2p(x),其中X 是一个随机变量,p(x)是X的取值x的概率。
信息熵的单位也是比特(bit)。
当信息源的分布是均匀的时候,信息熵达到最大值;当某种情况的概率接近于0或1时,信息熵达到最小值。
信息熵的概念在数据压缩、信道编码和密码学等领域有着重要的作用。
3.信道信道是信息传递的媒介,它可以是有线的、无线的或者光纤的。
在信息理论中,通常使用信道容量来度量信道的传输能力,它的单位是比特每秒(bps)。
信道容量取决于信噪比和带宽,信噪比越大、带宽越宽,信道容量就越大。
在通信系统中,通过对信道进行编码和调制可以提高信道的传输能力,从而提高通信的可靠性和效率。
信息理论还研究了最大化信道容量的编码方法和调制方法,以及如何在有损信道中进行纠错和恢复等问题。
4.编码编码是将信息转换成特定形式的过程,它可以是数字编码、字符编码或者图像编码等形式。
在信息理论中,编码的目的是为了提高信息的传输效率和可靠性。
信息理论研究了各种类型的编码方法,包括线性编码、循环编码、卷积编码和码分多址等方法。
在通信系统中,通过使用合适的编码方法,可以提高信道的传输效率和抗干扰能力,从而提高通信的质量和可靠性。
综上所述,信息量、信息熵、信道和编码是信息理论的基础知识点。
信息论基础及其应用
信息论基础及其应用信息论,是关于信息量度、编码与传输的学科。
它的发展始于20世纪40年代,是通过信息熵和信息传输能力,对信息量度进行发掘和分析的一门学科。
在数字化和互联网时代,信息论的应用逐渐普及,例如数据压缩、信号处理、密码学、通讯技术等领域。
信息熵信息熵是信息论的核心概念之一。
熵通常被解释为度量一个系统内部状态的混乱程度,它同样适用于信息领域中。
信息熵可以看作是随机变量不确定性的度量,以信息比特(bit)为单位衡量不确定性的程度。
可以用熵来衡量一个银行账户的密码的强度,或一部手机的存储器大小的单位比特(bit)或兆比特(Mbit)。
熵越高,不确定性就越大。
信息传输在信息传输中,常见的需要考虑的问题有信道容量、错误控制和编码。
其中信道容量是衡量一个信道能够传输的最大信息速率,与噪声和信号品质有关。
例如,一个内存条可在秒级时间传输大量数据,而手机信道的容量相对较小,这是因为受到各种干扰的影响,例如人体障碍或高楼建筑等。
在错误控制方面,主要有纠错码和检错码。
为了确保信息传输的正确性,作为数据传输的一部分时,数据会被着一个表,以检查数据是否损坏,如果发现数据受损,则自动进入误差处理机制重新传输相关数据。
编码编码是在通信中将原始信息转化为一种能够通过信道或媒介传递的形式,且在传递过程中具有一定的容错能力的方法。
语音信号、图像、视频和数据等等都需要进行编码,在每个领域中有专门的编码规范和方法。
在这个过程中需要注意信息的压缩,以减少数据量,提高传输效率。
应用信息论和它的应用在现代科技中处于核心地位。
互联网和数字化时代给信息论的应用带来了巨大的发展,例如数据压缩,它被应用在各种媒介设备中,包括数码相机、数码化音频设备、移动设备和计算机等。
另一个例子是信号处理。
通过对信号进行分析,现代计算机、通讯设备和存储设备的速度和效能得到了大大的提高。
在通讯技术领域,高速模数转换技术(ADC)总是与光纤、卫星和无线通信网络相联系。
第二信息论基础ppt文档
H(x)=-log2(1/M)=log2M=log22N=N
RbM NRB 数字通信原理
2021年4月11日星期日
xn
p(xn)
其中
p(xi ) 1
i 1
数字通信原理
2021年4月11日星期日
离散信源的平均信息量
则x1、x2、…、xn所包含的信息量分别为 -log2P(x1) - log2P(x2) … -log2P(xn)。
数字通信原理
2021年4月11日星期日
离散信源的平均信息量
于是,每个符号所含信息量的统计平均 值,即平均信息量为
H(x)=0.25*log24+ 0.75*log2(4/3)=0.81
数字通信原理
2021年4月11日星期日
二元信号与其概率分布的关系
1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
§3 连续消息的信息量的度量
Ixloagp(1x)loagp(x)
n个码元的总信息量 I = n I x
数字通信原理
2021年4月11日星期日
离散信源的平均信息量
2、非等概离散消息的度量
❖符号集:
组成离散信息源的n个符号xi组成的集合 每个符号xi在消息中是按一定概率P(xi)独立出
现的,设符号集中各符号出现的概率:
x1 x2 p(x1) p(x2)
数字通信原理
2021年4月11日星期日
信息量和概率
❖由概率论可知,事件的不确定性可以用其出 现的概率来描述。
❖因此消息中所含的信息量I与消息出现的概率 P(x)间的关系式应反映如下规律:
LN2-信息论基础2
平
均
只
需要H∞
(X
)比
特
。
压
缩
比
极
限
可
达
到
H∞ (X ) H0 (X )
。
这பைடு நூலகம்
个
比
值
也
叫
信
源
的
效
率η,相应定义信源的冗余度为
R
=
1
−
η
=
H0(X) − H∞(X) H0 (X )
=
1
−
H∞ (X ) H0 (X )
实际信源的特征往往是:符号不等概,符号之间有很强的相关性。因此它
一定可以压缩,具体方法的压缩能力或许有区别,最大的压缩程度可由η或R衡
扣除了过去所有符号在XL上的贡献,只传送纯新的增量信息。如果我们只考 虑A个符号,即对于第L个输出符号,只扣除前A−1个符号的贡献,那么效率就
会低一些,平均每符号最少需要的比特数将是HA(X) H(XL|XL−1, · · · , XL−A+1)。
3
H2(X) = H(XL|XL−1)只考虑前一个符号的贡献;H1(X) H(X)只考虑单个 符号,不考虑相关性,但考虑了不等概特性;H0 (X )则连不等概都不考虑,即 不进行压缩。下面的不等式是显而易见的
办法,如课本上的例7.6.2。我们对此不作特别要求,只是再次重申一下信息论
的观点:
传输(或存储)序列{X1, X2, · · · , XL}(L非常大)所需要的比特数最少 是H(X1, X2, · · · , XL),折合到每个符号仅为:
H∞ (X )
lim
L→∞
H (X1 ,
X2, · L
·
第2讲 信息论基础和信号分析-NEW
则:
p( xi y j ) 1 1 I ( xi , y j ) log log log p( xi ) p( xi y j ) p( xi )
I ( x, y ) H ( x ) H ( x y ) H ( y ) H ( y x )
(bit s)
单位时间内实际传送信息量的大小为:
信号波形本身变化的速率(如脉冲信号的脉冲持
续时间及脉冲上升和下降边沿陡直的程度)
以时间函数描述信号的图象称为时域图 在时域上分析信号称为时域分析。
确定信号的频率特性
信号的每秒钟变化 的次数叫频率用赫 兹(Hz)作单位
信号还具有频率特性,可用信号的频谱函数来表示。 在频谱函数中,也包含了信号的全部信息量。 频谱就是频率的分布曲线,复杂振荡分解为振幅不 同和频率不同的谐振荡,这些谐振荡的幅值按频率 排列的图形叫做频谱。频谱是频率谱密度的简称。 频谱函数表征信号的各频率成分,以及各频率成分 的振幅和相位。 以频谱描述信号的图象称为频域图。 在频域上分析信号称为频域分析。
只要在接收者看来每一传送波形是独立等
概出现的,则一个波形所传递的信息量为: I =log21/P (bit) 其中, P---每一波形出现的概率 因 P=1/M,上式又可以写做: I =log2M (bit)
其中, M---传送的波形数
平均信息量的计算
非等概出现的离散消息的度量
符号集:
(3)
(2) (1.5)
-1
0 (-1) 1 2 3 4
t
问题
一般而言, 模拟信号是________? 数字信号是________?
确定信号的时间特性
表示信号的时间函数,包含了信号的全部信
信号分析方法概述
信号分析方法概述通信的基础理论是信号分析的两种方法:1 是将信号描述成时间的函数,2是将信号描述成频率的函数.也有用时域和频率联合起来表示信号的方法。
时域、频域两种分析方法提供了不同的角度,它们提供的信息都是一样,只是在不同的时候分析起来哪个方便就用哪个。
思考:原则上时域中只有一个信号波(时域的频率实际上是开关器件转动速度或时钟循环次数,时域中只有周期的概念),而对应频域(纯数学概念)则有多个频率分量。
人们很容易认识到自己生活在时域与空间域之中(加起来构成了三维空间),所以比较好理解时域的波形(其参数有:符号周期、时钟频率、幅值、相位)、空间域的多径信号也比较好理解。
但数学告诉我们,自己生活在N维空间之中,频域就是其中一维。
时域的信号在频域中会被对应到多个频率中,频域的每个信号有自己的频率、幅值、相位、周期(它们取值不同,可以表示不同的符号,所以频域中每个信号的频率范围就构成了一个传输信道.时域中波形变换速度越快(上升时间越短),对应频域的频率点越丰富.所以:OFDM中,IFFT把频域转时域的原因是:IFFT的输入是多个频率抽样点(即各子信道的符号),而IFFT之后只有一个波形,其中即OFDM符号,只有一个周期.时域时域是真实世界,是惟一实际存在的域。
因为我们的经历都是在时域中发展和验证的,已经习惯于事件按时间的先后顺序地发生.而评估数字产品的性能时,通常在时域中进行分析,因为产品的性能最终就是在时域中测量的。
时钟波形的两个重要参数是时钟周期和上升时间。
时钟周期就是时钟循环重复一次的时间间隔,通产用ns度量。
时钟频率Fclock,即1秒钟内时钟循环的次数,是时钟周期Tclock的倒数。
Fclock=1/Tclock上升时间与信号从低电平跳变到高电平所经历的时间有关,通常有两种定义。
一种是10—90上升时间,指信号从终值的10%跳变到90%所经历的时间。
这通常是一种默认的表达方式,可以从波形的时域图上直接读出。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
当消息是由几个符号组成的离散信源时,整
个消息信息量的计算公式为:
1 (各符号的出现 I 总 N i log p( xi ) 互相统计独立) i 1
其中:n:表示符号数; Ni:第i个符号在消息中出现的次数; p(xi):第i个符号xi在消息中出现的概率, n 且 p( xi ) 1
只要在接收者看来每一传送波形是独立等
概出现的,则一个波形所传递的信息量为: I =log21/P (bit) 其中, P---每一波形出现的概率 因 P=1/M,上式又可以写做: I =log2M (bit)
其中, M---传送的波形数
平均信息量的计算
非等概出现的离散消息的度量
符号集:
- log2P(x2)、…、-log2P(xn)。
于是,每个符号所含信息量的统计平均值,即平均信
息量为
其中称H (x)为信息源的熵,其单位为bit/符号
例题
例3:设有A、B、C、D四个消息分别以概率1/4、 1/8、1/8、1/2传送,假设它们的出现相互独立,试
求消息熵。
例4:试求二元离散信源的Hmax,并证明其正确性。 例5:黑白电视机的图象每秒传输25帧,每帧有625 行;屏幕的宽度与高度之比为4:3。设图象的每个 像素的亮度有10个电平,各像素的亮度相互独立,
功率信号
若f(t)在区间(-∞,+∞)的能量无限,但在 有限区间(-T/2,T/2)满足平均功率有限的 条件 T /2
1 2 P lim f (t )dt 0 T T T / 2
P<∞,则称为功率信号。
说明
周期信号是功率信号。
非周期信号既有能量信号,又有功率
信号。
连续信号和离散信号
如果在某一时间间隔内,对于一切时间值,
除若干不连续点外,该函数都能给出确定的 函数值,此信号称为连续信号。
f(t) f0 t 0 f(t)
f1
0 f2
t
连续信号和离散信号
和连续信号相对应的是离散信号。代表离散
信号的时间函数只在某些不连续的时间值上 给定函数值。
f(tk) (6) (4.5)
信号波形本身变化的速率(如脉冲信号的脉冲持
续时间及脉冲上升和下降边沿陡直的程度)
以时间函数描述信号的图象称为时域图 在时域上分析信号称为时域分析。
确定信号的频率特性
信号的每秒钟变化 的次数叫频率用赫 兹(Hz)作单位
信号还具有频率特性,可用信号的频谱函数来表示。 在频谱函数中,也包含了信号的全部信息量。 频谱就是频率的分布曲线,复杂振荡分解为振幅不 同和频率不同的谐振荡,这些谐振荡的幅值按频率 排列的图形叫做频谱。频谱是频率谱密度的简称。 频谱函数表征信号的各频率成分,以及各频率成分 的振幅和相位。 以频谱描述信号的图象称为频域图。 在频域上分析信号称为频域分析。
等概率出现的离散消息的度量:
若要传递的离散消息需采用一个M进制的波形来传送。
即传送M个消息之一者与传送M进制波形之一完全
等价的。
规定:传送两个等概的二进制波形之一的信息量
为1,单位为“比特”。即:
I =log21/(1/2)= log22=1(bit )
离散、无噪声数字信道的信道容量可表示为:
C 2B log2 M
(bit / s)
例7:若数字信道的带宽为3000Hz,采用四进制
传输,计算无噪声时该数字信道的信道容量。
离散有损信道的信道容量
收到yj的概率:
p( y j ) p( xi ) p( y j xi )
i
定义互概率:
x1
x2 P ( x n)
…
y1
y2
…
P ( y m)
xn
ym
离散信道的统计模型 当m=n时,为对称信道;
若前后码元输出符号无关,即输出符号只取决于当
前输入符号,而与前后输入符号无关,则为无记忆
信道;
Nyquist准则指出:带宽为B Hz的信道,所能传
送的信号的最高码元速率(即调制速率)为2B Bd。
由此可见,即使信道带宽无限增大,信道容 量仍然是有限的。
信道容量一定时,带宽W与信噪比S
/ N之
间可以彼此互换。
数字信道的信道容量 数字信道:离散信道,只能传送离散取值的数字信号 典型数字信道:平稳、对称、无记忆的离散信道 平稳: 对任何码元来说,Pe的取值相同 对称: 任何码元正确传输和错误传输的概率与其他码元 一样 错误传输时一个码元错成其他码元的概率都相同 无记忆 接收到的第i个码元仅与发送的第i个码元有关,而 与以前发送的码元无关。
重点:信号的分类与特征 难点: 1. 信号类型的区别于关系 2. 傅里叶级数的物理意义---频谱
确知信号和随机信号
信号可分为确知信号和随机信号两类。 确知信号:凡是能用函数表达式准确表示出来 的信号。【如正弦波】 确知信号分为周期信号和非周期信号。
随机信号:不能用函数表达式准确表示出来的
信息及其度量
信息的定义
信息可理解为消息中包含的有意义的内容。
不同的消息可以包含相同的信息,如,分别用语
言和文字发送的天气预报,所含信息内容相同。
信息的度量
传输信息的多少用“信息量”去衡量。 对接收者来说,事件越不可能发生,信息量就越
大;即信息量反映事件的不确定性。
信息量的计算
由概率论可知,事件的不确定性可以用其出现的
信号。【如噪声】
周期信号和非周期信号 周期信号:满足条件
s(t ) s(t T0 )
t , T0 0
即时刻t的信号与时刻t+T0的信号相同。 【例】正弦波
非周期信号:不满足周期信号条件的信号。
能量信号和功率信号
根据信号可以用能量式或功率式表示可分为 能量信号和功率信号。
早在本世纪20年代,奈奎斯特(Nyguist)和哈特莱(Hartley), 最早研究了通信系统传输信息的能力,并试图度量系统的信息 容量。 1948年香农发表讨论信源和信道特性的《通信的数学原理》(A Mathmatical Theory of Communication),次年发表有关通信 中噪声处理的两篇权威性论文,奠定了现代信息论的基础。
能量信号:能量积分是一定值,如 单个矩形脉冲、各类瞬变信号等 功率信号:能量无限,但平均功率 有限,如各种周期信号、常值信号、 阶跃信号等
能量信号
若f(t)表示在1欧姆电阻上的电压(V),则电流 i(t)=f(t)(A),在电阻上消耗的能量为
E
f 2 (t ) dt
如果E<∞,我们称f(t)为能量有限信号,简称 为能量信号; 若E>∞,则称为能量无限信号。
且等概出现,求电视图像给观众的平均信息速率。
连续消息的信息量的度量
连续消息的信息量可用概率密度来描述
连续消息的平均信息量(相对熵)为
式中 f(x)---连续消息出现的概率密度
§2 信 道 容 量
定义:指信道在单位时间内所能传送的最大信息量。 模拟信道的信道容量
Shannon定律:在信号平均功率受限的高斯白噪声信道中,
概率来描述。 因此消息中所含的信息量I与消息出现的概率P(x) 间的关系式应反映如下规律:
消息中所含的信息量I是出现该消息的概率P(x)的函数:
I=P(x)
消息的出现概率越小,它所含的信息量愈大;反之信
息量愈小,且当P(x)=1时,I=0。 若干个相互独立事件构成的消息,所含的信息量等于 各独立事件信息量的和,即: I[p(x1)p(x2)p(x3)…]=I[p(x1)]+I[p(x2)]+I[p(x3) ]+…
不难看出,若I与p(x)间的关系式为:
I= loga1/p(x)=-logap(x)
确定: a值 2 e 10 单 位
就可满足上述要求。
信息量的单位的确定取决于上式中对数底 a 的
换算公式 /
比特(bit) 奈特(nit) 哈特莱(Hartley)
1nit=1.44bit
1Hartley=3.22bit
(bit / s )
结论
提高信号与噪声功率之比能增加信道容量。 当噪声功率N∝0时,信道容量C趋于∞,这意味着 无干扰信道容量为无穷大。 增加信道频带(也就是信号频带)W并不能无限制 地使信道容量增大。当噪声为白色高斯噪声时,随 着W增大,噪声功率N= W n0 (这里n0为噪声的单边 功率谱密度)也增大,在极限情况下:
p( xi , y j ) p( xi ) p( y j xi ) p( y j ) p( xi y j )
则发送x收到y的熵为:
H ( y x ) p( xi , y j ) log p( y j xi )
i j
离散有损信道的信道容量
发送xi收到yj所获得的信息量定义为:
Rt RB H ( x ) H ( x y) Ht ( x ) Ht ( x y) C max Rt max Ht ( x ) Ht ( x y)
§3 信号分析
3.1
确知信号分析
能量信号与功率信号 信号的傅里叶变换
周期信号与非周期信号
3.2
随机信号分析
§3 信号分析
第二讲 信息论基础和信号分析
信息及其度量
信道容量
确知信号分析
随机信号分析
§1 信息论的出现
信息论是一门主要研究信息的传输和处理,并提出或探讨其普 遍性或规律性的科学。
二次大战后,维纳(Wiener)提出的“控制论”和香农(Shannon) 提出的信息论,是现化科学工程的里程碑。