通信系统原理 第一章

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模拟与数字信号
• 模拟信号:状态无限 状态无限,因此信号的时域表达式可以是时间 状态无限 时间 连续函数也可以是时间离散函数 连续函数 时间离散函数
f(t)
时间连续函数
f(t)
时间离散函数
t
来自百度文库
t
• 数字信号:状态有限 状态有限,因此信号的时域表达式可以是时间 状态有限 时间 连续函数也可以是时间离散函数 连续函数 时间离散函数 • 如:二进制的一可以是高电平,零低电平;同样一可以是 频率为f1的正弦波,零是频率为f2的正弦波
4. 通信系统的主要性能指标
• 性能指标 质量指标:是整个通信系统的综合评估 • 通信系统:有效性,可靠性,适应性,标准性,经济性, 可维护性和友好性 • 但从根本来说,通信系统的目的 目的是将信息从信源传递到 目的 信宿,因此可靠性(质量)和有效性(传输效率)是首 可靠性( 可靠性 质量)和有效性(传输效率) 先要考虑的。 • 模拟通信系统的评估:可靠性:发与收信号的差异程度---均方误差(噪声的影响,系统的不完善因素) 有效性:消息中所含的信息量,单位时间可传递的 信息量多少。 • 数字通信系统:信息传输速率和发生差错的概率(误码 概率)
通信系统的基本框图
• 一个P-TO-P通信系统的基本模型为:
source transmitter channel receiver sink
info
T
C
noise
R
基本定义和概念
• 结合系统模型介绍一些基本概念和定义 • 信源 信源:消息的产生----离散消息和连续消息 • 几个名词:消息(message),信息(information), 信号(signal) • Message:信源产生的信息的物理表现 • Information:消息的数学抽象(定义) Information: • Signal:传输的电信号,包含了消息。我们研究的重点 是电信号的传输。 • 信号和消息都是信息的物理体现。 • 离散信号源 离散信号源(digital source):消息可取状态(值)的 数目为有限个。 • 模拟信号源 模拟信号源(analog source):消息可取状态(值)的 数目为无限个。
info
T
C
noise
R
信号 处理
调制器
解调器
信号 处理
2. 通信系统的分类和通信方式
• • • • • • • • • • • 分类:随意性 按信源特征分:数字通信系统和模拟通信系统 按消息的物理特征分:电报,电话,图象等 按调制方式分:FM,PM,AM等 按传输媒介分:有线,无线等 按信号的复用方式分:FDM,TDM,WDM,CDM等 通信方式: 单工(simplex) 半双工(half-duplex) 全双工(full-duplex) 数字通信中的串序和并序传输方式
模拟与数字通信系统
• 数字通信系统 数字通信系统:传输数字消息的通信系统
Digital source transmitter channel receiver sink
info
T
C
noise
R
加密器
编码器
调制器
解密器
解码器
解调器
模拟通信系统
• 框图:
Analog source transmitter channel receiver sink
• 本课涉及的通信系统是指电或电子通信系统 • 通信:信息的传递过程,因此它包含了传输和交换 ---通信: 传输和交换
Transmission and switching
• 通信系统原理主要要解决的问题是:信息的传递,即通信传 通信系统原理主要要解决的问题是:

本章内容提要
• 给出通信原理课程的研究对象
第一章 序论
• 通信发展历史 通信发展历史:远古----非电通信
数字通信:旗语,烽火台(光通信?)等等
• 近代:电通信 1844 Morse;1876: Bell; 1894:Lodge(wireless); 近代:
1900:Marconi;1937:Reeves(PCM);1948:Shannon;1958:IC;60:Elect.Tel. Switching System;1965:Satellite;1972: Cellular Telephone(Motorola);1976:PC;80:Optical fiber;90:DWDM +SDH+Wireless;
3. 信息及度量
• 信息:消息中有意义部分。因此,我们可以对消息中信 息进行度量----信息量。 • 消息中所含的信息量I与该消息发生的概率P(x)有关, 其关系应满足以下条件: 1 I是P(x)的函数:I=I[P(x)] 2 P(x)越小 I越大 ;且P(x)=1则I=0 3 若干独立事件构成的消息,所含的信息量等于各独立 事件信息量之和: I[P(x1),P(x2),…]=I[P(x1)]+I[P(x2)]+…. 满足以上条件的函数-----对数函数: I=loga[1/P(x)]= - logaP(x) • 其中a=2, I 为bit; a=e, I为nit。
系统框图等
• 给出一些基本定义和概念
信息,消息,信号等
• 给出通信系统的基本类型和通信方式
模拟通信系统和数字通信系统等
• 给出通信系统的主要性能指标
通信系统的通信质量等
1. 通信系统的组成
• 通信的目的:保证消息(或信息)的传递,消息的种类多 种多样,不同的消息有不同的系统:电报,电话,数 据… • 典型的通信系统模型:point-to point communication system,将消息从一个点(信源)传送到一定距离以外的目 的地(信宿)。因此几乎所有的电子系统都是通信系统。 • 通信系统基本功能是消息的传递,本课程研究的主要 对象是信息传输的原理和问题----获得可以广泛应用的 通信系统分析和设计方法 • 我们不关心系统的具体实现,我们关心的是符合什么 样条件的通信系统是最佳的。
通信系统原理
• 教材:通信原理 周炯磐 周炯磐等著 • 主要参考书:通信原理 樊昌信等 • Digital and analog communication systems 5th
edition Leon W. Couch II
• 课时:68小时 68 • 先修课:高等数学,概率论与随机过程,信号 与系统,复变函数,线性代数等 • 授课方式:课堂教学 • 内容:通信传输系统基本原理
示例与信源的平均信息量
• 信息量的计算: • M个相互独立的消息等概率传输,每个消息的信息量 为: I=log2[1/(1/M)]=log2M bits • M=2,I=1bit • M=2k,I=k bits • 信源的平均信息量:信源所发出的每个消息所含信息 量的统计平均值:
H=ΣPjI j=Σ Pj log2(1/Pj) bits
码元速率和比特速率
• 码元 码元:信源发出的消息或代表每个消息的信号(符号) • 码元速率RB:信源每秒钟发出的码元数,单位波特 波特 码元速率 (Baud), 又称符号速率 符号速率(symbol rate),波特率 波特率 符号速率 • 信息速率 b(比特率,bit rate):信源每秒钟发出的 信息速率R 平均比特数。单位:bps or bit/sec • 码元速率和比特速率的关系:1个码元可以含多比特或 码元速率和比特速率的关系:1 小于1个比特的信息,因此一般情况下码元速率与比特 速率在数值上是不等的。 • 例:四进制等概分布情况下,一个码元含二比特的信 息量。在数值上 数值上我们有Rb =2RB. 数值上 二进制时,在等概情况下,Rb =RB。也就是说只有 。 在二进制等概分布时才有码元速率和比特速率在数值 数值 上相同。
H:信息源的熵(entropy)。H也可理解为信源中每个消息 所含的平均信息量。 H越大,每个消息的I越大。希望H最大,数学告诉我们只 有在消息等概分布时H为最大。
连续消息的信息量计算
• 可用概率密度函数来描述。连续消息源的平均信息量 为: H1(x)=-∞∫+∞f(x)log2[f(x)]dx Bit f(x)为连续消息的概率密度函数。 Ex.:suppose a digital source formed by four digits 0(1/8), 1(1/2),2(1/8),3(1/4). Find:a)the entropy of the source b)the information quantity for each digit. Sol.: H=1/8log2(8) + 1/2log2(2) + 1/8log2(8) + 1/4log2(4) =1.75bits I1=log8=3bits, I2=log2=1bit, I3=log8=3bits, I4=log4=2bits
差错率和信噪比
• 数字通信系统衡量传输消息的可靠程度:误码率或误 信率BER。 通信系统一般要求BER≤10-6,当BER≥10-3时通信 中断。 • 模拟通信系统衡量传输消息的可靠程度:信号与噪声 功率比(信噪比,S/N),单位dB 传输信号的保真程度
相关文档
最新文档