信息论基础第四章ppt

合集下载

数字通信原理4信息论基础1103页PPT文档

数字通信原理4信息论基础1103页PPT文档

xMy1,pxMy1 xMy2,pxMy2 ...xMyN,pxMyN
满足条件:
M i1
N j1pxiyj 1
2020/4/5
11
离散信源的联合熵与条件熵(续)
第四章 信息论基础
两随机变量的联合熵
定义4.2.3 两随机变量 X :x iy Y j,i 1 , 2 ,. M ; .j .1 , 2 ,,. N ..,
I[P(xM)]
H(X)
图4-2-1 符号的平均信息量与各个符号信息量间关系 的形象表示
2020/4/5
7
离散信源的熵(续) 示例:求离散信源
X: 0 1 2 3
pX: 38 14 14 18
的熵。
第四章 信息论基础
按照定义:
H X i4 1pxilopg xi 8 3lo8 3g 1 4lo1 4g 1 4lo1 4g 8 1lo8 1g
2020/4/5
6
4、离散信源的平均信息量:信源的熵
第四章 信息论基础
离散信源的熵
定义4.2.2 离散信源 X:xi,i 1 ,2 ,.N ..的,熵
H X iN 1p xilop x g i
熵是信源在统计意义上每个符号的平均信息量。
I[P(x1)]
I[P(x2)]
I[P(x3)]
I[P(x4)]
同时满足概率函数和可加性两个要求。
2020/4/5
4
离散信源信的息量(续)
第四章 信息论基础
定义 离散消息xi的信息量:
IPxi loP g1xiloP gxi
信息量的单位与对数的底有关:
log以2为底时,单位为比特:bit
log以e为底时,单位为奈特:nit

信息论基础2015-第四章

信息论基础2015-第四章

K 1
K , J k 0 j 0,1,, J 1
对称离散无记忆信道(II)
若一个信道既关于输入对称,又关于输出对称,即P中每一行都是第 一行的一个置换,每一列都是第一列的一个置换,则该信道是对称的 对一个信道的转移概率矩阵P按列划分,得到若干子信道,若划分出 的所有子信道均是对称的,则称该信道是准对称的 0.8 0.1 0.1 0.1 1 0.1 0.8 0 1 2
K 1 J ({Qk }) I ( X l;Y ) I ( X k ;Y ) Ql Qk Qk l 0 K 1 J 1 p( j | k ) I ( X k ;Y ) Ql p( j | l ) K 1 l 0 j 0 Qi p( j | i ) i 0 I ( X k ;Y ) (1 )
K–1
二进制删除信道(BEC)
1–p–q 0 q E q
0 Q0 = Q1 = 0.5
p p
1
C I X 0; Y I X 1; Y
1 p q log 1 p q q p q log p log 1 q / 2 1 q / 2 q
幅度离散,时间离散信道;
幅度连续,时间离散信道;
幅度连续,时间连续信道; 幅度离散,时间连续信道。
按输入/输出之间的记忆性
有记忆信道 无记忆信道
按其输入/输出信号的关系的确定性:
确定信道
随机信道
信道的抽象模型
输入/输出统计关系 输入量X (随机过程) 信道 输出量Y (随机过程)
H (Y ) H (Y1Y2 Yn ) H (Y1 ) H (Y2 | Y1 ) H (Y3 | Y1Y2 ) H (Yn | Y1Y2 Yn1 )

《信息论基础》课件

《信息论基础》课件

2
信息论与数学中的概率论、统计学、组合数学等 学科密切相关,这些学科为信息论提供了重要的 数学工具和理论基础。
3
信息论与物理学中的量子力学、热力学等学科也 有密切的联系,这些学科为信息论提供了更深层 次的理论基础。
信息论未来发展趋势
信息论将继续深入研究量子信 息论和网络信息论等领域,探 索更高效、更安全的信息传输
和处理技术。
随着人工智能和大数据等技 术的快速发展,信息论将在 数据挖掘、机器学习等领域
发挥更大的作用。
信息论还将继续关注网络安全 、隐私保护等问题,为构建安 全可靠的信息社会提供重要的
理论支持。
2023
REPORTING
THANKS
感谢观看
海明码(Hamming Code): 一种能够纠正一位错误的线性 纠错码。
里德-所罗门码(ReedSolomon Code):一种广泛 应用于数据存储和通信领域的 强纠错码。
差错控制机制
前向纠错(FEC)
01
在发送端采用纠错编码,使得接收端能够自动纠正传输过程中
的错误。
自动重传请求(ARQ)
02
接收端检测到错误后请求发送端重传数据,直到接收正确为止
常见信道编码技术
线性分组码
将信息序列划分为若干组,对每组进行线性 编码,常见的有汉明码、格雷码等。
循环码
将信息序列进行循环移位后进行编码,常见的有 BCH码、RS码等。
卷积码
将信息序列进行卷积处理后进行编码,常见 的有Convolutional Code等。
2023
PART 04
信息传输与错误控制

混合纠错(HEC)
03
结合前向纠错和自动重传请求,以提高数据传输的可靠性和效

信息论基础线性分组码PPT

信息论基础线性分组码PPT

设码字x5 (x0 , x1, x2 , x3, x4 ), 可得 信息位 码字
00 00000 01 01101 10 10111 11 11010
x2
x3
x0 x0
x1
x4 x0 x1
20
线性分组码的基本概念
改写为
1 1
x0 x0
1 0
x1 x1
1 x2 0 0 x2 1
二战期间在路易斯维尔大学当教授,1945年参加曼哈顿计划, 负责编写电脑程式,计算物理学家所提供方程的解。该程式 是判断引爆核弹会否燃烧大气层,结果是不会,于是核弹便 开始试验。
1946至76年在贝尔实验室工作。他曾和约翰·怀尔德·杜奇、 克劳德·艾尔伍德·香农合作。1956年他参与了IBM 650的程 式语言发展工作。
码字无关!
记S= en·HT ,称之为接收序列rn的伴随式.
36
线性分组码的译码
(n,k)线性分组码的校验矩阵,用列向量
表出:
h1,1
h1,2
H
h2,1
h2,2
h1,n
h2,n
h1
h2
hn
hnk
,1
hnk ,2
hnk
,n
其中,hn-i为H矩阵的第i列.
37
线性分组码的译码
设en=(e1, e2,…,en)=(0,…,ei1,0,…,ei2,0,…, ei3,0,…,eit,0,…,0)
信息位 码字
00 00000
1(01) 1(10) 11
01 01101 10 10111
f (11) 11010
11 11010
1(01101) 1(10111) 11010
f (1(01) 1(10)) 1(01101) 1(10111)

信息论基础 ppt课件

信息论基础  ppt课件
他认为“信息是事物运动状态或存在 方式的不确定性的描述”。
ppt课件
(2)信息与消息和信号的区别
在通信中对信息的表达分为三个层次:信号、消息、信 息。
信号:是信息的物理表达层,是三个层次中最具体的层 次。它是一个物理量,是一个载荷信息的实体,可测量、
可描述、可显示。如电信号、光信号等。
消息:(或称为符号)是信息的数学表达层,它虽不是一 个物理量,但是可以定量地加以描述,它是具体物理信 号的进一步数学抽象,可将具体物理信号抽象为两大类 型: 1) 离散(数字)消息,是一组未知量,可用随机序列来 描述:U=(U1…Ui…UL) 2) 连续(模拟)消息,也是未知量,它可用随机过程来 描述:U(t,ω)
ppt课件
学习方法
本课程以概率论为基础,数学推导较多,学 习时主要把注意力集中到概念的理解上,不要 过分追求数学细节的推导。学习时一定要从始 至终注意基本概念的理解,不断加深概念的把 握。学习时注意理解各个概念的“用处”,结 合其他课程理解它的意义,而不要把它当作数 学课来学习,提倡独立思考,注重思考在学习 中的重要性。
信息论--基础理论与应用
北京理工大学 信息与电子学院 2014年3月
ppt课件
课程类型:专业选修课 学 时:32学时 授课时间:第一周----第八周 考试时间:第九周 教 材:《信息论—基础理论与应用》,傅祖芸,电子工业出版社 参考教材:
①《信息论与编码》,陈运,电子工业出版社 ②《应用信息论基础》,朱雪龙,清华大学出版社 ③《信息论与编码学习辅导及习题详解》傅祖芸,电子工业出版社
ppt课件
信息论
信息论已经成为现代信息科学的一个重要组成部分,它 是现代通信和信息技术的理论基础。现代信息论又是数 学概率论下的一个分支,与遍历性理论、大偏差理论以 及统计力学等都有密切关系,因此信息论已成为大学诸 多专业的必修课和选修课,并不再局限于已有的通信工 程、电子工程、信息工程等专业。

信息论基础与编码课件第四章 信息率失真函数

信息论基础与编码课件第四章 信息率失真函数

同样,可得Pij时的平均互信息为 I''(X;Y)0.37b9i/t符号
从此例我们可以看到,若固定P(x)不变时,平均互信息量随信
道的转移概率的变化而变化。这是因为信道受到干扰的作用 不同,传递的信息量也不同。可以证明这样一个结论:P(x)一 定时,平均互信息量I(X;Y)是关于信道的转移概率的下凸函数, 即存在一极小值。
m × n个 p i j 的值,代入平均失真的公式中,可解出随S参数值变
化的D值,即
D (S ) p ip j id ij p ip ij ie S d ijd ij (4-16)
ij
ij
25
离散信源的R(D)函数及其计算(续)
信源的信息率失真函数R(D)为
R (S ) i
j
pi p j i e Sdij
源输出符号序列 X (X 1 ,X 2 , ,X L ) ,其中L长符号序列样
值 Y(Y 1,Y 2, ,Y L) ,经信源编码后,输出符号序
列 x i (x i1 ,x i2 , ,x iL )
,其中L长符号序列样
值 y i (y i1 ,y i2 , ,y iL ),则失真函数定义为:
1L
dL(xi,yj)Ll1d(xil,yjl)
其中d(xil,yjl)是信源输出L长符号样值 x i 中的第l个符号xil时,
编码输出L长符号样值 中的y i 第l个符号yjl的失真函数。
7
平均失真
定义平均失真度为失真函数的数学期望,即 d ( xi , yj ) 在 X 和 Y的 联合概率空间 P(XY ) 中的统计平均值
nm
D E [d (x i,y j)] p (x i)p (y j|x i)d (x i,y j) (4-4) i 1j 1

信息论基础教学课件ppt信息论基础概述信息论基础概论

信息论基础教学课件ppt信息论基础概述信息论基础概论
33
§1.2.1 通信系统模型
例如,奇偶纠错 将信源编码输出的每个码组的尾补一个1或0 当传输发生奇数差错,打乱了“1”数目的奇偶性,就 可以检测出错误。
34
§1.2.1 通信系统模型
(a) 无检错
(b) 可检错 (奇校验) (c) 可纠错(纠一个错)
图1.4 增加冗余符号增加可靠性示意图
35
§1.2.1 通信系统模型
信源的消息中所包含的信息量 以及信息如何量度
核心 问题
29
§1.2.1 通信系统模型
编码器(Encoder)
编码器的功能是将消息变成适合于信道传输的信号 编码器包括:
信源编码器(source encoder) 信道编码器(channel encoder) 调制器(modulator)
信源编码器
信道编码器
调制器
功能:将编码器的输出符号变成适合信道传输的信号 目的:提高传输效率 信道编码符号不能直接通过信道输出,要将编码器的输 出符号变成适合信道传输的信号,例如,0、1符号变成 两个电平,为远距离传输,还需载波调制,例如,ASK, FSK,PSK等。
36
§1.2.1 通信系统模型
信道(channel)
13
§1.1.2 信息的基本概念
1949年,Weaver在《通信的数学》中解释香农的工 作时,把通信问题分成三个层次: 第一层:通信符号如何精确传输?(技术问题) 第二层:传输的符号如何精确携带所需要的含义?(语义问题) 第三层:所接收的含义如何以所需要的方式有效地影响行为? (效用问题)
14
§1.1.2 信息的基本概念
§1.1.2 信息的基本概念
信息的三个基本层次:
语法(Syntactic)信息 语义(Semantic) 信息 语用(Pragmatic)信息

大学计算机基础第3版参考课件-第07讲-信息论基础

大学计算机基础第3版参考课件-第07讲-信息论基础
——《菜根谭》
信言 息
人言吾心自悟之
3
信息
什么是信息? 信息的定义
信息是客观存在的表现形式,是事物之间相互作用的 媒介,是事物复杂性和差异性的反映。。
香农(Claude Elwood Shannon)
信息是用来消除随机不定性的东西 信息是事物运动状态或存在方式的不确定性的描述
作为一个严谨的科学术语,信息的定义 却不存在一个统一的观点,这是由它的 极端复杂性决定的。
=−
信息熵:事件集的平均信息量
H = −∑
比特:
用于传递 消息的 0/1数量
6
例4-3~4-6的理解
比特:用于传递消息的0/1数量
7
4
信息
“信息是用来消除随机不定性的东西”
盛夏预报:明天无雪
B
A
C
盛夏预报:明天有雪
获得信息量为0 获得信息量巨大
5
信息量的定义
P(x ) 表示消息x发生的概率,I(x ) 表示信息量
I 和P 的关系满足5个条件(教材P84),重点理解:
(4) I 和P 成反比;(5) P=1时,I=0,P=0时,I=
大学计算机基础
第4章 信息编码及数据表示
1
信息论基础(4.1节)
信息是一个新词? 音信消息
宋 陈亮 《梅花》
“欲传春信息,不怕雪埋藏。”
得快,旬日便知信息。”
巴金 《家》
“二表哥的事情怎样了?为什么连信息也不给我一个?”
2
事理因人言而悟者,有悟还 有迷,不如自悟之了了

信息论基础详细ppt课件

信息论基础详细ppt课件

1928年,哈特莱(Hartley)首先提出了用对数度量信
息的概念。一个消息所含有的信息量用它的可能值
香农
的个数的对数来表示。
(香农)信息: 信息是事物运动状态或存在方式的不确定性的描述。 可运用研究随机事件的数学工具——概率来测度不确定性大小。 在信息论中,我们把消息用随机事件表示,而发出这些消息的信 源则用随机变量来表示。
2.1 自信息和互信息
2.1.1 自信息
随机事件的自信息量 I (xi ) 是该事件发生概率 p(xi ) 的函数,并且应该满 足以下公理化条件:
1. I (xi )是 p(xi )的严格递减函数。当 p(x1)p(x2) 时,I(x1)I(x2),概率 越小,事件发生的不确定性越大,事件发生后所包含的自信息量越大
事件 x i 的概率为p(xi ) ,则它的自信息定义为:
I(xi)d eflogp(xi)logp(1xi)
从图2.1种可以看到上述信息量的定义正 是满足上述公理性条件的函数形式。I (xi ) 代表两种含义:当事件发生以前,等于 事件发生的不确定性的大小;当事件发 生以后,表示事件所含有或所能提供的 信息量。
2.极限情况下当 p(xi )=0时,I(xi);当 p(xi ) =1时,I (xi ) =0。
3.另外,从直观概念上讲,由两个相对独立的不同的消息所提供的 信息量应等于它们分别提供的信息量之和。 可以证明,满足以上公理化条件的函数形式是对数形式。
定义2.1 随机事件的自信息量定义为该事件发生概率的对数的负值。
我们把某个消息 x i 出现的不确定性的大小,定义为自信息,用这
个消息出现的概率的对数的负值来表示:I(xi)lop(g xi)
自信息同时表示这个消息所包含的信息量,也就是最大能够给予 收信者的信息量。如果消息能够正确传送,收信者就能够获得这 么大小的信息量。

信息论基础教学课件ppt-连续信息与连续信源

信息论基础教学课件ppt-连续信息与连续信源
北京邮电大学信息论
信息论基础
第4章
连续信息与连续信源
1
本章主要内容
4.1 连续随机变量集合的熵
4.1.1 4.1.2 4.1.3 4.1.4
连续随机变量的离散化 连续随机变量的熵 连续随机变量差熵的性质 连续随机变量的相对熵
4.2 离散时间高斯信源的熵
4.2.1 4.2.2 4.2.3 4.2.4
55
4.6.2 语音信源
●语音(Speech)是指人所发出的声音 ●语音功率谱频率范围通常从500到4kHz,按每 倍频程8到10dB速率衰减。 ●语音信号的剩余度表现在如下几方面: (1)语音信号样本间相关性很强。 (2)浊音具有准周期性; (3)声管形状及其变化的速率较慢; (4)数字语音码符号的概率不均匀。
,则
(4.21b)
即经过平移和旋转变换后的连续信源的差熵不变。
17
4.1.4 连续随机变量的相对熵
与离散情况类似,我们可以定义连续随机变量的
相对熵(信息散度)。设p和q为定义在同一概率 空间的两个概率密度,定义p相对于q的相对熵为:
(4.23)
18
4.2 离散时间高斯信源的熵
4.2.1 一维高斯随机变量的熵 4.2.2 多维独立高斯随机矢量的熵 4.2.3 多维相关高斯随机矢量的熵 4.2.4 高斯马尔可夫过程的熵率
率密度,其协方差矩阵也为 根据定理4.2(散度不等式)有 所以:
34
§4.3.2 限功率最大熵定理
证明(续)
所以: 上面利用了两概率分布具有相同的自协方差矩阵的 条件,其中 仅当 为高斯分布时等式成立。证毕。
35
§4.3.4 熵功率
限功率最 大熵定理
熵功率:
(4.50 )

信息论基础教学课件ppt-离散信源

信息论基础教学课件ppt-离散信源
11
3.1.4 离散平稳信源数学模型
l 信源X具有有限符号集 l 信源产生随机序列 l 对所有
有 则称信源为离散平稳信源,所产生的序列为平稳序列。
• 12
3.1.4 离散平稳信源数学模型
平稳序列的统计特性与时间的推移无关
•Page 13
3.1.4 离散平稳信源数学模型
n 例3.2 一平稳信源X的符号集A={0,1},产生随机序列{xn}, 其中P(x1=0)=p, 求P(xn=1)(n >1)的概率。 解: 平稳性
数就是消息长度。
如果消息构成满树,消息概率也满足归一化条件,
这时消息集中的消息可视为某个信源的输出。这个
信源称为信源X的变长扩展源
19
3.2.2 变长消息扩展
如果消息树是全树
就对应着信源的等长扩展。所以等长扩展可以视为 变长扩展的特例。
20
3.2.2 变长消息扩展
什么消息集可以作为某信源的扩展?
7
单符号离散无记忆信源
n 例3.1 一个二元无记忆信源,符号集 A={0,1}, p为X=0
的概率,q为X=1的概率,q=1-p;写出信源的模型。 解:信源的模型
•8
3.1.2 离散无记忆信源的数学模型
多维离散无记忆信源数学模型:
Xi的符号集 的符号集
9
3.1.2 离散无记忆信源的数学模型
因为信源是无记忆的,所以:
●网格图 每时刻的网格节点与马氏链的状态一一对应
●状态转移图 状态转移图与矩阵有一一对应关系
47
3.4.2 齐次马氏链(3)
例3.8 一个矩阵,验证此矩阵对
=1
应一个齐次马氏链的转移概率矩
=1
阵并确定此马氏链的状态数

信息论基础-第4章信息论基础1

信息论基础-第4章信息论基础1

研究目的——信息传输系统最优化
1.可靠性高 使信源发出的消息经过信道传输后,尽可能准确地、 不失真地再现在接收端。
2.有效性高 经济效果好,用尽可能短的时间和尽可能少的设备来 传送一定数量的信息。
往往提高可靠性和提高有效性是矛盾的。
3. 保密性 隐蔽和保护通信系统中传送的消息,使它只能被授
权接收者获取,而不能被未授权者接收和理解。
★信息论研究的对象、目的和内容
研究对象——通信系统模型
信 源 消息 编码器 信号 信 道
干扰
噪声源
译码器 消息 信 宿
1. 信息源:简称信源 信源是产生消息和消息队列的源。如电视直播厅,广 播室,人等等。
特点:信源输出的消息是随机的、不确定的,但有一 定的规律性。
2. 编码器:
编码器是把消息变换成信号的措施,编码器输出的 是适合信道传输的信号。
定理4.2.5 熵函数 H X 是概率 px1, px2 ,..., pxN
的型凸函数。
定理4.2.6 当离散信源X取等概分布时,其熵 H X 取最大值。
max
H px1 ,
px2
,...,
pxN
H
1 N
,
1 Ng 1 log 1
i1 N
N
N
即:当信源取等概分布时,具有最大的不确定性。
(1) f ( p应i ) 是先验概率 的P(x单i ) 调递减函数,

P(x1)时 P,(x2 )
f [P(x1)] f [P(x2)]
(2) 当 P(xi )时,1
f ( pi ) 0
(3) 当 P(xi )时 0, f ( pi )
(4) 两个独立事件的联合信息量应等于它们分

信息论基础ppt课件

信息论基础ppt课件
计算:
(a) H ( X , Y ) , H ( X ) , H ( Y ) , H ( X |Y ) , H ( Y |X ) , I ( X ; Y ) ;
(b)如果q(x,y)p(x)p(y)为两个边际分布的乘积分布,计 算 D( p Pq) 和 D(q P p)。
解:
(a )
H (X ,Y ) 1 lo g 1 1 lo g 1 1 lo g 1 5 lo g 5 44441 21 21 21 2
1 p(X)
可见熵是自信息的概率加权平均值
引理 1.2.1 H(X) 0,且等号成立的充要条件是 X 有退化分布。
例题 1.2.1 设
1
X


0
依概率 p 依概率 1 p
则 H ( X ) p l o g p ( 1 p ) l o g ( 1 p ) h ( p ) 。
I (x) log 1 。 p(x)
1.2 熵、联合熵、条件熵
X 定义 1.2.1 离散随机变量 的熵定义为
H(X)p(x)logp(x) x
e 我们也用 H ( p ) 表示这个熵,有时也称它为概率分布 p 的熵,其中对
数函数以2为底时,熵的单位为比特(bit),若对数以 为底时,则熵的
图1.1 通信系统模型
第一章 随机变量的信息度量
1.1 自信息 1.2 熵、联合熵、条件熵 1.3 相对熵和互信息
1.1 自信息
定理1.1.1


定义 1.1.1
若自信息I ( x ) 满足一下5个条件:
( i ) 非复性:I(x) 0;
( i i ) 如 p(x) 0, 则 I(x) ;

信息论基础-高等教育出版社-叶中行

信息论基础-高等教育出版社-叶中行
i=1 n
定义1.3.3 设随机变量X,Y,Z的联合分布为 p( x, y, z ),则给定Z 条件下X 和Y的条件互信息为
(x, y | z) p I(X ; Y | Z )= p( z ) (x, y | z)log p (x | z)(y | z) p p zZ x y
易验证以下关系式成立 I(X ; Y | Z )=H(X | Z )-H(X | Y , Z ) =H(Y | Z )-H(Y | X , Z ) =H(X | Z )+H(Y | Z )-H(X , Y | Z ) =I(Y ; X | Z )
信源
信源编码器 等效信源 等效信宿
信道编码器
等效干扰 信道
信 道
信道译码器
干 扰 源
信宿
信源译码器
信息传输系统模型
1.信源 产生消息的源。 2. 编码器 将消息变成适合于信道传送 的信号的设备。 信源编码器,提高传输效率 编码器 信道编码器,提高传输可靠性 3. 信道 信息传输和存储的媒介 4. 译码器 译码是编码的逆变换,分为 信道译码和信源译码。 5. 信宿 消息的接收者。


自信息:信源发出的某个信号所含的信息 量,记为 I ( x) 自信息与信号发生概率之间关系
(1) x 的概率越大,其发生的可能性越大,
不确定性越小,I ( x)应当越小
(2) 信源连续独立发出两个信号x,y,它们的 联合分布 p(x,y)=p(x)p(y),则x,y的自信息 是它们各自信息量之和,即I(x,y)=I(x)+I(y)
y
P {Y = y | X = x}, x , y
r
表示条件概率分布,则给定X = x条件下的熵
而给定随机变量X 条件下Y的熵记为H Y | X),它 ( 是H Y | X x)关于X 的平均值, (
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。


J
j =1
pj
例:BSC信道容量
C = log g 2 + ε log g ε + (1 ( − ε ) log(1 g( − ε ) = 1 − h(ε )
取得该容量的输入分布为 p ( X = 0) = p ( X = 1) = 0.5
准对称信道
BEC信道不是对称信道,但该信道有明显的对称性! 信道不是对称信道 但该信道有明显的对称性 BEC 可以分解为如下两个对称信道:
j =1 J
,..., , pJ 是离开每个节点的转移概率集合,也是转移 其中 p1 , p2 , 矩阵每行的元素集合
1 离散输入对称信道 1.
证:
H (Y | X = k ) = −∑ p j log p j
j =1 J
H (Y | X ) = ∑ p ( X = k ) H (Y | X = k )
X1 信道1 P(j|k)
Y1
X2 信道2 P(j‘|k’)
Y2
和信道
单位时间内可随机选用信道1和信道2中的一个,选用 信道1的概率为p1,选用信道 选用信道2的概率为p2, p1 +p2=1 输入空间X=X1+X2, Y=Y1+Y2,
I(X ;Y ) = +
x1 , y1

p1 p ( x1 ) p ( y1 | x1 ) log
⎡1 − p Kp−1 ⎢ p 1− p K −1 ⎢ P= ⎢ ... ... ⎢ p p ⎢ K −1 ⎣ K −1 ⎤ ⎥ ... ⎥ ... ... ⎥ ⎥ ... 1 − p ⎥ ⎦ ...
p K −1 p K −1
共K-1项
C = log K − H (1 − p, Kp−1 ,..., Kp−1 )
p ( y1 | x1 ) p1 p ( y1 )
x2 , y 2

p 2 p ( x 2 ) p ( y 2 | x 2 ) log
p ( y 2 | x2 ) p2 p ( y2 )
= p1 ∑ + p2
x1 , y1
p ( y1 | x1 ) p ( x1 ) p ( y1 | x1 ) log p ( y1 ) p ( y2 | x2 ) p ( x 2 ) p ( y 2 | x 2 ) log − p1 log p1 − p 2 log p 2 p ( y2 )
C =

L
i =1
q iC i
推论:准对称信道必为离散输入对称。 判断方法 将矩阵P按输出Y进行划分,如果能分解成 进行划分 如果能分解成L个 判断方法:将矩阵 对称矩阵,则为准对称信道。 R Remark k:取得准对称信道容量的输入分布为等概分布。证 取得准对称信道容量的输入分布为等概分布 证 明见P109定理4.2.3
k =1
K
= H (Y | X = k )∑ p ( X = k ) = −∑ p j log p j
k =1 j =1
K
J
例:BSC: H (Y | X ) = H (α ,1 − α ) = H (α ) 例:BEC: H (Y | X ) = H (α ,1 − α ) = H (α )
1 离散输入对称信道 1.
准对称信道容量证明
证明:考虑可分解为 证明 考虑可分解为L个对称信道的准对称信道,每个子信道被 个对称信道的准对称信道 每个子信道被 选择的概率为 q1 , q2 ,..., qL ,定义随机变量Z如下:如果输出字符为 第i个子信道的输出,则 个 信 Z=i,所以H(Z|Y)=0;也可以把Z理解为 选择子信道的概率,所以P(Z=i)= q i 。另外,假设Z与X统计独 立,即输入的选择与用来传输的子信道的选择是独立的。注意从 准信道的定义可以看出,每个子信道的输入符号集和母信道一样
p(y) = 1 J
c = ∑ p( y | x)
2 离散输出对称信道 2.
定理3:对于离散输出对称信道,有 对于离散输出对称信道 有
max H (Y ) = log J
p(x)
且取得该值的分布为
1 p( x) = K
证:由引理2知一致输入可得到一致输出,一致输出可得到 最大熵logJ 例:BSC是离散输出信道 BEC不是离散输出信道
证明
由H(Z|Y)=0 ( | ) 可得 可得:H(Z|XY)= ( | ) H(Z|Y)=0( ( | ) (因为X与Z独 独立), H(Y,Z|X)=H(Y|X)+H(Z|XY)=H(Y|X)
I ( X ; Y ) = H (Y ) − H (Y | X )
证明
令 I i ( X ; Y ) 代表当第i个对称子信道单独使用时, 输入X与Y之间的互 信息, 当X为均匀分布时等号成立
= max{max I ( X 1 ; Y1 ) p1 + max I ( X 2 ; Y2 ) p2 + H ( P)}
均匀分布p(x)同时最大化所有的Ii(X;Y)
Remark: 最后这步要求非常强,输入分布同时最大化所有的I!
例1
例1:转移矩阵 转移矩阵
⎡0.8 0.1 0.1⎤ P=⎢ ⎥ 0 . 1 0 . 1 0 . 8 ⎣ ⎦
不是对称信道,但是准对称信道,可分解为:
⎡0.8 0.1⎤ ⎡0.8/ 0.9 0.1/ 0.9⎤ = 0.9 ⎢ ⎢0.1 ⎥ ⎥ 0 1 0 0.8 8 0 0.1/ 1/ 0 0.9 9 0.8/ 0 8/ 0.9 0 9 ⎣ ⎦ ⎣ ⎦
p( y) =

x
x
p( x) p( y | x) =

x
1 1 p( y | x) = K K

x
c p( y | x) = K
为一常数,因为进入每个输出节点的条件分 布集合相同 它们的和必为 常数 从而p(y) 布集合相同,它们的和必为一常数。从而 ( )是相等的,因 是相等的 因 此Y服从一致分布且
3 对称信道 3.
定义:同时满足输入对称和输出对称的离散信道 定义 同时满足输入对称和输出对称的离散信道 容量: C = max I ( X ; Y ) = max H (Y ) − H (Y | X )
p( x) p( x)
[
]
= m ax H (Y ) − H (Y | X )
p(x)
= lo g J +
2 BSC容量 例2.
二元对称信道容量
最后一个不等式成立是因为Y是二元r.v., 当输入 服从均匀分布式,输出Y也服从均匀分布,等 式成立,得出信道容量
例3 BEC容量
二元擦除信道:比例为a的 Bit被擦除,接收机知道哪些 Bit被擦掉了,因此有2个输入 3个输出。
看起来似乎H(Y)的最大值是log3,但可惜不论如何选 择选择输入分布都取不到这个值(证明它!) 择选择输入分布都取不到这个值(证明它 )
第四章 信道及其容量
信道及其容量
4.1信道分类 信道 类 4.2离散无记忆信道 4.3信道的组合 4.4时间离散的无记忆信道 4 5波形信道 4.5
4.1信道分类
信道分类
离散信道:输入输出均为离散事件集 离散信道 输 输 均 离散事件集 连续信道:输入输出空间均为连续事件集 半连续信道:输入和输出一个是离散的, 一个是连续的 个是连续的 时间离散的连续信道:信道输入和输出是 连续的时间序列 波形信道 输入和输出都是时间的实函数 波形信道:输入和输出都是时间的实函数 x(t), y(t)
DMC
注1:DMC由3部分组成: 1. 输入空间 2 输出空间 2. 3. 条件概率分布,它描述了信道行为:
注2:如不特殊说明,只讨论不带反馈的DMC, 即输入满足:
容量
定义离散无记忆信道的容量为: 定义离散无记忆信道的容量为
例1:无噪声二元信道 无噪声二元信道 每次传输的比特能精确接 收,容量为1bit。也可以用 式 公式计算,容量在 时取得。 时取得
x2 , y 2

= I ( X 1 ; Y1 ) p1 + I ( X 2 ; Y2 ) p 2 + H ( p )
和容量
容量 信道1和信道2的和容量为 容量:信道
2C = 2C1 + 2C2 或C = log(2C1 + 2C2 )
证明 / 略
C = max I ( X ; Y )
P ,Q ,Q '
BEC容量
设E代表事件{Y=e},使用表达式:
并且设 Pr( X = 1) = π ,则:
因此 因此: 当输入等概时,取 得容量Байду номын сангаас
信道容量的性质
1. 由于互信息非负,所以 信息 负 C非负 负 gA 2 C = max I ( X ; Y ) ≤ max H ( X ) = log 2. C ≤ max H (Y ) = log B 3.
⎡1⎤ 0.1 ⎢ ⎥ ⎣1⎦
⎛ ⎛ 0.8 0.1 ⎞ ⎞ C = 0.9C1 + 0.1C2 = 0.9 ⎜ log2 l − H ⎜ , ⎟ ⎟ + 0.1× 0 = 0.4471bits b ⎝ 0.9 0.9 ⎠ ⎠ ⎝
例2 K元对称信道
转移概率为转移矩阵如下 该信道为对称信道 容量为 转移概率为转移矩阵如下,该信道为对称信道,容量为
4.2 离散无记忆信道
通信系统
A与B通信: 信 A的物理行为使 的物 使B产生出一种需 产生 种 物 行 要的物理行为 每一个可能的输入序列将导出关于输出序 列的概率分布
DMC
定义 义 离散信道:由输入字母表 离散信道 输 字 表A,输出字 输 字 母表B和概率转移矩阵 概率转 矩阵p(y| p(y|x) )构 构成的系统, 系 条件概率表示发送x条件下收到y的概率。 定义 离散无记忆信道:如果输出的概率分 布仅仅依赖于它所对应的输入,而与先前 信道的输入或输出条件独立。
相关文档
最新文档