信息论讲义-第六章
信息论
信息论第一章概论1.信息、消息、信号的定义及关系。
定义信息:事物运动状态或存在方式的不确定性的描述。
消息:指包含有信息的语言、文字和图像等。
信号:表示消息的物理量,一般指随时间而变化的电压或电流称为电信号。
关系信息和消息信息不等于消息。
消息中包含信息,是信息的载体。
同一信息可以用不同形式的消息来载荷。
同一个消息可以含有不同的信息量。
信息和信号信号是消息的载体,消息则是信号的具体内容。
信号携带信息,但不是信息本身。
同一信息可用不同的信号来表示,同一信号也可表示不同的信息。
2. 通信系统模型,箭头上是什么?通信的目的及方法。
通信的目的:是为了提高通信的可靠性和有效性。
信源编码:提高信息传输的有效性。
(减小冗余度)信道编码:提高信息传输的可靠性。
(增大冗余度)第二章 信源及其信息量★信源发出的是消息。
信源分类1、信源按照发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源。
2、根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源。
单符号离散信源离散无记忆信源 无记忆扩展信源 离散平稳信源离散有记忆信源 记忆长度无限记忆长度有限(马尔可夫信源)一、单符号离散信源单符号离散信源的数学模型为定义:一个随机事件发生某一结果后所带来的信息量为自信息量。
定义为其发生概率对数的负值。
以 奇才 单位:•对数以2为底,单位为比特 (bit ) (binary unit ) •对数以e 为底,单位为奈特 (nat ) (nature unit)•对数以10为底,单位为笛特(det) (decimal unit) 或哈特 (hart) 物理含义:在事件xi 发生以前,等于事件xi 发生的不确定性的大小;在事件xi 发生以后,表示事件xi 所含有或所能提供的信息量。
性质:①I(x i )是非负值.②当p(x i )=1时,I(x i )=0. ③当p(x i )=0时,I(x i )=∞.④I(x i ) 是p(x i )的单调递减函数.联合自信息量条件自信息量自信息量、条件自信息量和联合自信息量之间有如下关系式:I(x i y j )= I(x i )+ I(y j / x i ) = I(y j )+ I(x i / y j )⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡)(,),(,),(),( ,, ,, , )( 2121n i n i x p x p x p x p x x x x X P X )(log )( i i x p x I -=)(log )( j i j i y x p y x I -=1)(,1)(01=≤≤∑=ni i i x p x p定义:各离散消息自信息量的数学期望,即信源的平均信息量.单位:比特/符号 物理含义: ① 信源熵H(X)表示信源输出后,离散消息所提供的平均信息量. ② 信源熵H(X)表示信源输出前,信源的平均不确定度. ③ 信源熵H(X)反映了变量X 的随机性.信源符号的概率分布越均匀,则平均信息量越大; 确定事件,不含有信息量。
信息论第六章答案
6.1 奇校验码码字是c=(m 0,m 1,…,m k-1,p),其中奇校验位p 满足方程 m 0+m 1+,…, +m k-1+p =1 (mod 2)证明奇校验码的检错能力与偶校验码的检错能力相同,但奇其校验码不是线性分组码。
证:偶校验码的编码方程为 m 0+m 1+,…, +m k-1+p =0 (mod 2) 当差错图案e 中有奇数个1时,通过偶校验方程可以检测出发生错误,因此检测概率:])([])()[()(,])()[(])()[()()(,)()(,_,,,_K K K ik ii kKoddi i even ce K K Keveni i iiK i KK K Koddi i ii K i K Ki i i K iK KKi iiK iKKi k ii k Koddi i even ce p p p p p p p C p thenp b p a if b a b a b aCb a b a b a C b a C b a b aC b a p p C p 211211121112121110001--=---+-=-=∴=-=-++=--+=∴-=-=+-=-∈=∈=-∈=-=-=--∈=∑∑∑∑∑∑奇校验码的编码方程为m 0+m 1+,…, +m k-1+p =1 (mod 2)当差错图案e 中有偶数个1时,通过偶校验方程可以检测出发生错误,因此检测概率:evence K oddce K K KK K K K i k ii k Keveni i odd ce p p p p p p p p p p C p p p C p __,_])([,)()(,)(])([)(])([)(=--≈∴-≈-<<---+=---+=-=--∈=∑21121211112112112112110001当由线性分组码的性质可知,码组中必有一个全零码字。
而奇校验码中没有全零码,如果有的话必是错码,所以奇校验码不是线性分组码。
信息论讲义_第十五讲
信息理论基础(第十五讲)授课教师:于泽电子信息工程学院201教研室第六章 有噪信道编码内容提要 6.1 噪声信道编码问题 6.2 编码方法和错误概率— 简单重复编码 — 消息符号个数 — (5.2)线性码 — 线性分组码 — 汉明距离6.3 有噪信道编码定理— 香农第二定理及其逆定理6.4 错误概率上界26.2 编码方法与错误概率引入: 1、影响平均错误概率pE的因素 ①译码规则 ②信道统计特性——信道传递概率 2、选择最佳译码规则只能有限减少平均错误概率pE 3、需要通过改变信道传递概率进一步减少pE ①物理上通过更换信道改变信道传递概率减少pE ②数学上通过信道编码改变信道传递概率减少pE36.2 编码方法与错误概率• 编码方法介绍 ⎯简单重复编码 ⎯(n.k)线性码46.2.1 简单重复编码二元对称信道矩阵 ⎡0.99 0.01⎤ P=⎢ ⎥ 0 . 01 0 . 99 ⎣ ⎦ 最佳译码规则⎧F (b1 ) = a1 ⎨ ⎩F (b2 ) = a2输入等概分布条件下, 平均错误概率为 1 1 pE = ∑ p( y | x) = [0.01+ 0.01] = 10−2 r Y , X −x* 256.2.1 简单重复编码1、三次简单重复编码: 规定信源符号为“0’’(或“1”)时,则重复发送三个“0” (或“1”),此时构成的新信道可以看成是二元对称信道 的三次扩展信道没有使用 发送端用作 的码字 消息的码字 a1 = 000 a 2 = 001 a 3 = 010 a 4 = 011 a 5 = 100 a 6 = 101 a 7 = 110 a8 =接收端 接收序列 β1 = 000111β 2 = 001 β3 = 010 β 4 = 011 β5 = 100 β 6 = 101 β 7 = 110 β8 = 11166.2.1 简单重复编码信道矩阵变成⎡ p3 P=⎢ 3 ⎣p p2 p pp 2 p2 p pp 2 pp 2 p2 p p2 p pp 2 pp 2 p2 p pp 2 p3 ⎤ 2 3⎥ p p p ⎦F (β 4 ) = α8 F (β6 ) = α8 F (β7 ) = α8 F (β8 ) = α 8设输入符号为等概分布, 采用极大似然译码规则 (即大数逻辑译码)F ( β1 ) = α1 F ( β 2 ) = α1 F ( β 3 ) = α1 F ( β 5 ) = α1平均错误概率 1 3 2 −4 pE = p ( β | α ) = p + 3 p p ≈ 3 × 10 ∑ j i M Y , X − x*76.2.1 简单重复编码2、增加重复编码次数n 随着重复编码次数 n 增大,平均错误概率 pE 下降, 信息传输率也将减少。
信息论讲义_第一讲
• 香农定义的信息也有其局限性,存在一些缺陷
– 定义的出发点是假定事物状态可以用一个以经典集 合论为基础的概率模型来描述。 – 没有考虑收信者的主观特性和主观意义,也撇开了 信息的具体含意、具体用途、重要程度和引起后果 等因素。
20
1.1.4 信息、消息与信号
信息: 比较抽象的概念;是系统中传输的对 象;包含在消息之中。 消息:比较具体,但不是物理量;具有不同 形式,例如语言、文字、符号、图像等能够 被人感知;可以传输并被通信双方理解;同 一消息含有不同信息;同一信息可用不同消 息载荷。 信号:最具体,是消息的载荷者;是表示消 息的物理量,可测量、可显示、可描述,是 信息的物理表达层。
12
1.1.2 广义的信息概念
信息本身看不见、摸不着,它必须依附于一定的物 质形式(如文字、声波、电磁波等)。这种运载信 息的物质称为信息的载体,一切物质都有可能成为 信息的载体。
13
1.1.3 概率信息概念
由美国数学家香农1948年提出,亦称香农信息 基于对通信活动基本功 基于对通信活动对象和 基于对通信活动的机制 或狭义信息。概率信息是从 不确定性 能的观察分析,“通信 过程的分析研究,“信 和本质的分析研究, (Uncertainty) 和概率测度出发定义信息的。 的基本问题是在信宿端 源发出的消息总是从可 “人类只有在两种情况 香农针对人类通信活动的特点,提出了 精确或近似地复制发送 能发生的消息符号集合 下有通信的需求, 1)自 端所挑选的消息。通常 中随机选择,通信系统 己有某种形式的消息要 ① 形式化假说 消息是有语义的,即它 无法预先知道信源在什 告诉对方,且估计对方 ② 非决定论 按某种关系与某些物质 么时候会选择什么消息 不知道; 2)自己有某种 ③ 不确定性 概念的实体联系着。通 发送”,即具有通信意 疑问需要对方给出解答” 信中语义方面的问题与 义的消息都是随机发生 经过通信活动后,消除 工程问题没有关系” 的 了 随机事件,获取了信 不确定性
信息论讲义_第六讲
3.4 离散平稳信源_性质(续)
⑴ 条件熵H (XL|XL-1) 随L的增加是非递增的
– 条件较多的熵必小于或等于条件较少的熵,而 条件熵必小于或等于无条件熵。
H (X L | X1X 2 X L1) H (X L | X 2 X L1) H (X L1 | X1 X L2 ) H ( X L1 | X 2 X L2 ) H (X L2 | X1 X L3) H(X2 | X1) H(X1)
P xn , tn | xn1, tn1; xn2 , tn2 ; ; x1, t1 P xn , tn | xn1, tn1; xn2 , tn2 ; ; xnk , tnk
注: • k=0时,称为零阶马尔可夫过程。 • 零阶马尔可夫过程=白噪声过程。
12
q
22
3.5.2 有限状态马尔可夫链
• 输入的码Xr(r=1,2,…)是相互独立的,取值0或1, 且已知p(X=0)=p,p(X=1)=1-p=q,输出的码是Yr, 显然有
Y1= X1,Y2=X2Y1… 其中 表示模2加,那么Yr就是一个马氏链,因
Yr确定后,Yr+1分布只与Yr有关,与Yr-1、Yr-2… 等无关,且知Yr序列的条件概率为
信息理论基础
(第六讲)
授课教师:于 泽 电子信息工程学院201教研室
第三章 离散信源
内容提要 3.1 信源的数学模型及其分类 3.2 离散无记忆信源 3.3 离散无记忆信源的扩展信源 3.4 离散平稳信源 3.5 马尔可夫信源
2
3.4 离散平稳信源(续)
④ N次扩展信源熵的性质
(1) 条件熵 H XN | X1X2L XN1随N的增加是非递增的
信息论课件第六章
根据这样一个信道矩阵,设计 一个译码规则A,即 F (b1 ) = a1 A : F (b2 ) = a2 F (b3 ) = a3
由于S个输出符号中的每一个都可以译成r个输入符号 r s 种译码规则可供选择。 中的任何一个,所以共有
译码规则的选择应该根据什么准则?一个很自然的 准则当然就是要使平均错误概率最小. 为了选择译码规则,首先必须计算平均错误概率. 在确定译码规则F(bj)=ai后,若信道输出端接收到的 符号为bj,则一定译成ai,如果发送端发送的就是ai,这 就为正确译码;如果发送的不是ai,就认为错误译码. 那么收到bj 条件下译码的条件正确译码概率为 P[F(bj)|bj]=P(ai|bj) 令P(e|bj)为条件错误译码概率,其中e表示除了F(bj)=ai 以外的所有输入符号的集合. 条件错误译码概率与条件正确译码概率之间有关系 (6.3) P(e|bj)=1-P(ai|bj)=1-P[F(bj)|bj]
一般P(b j ) ≠ 0, b j ∈ B, 这样,最大后验概率准则就可 表示为:选择译码函数 F (b j ) = a * a * ∈ A, b j ∈ B
使满足P(b j | a * ) P(a * ) ≥ P(b j | ai ) P(ai ) ai ∈ A, ai ≠ a * (6.7)
若输入符号的先验概率 P ( ai )均相等,则上式可以写 成 选择译码函数 F (b j ) = a * a * ∈ A, b j ∈ B ( 6 .8 a ) (6.8b) 并满足 P (b j | a * ) ≥ P (b j | ai ) ai ∈ A, ai ≠ a *
6.2 错误概率与编码方法
从(6.10)可知,消息通过有噪信道传输时会发生错 误,而错误概率与译码规则有关。 但一般当信道给定即信道矩阵给定,不论采用什 么译码规则,PE总不会等于或趋于0。 而要想进一步减少错误概率PE,必须优选信道编 码方法。
信息论-第六章
信息论基础B
4
二、纠错码分类
从功能角度:检错码 、纠错码 对信息序列的处理方法:分组码、卷积码 码元与原始信息位的关系:线性码、非线性码 差错类型:纠随机差错码、纠突发差错码、介 于中间的纠随机/突发差错码。 构码理论:代数码、几何码、算术码、组合码 等
信息论基础B
5
三、差错控制系统分类
码空间的不同选择方法,以及信息组与码组的 不同映射算法,就构成了不同的分组码。
信息论基础B
24
6.3 随机编码
运用概率统计方法在特定信道条件下对编码信 号的性能作出统计分析,求出差错概率的上下 限边界,其中最优码所能达到的差错概率上界 称作随机码界。 用这种方法不能得知最优码是如何具体编出来 的,却能得知最优码可以好到什么程度,并进 而推导出有扰离散信道的编码定理,对指导编 码技术具有特别重要的理论价值。
信息论基础B
只含有限个元素的域称为有限域。
有限域的元素个数称为有限域的阶。
每个特征为零的域都是无限域。
有限域的特征一定是素数。
在特征是素数p的域F中,下列等式成立:
(a+b)p=ap+bp, (a-b)p=ap-bp, a,b F。
信息论基础B
二.有限域的结构
1.有限域的乘法群 有限域F中非零元组成的集合F*关于乘法做 成的群称为有限域的乘法群。 命题1:设Fq是一个含有q个元素的有限域, Fq*=Fq\{0},则Fq的乘法群Fq*是一个循环群。 定义2:设Fq是一个有限域,Fq*=Fq\{0},Fq*的 生成元称为Fq的本原元。 命题2:设Fq是一个含有q个元素的有限域,则 Fq中共有 (q-1)个本原元。
3、分配律、结合律成立,
则称集合V是数域F上的n维矢量空间,或称n维 线性空间,n维矢量又称n重(n-tuples)。
信息论课后习题答案
第六章 有噪信道编码6.1 R 为信息传输率,根据香农第二定理,当码长n->无穷大时,满足什么关系式,可使错误概率Pe->0。
答:Pe<exp{-nE(R)}->0,其中E(R)为可靠性函数,且在9<R<C 的范围为正。
信道容量C 是保证无差错传输时,信息传输率R 的权限值。
6.2 写出费诺不等式,其中哪一项表示是否判对的疑义度,log(k-1)又表示什么?答:H(X|Y)<=H2(Pe)+Pelog(k-1) ,H2(pe)是否判对的疑义度。
表示如果判决出错,错在k-1个符号中的一个,疑义度不会超过log(k-1)。
6.3 根据香农定理说明,(信息容量)是保证无差错传输时信息传输率R 的上限值,(平均错误概率)是信源可压缩信息的最低极限。
6.4 最大后验概率译码准则就是最小错误译码准则,对吗?错误。
()∑≠-==≠=k i k i k k e y x y xy x x y p )|(1)|()|(φφφ 这个公式可知最大后验概率与最小错误译码准则所得的最终结果是相等的。
但并非概念定义一致。
6.5 在信源等该分布时,则极大似然函数译码准则就是最小错误译码准则,对吗? Proof: if ())|(|k k x y p x y p > m=1,2,……,MThen 信道等概率输入时,有),()(m k x q x q = 代入上式得)()|()()|(m m k k x q x y p x q x y p >So,it comes to )()(y x p y x p m k >所以说明全概率最大,对应最大联合概率译码准则。
1/2 1/6 1/36.6 离散无记忆信道DMC ,转移概率矩阵为 P= 1/3 1/2 1/61/6 1/3 1/2(1 )q(x1)=1/2 q(x2)=1/4 q(x3)=1/4. 求最佳判决译码及错误概率。
(2)若信源等概分布,求最佳判决译码及错误概率。
精品课件-信息论与编码-第6章
第6章 离散信源及其信息冗余
6.1.1 由于信源输出的消息载荷着信息,这种消息所具有的一
个基本属性便是随机性,因此信源输出的符号或符号序列可 以使用随机变量、随机矢量或随机过程表示。由第2章的讨 论我们知道,如果已知信源的消息集合(即样本空间或值域) 和消息发生的概率分布,则可以使用由样本空间和它的概率
第6章 离散信源及其信息冗余
1. 根据信源输出消息X的取值特点,可将信源划分为连
1) 信源输出符号为离散随机变量的信源称为离散信源。 设离散信源输出随机变量X的值域R为一离散集合 R={a1, a2, …, an},其中,n可以是有限正数,也可以 是可数的无限大正数。若已知R上每一消息发生的概率分 布为
P(a1), P(a2), …, P(an)
第6章 离散信源及其信息冗余
则离散信源X的概率空间为
[
R,
P]
[
X
,
P]
a1 p(a1
)
a2 pБайду номын сангаасa2 )
an p(an )
(6.1)
其中, 信源输出消息的概率 P(ai)(i=1, 2, …, n)满 足:
p(ai )
n
p(ai
i 1
0 )
第6章 离散信源及其信息冗余
第6章 离散信源及其信息冗余
6.1 信源的描述与分类 6.2 离散无记忆信源的扩展信源 6.3 离散平稳信源 6.4 马尔可夫信源 6.5 信源的信息冗余 习题6
第6章 离散信源及其信息冗余
6.1 信源是发出信息的某种设备,可以是人、生物、机器 或其他任何向外发出信息的事物。信源的输出称做消息。 在人类的社会活动中,发出信息的信息源多种多样,其输 出可以是离散的符号,如书信中的文字和字母,也可以是
信息论基础第6章
6.1 错误概率
4
6.2 有噪信道编码定理
定理6.1(有噪信道编码定理):若一个离散无记 忆信道 éêëX , P(y | x ),Y ùúû 的信道容量为C,当信息传 输率R<C时,只要码长n足够大,总可以找到 一种编码和相应的译码规则,使平均错误概率 PE任意小。
又称为香农第二定理。 信道容量C是保证无差错传输时信息传输率R的 理论极限值。 对于一个固定的信道,信道容量C是一定的, 它是衡量信道质量的一个重要物理量。
6.3 联合信源信道编码定理
7
例6.2:设一个二元对称信道,错误概率p=0.02, 设该信道以2000二元符号/秒的速率传送消息,现 有长度为15000的独立等概的二元符号序列通过该 信道传输,试回答实现该符号序列无差错传输的 最短时间是多少?
6.3 联合信源信道编码定理
8
定理6.3(联合信源信道编码定理):离散无记忆信 源S的熵值为H(S)(比特/信源符号),每秒钟输出 1/Ts个信源符号;离散无记忆信道的信道容量为 C(比特/信道符号),每秒钟输出Tc个信道符号。 如果满足 C / Tc > H (S ) / Ts 或 C t > Rt 则总可以找到信源和信道编码方法,使得信源输 出信息能通过该信道传输后,平均错误概率PE任 意小。
6.1 错误概率3Fra bibliotek在讨论信道编译码问题时:
将信源和信源编码合并在一起作为等效信源, 将信源译码和信宿合并作为等效信宿。 将信道编码和信道译码之间的所有部件看作广 义信道。 信道编码根据一定的规律在信息码元序列M中 加入监督码元,得到码字C。 接收端接收的编码码元序列R可能存在差错, 译码器根据某个译码规则由R得到信息序列M ˆ。 的估值序列 M
信息论讲义_第六讲
3.4 离散平稳信源_性质(续)
(2) ( ) HL(X) ≥H(XL|XL-1)
证明: HL(X)=H(X1X2…XL)/L = [H(X1)+H( X2|X1)+…+ )+ +H(XL|X1X2…X XL-1)]/L
≥ [L H(XL|X1X2…XL-1 L 1)]/L
= H(XL|XL-1)
信息理论基础
(第六讲)
授课教师 于 授课教师:于
泽
电子信息工程学院201教研室
上
离散信源
节
提
要
X a1 p( x) p(a ) 1
p(a2 ) p(aq ) a2 aq
问题的核心
熵
1
上
1 离散信源 1.离散信源
节
提
要
q i 1
H ( X ) E[ I ( xi )] p ( xi ) log p ( xi )
•
i1 ,i2 ,iN
p a , a
i1
i2
, , aiN log p ai1 , ai2 , , aiN
平均符号熵 :信源输出为N长符号序列,平均每个符号 的熵 (信源平均每发一个符号提供的信息量为)
1 1 N H N X H X H X 1 , X 2 , X N N N
1 H X lim H N X lim H X N N N N
6
3.4 离散平稳信源(续)
④ N次扩展信源熵的性质 (1) 条件熵 H XN | X1X2XN1 随N的增加是非递增的 (2)
H N X H X N | X 1 X 2 X N 1
信息论讲义-绪论
第一章绪论主要内容:(1)信息论的形成和发展;(2)信息论研究的分类和信息的基本概念;(3)一般通信系统模型;(4)目前信息论的主要研究成果。
重点:信息的基本概念。
难点:消息、信号、信息的区别和联系。
说明:本堂课作为整本书的开篇,要交待清楚课程开设的目的,研究的内容,对学习的要求;在讲解过程中要注意结合一些具体的应用实例,避免空洞地叙述,以此激发同学的学习兴趣,适当地加入课堂提问,加强同学的学习主动性。
课时分配:2个课时。
板书及讲解要点:“信息”这个词相信大家不陌生,几乎每时每划都会接触到。
不仅在通信、电子行业,其他各个行业也都十分重视信息,所谓进入了“信息时代”。
信息不是静止的,它会产生也会消亡,人们需要获取它,并完成它的传输、交换、处理、检测、识别、存储、显示等功能。
研究这方面的科学就是信息科学,信息论是信息科学的主要理论基础之一。
它研究信息的基本理论(Information theory),主要研究可能性和存在性问题,为具体实现提供理论依据。
与之对应的是信息技术(Information Technology),主要研究如何实现、怎样实现的问题。
它不仅是现代信息科学大厦的一块重要基石,而且还广泛地渗透到生物学、医学、管理学、经济学等其他各个领域,对社会科学和自然科学的发展都有着深远的影响。
1.1 信息论的形成和发展信息论理论基础的建立,一般来说开始于香农(C.E.shannon)研究通信系统时所发表的论文。
随着研究的保深入与发展,信息论具有了较为宽广的内容。
信息在早些时期的定义是由奈奎斯持(Nyquist,H.)和哈特莱(Hartley,L.V.R.)在20世纪20年代提出来的。
1924年奈奎斯特解释了信号带宽和信息速率之间的关系;1928年哈特莱最早研究了通信系统传输信息的能力,给出了信息度量方法;1936年阿姆斯特朗(Armstrong)提出了增大带宽可以使抗干扰能力加强。
这些工作都给香农很大的影响,他在1941—1944年对通信和密码进行深入研究,用概率论的方法研究通信系统,揭示了通信系统传递的对象就是信息,并对信息给以科学的定量描述,提出了信息嫡的概念。
信息论-基础理论与应用第三版(傅祖芸)-第六章-讲义
1 r
X
P(i) e
例:某信道
0.5 P 0.2
0.3 0.3
0.2 0.5
0.3 0.3 0.4
1)若根据最大似然准则选择译码函数为B:
F F
(b1 ) (b2 )
a1 a3
若输入等概率,则平均错误概率为
F (b3 ) a2
1
1
PE
3 Y , X a*
P(b
/
a)
[(0.2 3
0.3)
0
0.99
0
0.01
0.01
1
1
0.99
按照最大似然准则译码, PE 0.01 102
如何提高信道传输的正确率呢?可用重复消息的方法,即尝试 扩展信道的方法。
未用的码字
(禁用码字)
1
001
2
010
3
011
4
100
5
101
6
110
7
8
用作消息的码字 (许用码字) 000 (表示0)
二元对称信 道的三次扩
第6章 有噪信道编码定理
6.1 错误概率与译码规则 6.2 错误概率与编码方法 6.4 有噪信道编码定理 6.5 联合信源信道编码定理
前面已经从理论上讨论了,对于无噪无损信道 只要对信源进行适当的编码,总能以信道容量无差 错的传递信息。但是一般信道总会存在噪声和干扰, 信息传输会造成损失。
那么在有噪信道中怎样能使消息传输发生的错误 最少?进行无错传输的可达的最大信息传输率是多 少呢?
p3 000
p
3
111
根据最大似然译码准则,当p=0.01,可得译码函数为:
F(000)=000 F(001)=000 F(010)=000 F(011)=111 F(100)=000 F(101)=111 F(110)=111 F(111)=111
信息论第6章课后习题答案
信息论第6章课后习题答案信息论是一门研究信息传输和处理的学科,它以数学为基础,探讨了信息的度量、编码和传输等问题。
本文将对信息论第6章的课后习题进行解答,以帮助读者更好地理解和应用信息论的知识。
1. 习题6.1:证明熵函数H(X)是凸函数。
解答:首先,我们知道熵函数H(X)可以表示为H(X) = -Σp(x)logp(x),其中p(x)为随机变量X的概率分布。
要证明H(X)是凸函数,需要证明对于任意的两个概率分布p1(x)和p2(x),以及0≤λ≤1,有H(λp1(x) + (1-λ)p2(x)) ≤ λH(p1(x)) + (1-λ)H(p2(x))。
根据Jensen不等式,对于凸函数f(x),有f(λx + (1-λ)y) ≤ λf(x) + (1-λ)f(y)。
将凸函数f(x)替换为H(X),则有H(λp1(x) + (1-λ)p2(x)) ≤ λH(p1(x)) + (1-λ)H(p2(x))。
因此,熵函数H(X)是凸函数。
2. 习题6.2:证明条件熵H(Y|X) ≥ 0。
解答:条件熵H(Y|X)可以表示为H(Y|X) = -ΣΣp(x,y)logp(y|x),其中p(x,y)为随机变量X和Y的联合概率分布。
要证明条件熵H(Y|X) ≥ 0,需要证明对于任意的联合概率分布p(x,y),有H(Y|X) = -ΣΣp(x,y)logp(y|x) ≥ 0。
根据信息论的定义,熵函数H(Y) ≥ 0,即对于任意的随机变量Y,其熵函数都大于等于0。
而条件熵H(Y|X)可以看作是在已知随机变量X的条件下,随机变量Y的不确定性。
根据信息论的定义,条件熵H(Y|X)应该不小于0,即H(Y|X)≥ 0。
3. 习题6.3:证明互信息I(X;Y) = H(X) - H(X|Y) = H(Y) - H(Y|X)。
解答:互信息I(X;Y)可以表示为I(X;Y) = ΣΣp(x,y)log(p(x,y)/(p(x)p(y))),其中p(x,y)为随机变量X和Y的联合概率分布,p(x)和p(y)分别为随机变量X和Y的边缘概率分布。
信息论与编码第六章课后习题答案(曹雪虹)
第六章:信道编码(本章复习大纲我重新修改了一下,尤其要关注红色内容)1、基本概念:差错符号、差错比特;差错图样:随机差错、突发差错;纠错码分类:检错和纠错码、分组码和卷积码、线性码与非线性码、纠随机差错码和纠突发差错码;矢量空间、码空间及其对偶空间; 有扰离散信道的编码定理:-()NE R e P e (掌握信道编码定理的内容及减小差错概率的方法);线形分组码的扩展与缩短(掌握奇偶校验码及缩短码的校验矩阵、生成矩阵与原线形分组码的关系)。
2、线性分组码(封闭性):生成矩阵及校验矩阵、系统形式的G 和H 、伴随式与标准阵列译码表、码距与纠错能力、完备码(汉明码)、循环码的生成多项式及校验多项式、系统形式的循环码。
作业:6-1、6-3、6-4、6-5和6-6选一、6-7 6-8和6-9选一 6-1 二元域上4维4重失量空间的元素个数总共有24=16个,它们分别是(0,0,0,0),(0,0,0,1)…(1,1,1,1),它的一个自然基底是(0,0,0,1),(0,0,1,0),(0,1,0,0)和(1,0,0,0);其中一个二维子空间含有的元素个数为22个,选取其中一个自然基底为(0,0,0,1)和(0,0,1,0),则其二维子空间中所包含的全部矢量为(0,0,0,0,),(0,0,0,1),(0,0,1,0)和(0,0,1,1)(注选择不唯一);上述子空间对应的对偶子空间可以有三种不同的选择:(0,0,0,0) ,(0,1,0,0),(1,0,0,0),(1,1,0,0)或(0,0,0,0) ,(0,1,0,0)或(0,0,0,0) (1,0,0,0)。
(注意本题中所包含的关于矢量空间的一些基本概念)6-3 由题设可以写出该系统(8,4)码的线形方程组如下:736251403320231012100321v u v u v u v u v u u u v u u u v u u u v u u u=⎧⎪=⎪⎪=⎪=⎪⎨=++⎪⎪=++⎪=++⎪⎪=++⎩(注:系统码高四位与信息位保持一致,u i 为信息位) 把上述方程组写成矩阵形式,可以表示为 V =U G ,其中V 为码字构成的矢量,即V =(v 7,v 6,v 5,v 4,v 3,v 2,v 1,v 0),U 为信息位构成的矢量,即U =( u 3,u 2,u 1,u 0),观察方程组可得系统生成矩阵为:[]44*41000110101001011G I |P 0010011100011110⎡⎤⎢⎥⎢⎥==⎢⎥⎢⎥⎣⎦由系统生成矩阵和校验矩阵的关系可得:4*441101100010110100H P |I 0111001011100001T ⎡⎤⎢⎥⎢⎥⎡⎤==⎣⎦⎢⎥⎢⎥⎣⎦由校验矩阵可以看出,矩阵H 的任意三列都是线性无关的(任意三列之和不为0),但存在四列线性相关的情况(如第1、5、6、8列,这四列之和为0),即校验矩阵H 中最小的线性相关的列数为4,从而得该线性分组码的最小码距为4。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
j =1 s
其中,条件错误概率 p(e | y j ) =1− p(xi | y j ) =1− p[F( y j ) | y j ]
5
6.1.2 译码规则 续) 译码规则(续
2、译码规则 、 使平均错误概率p 最小为选择译码规则的准则 使平均错误概率 E最小为选择译码规则的准则 选择译码规则的 (1) 最大后验概率译码规则理想观测者规则 最大后验概率译码规则 选择译码函数F(y = 选择译码函数 j)=x*,使之满足条件
接收端 接收序列
111
β1 = 000 β2 = 001 β3 = 010 β4 = 011 β5 =100 β6 =101 β7 =110 β8 =111
11
6.2.1 简单重复编码 续) 简单重复编码(续
p3 P= 3 p
p2 p p2 p pp2 pp2 pp2
p2 p pp2 p2 p
13
6.2.3 (5.2)线性码 续) )线性码(续
14
6.2.4 汉明距离
1、定义6.2.1 汉明距离 、定义 为两个n长的二 设X=(x1 , x2 …, xn),Y=(y1 , y2 …, yn)为两个 长的二 = , = 为两个 元码字,则码字X和 之间的汉明距离定义为 元码字,则码字 和Y之间的汉明距离定义为
pE =
∑p(x, y) = ∑p( y | x) p(x)
Y , X −x* Y , X −x*
若输入为等概分布,则 若输入为等概分布,
1 pE = ∑ p( y | x) r Y, X −x*
7
6.1.2 译码规则 续) 译码规则(续
4、引理6.1.1 费诺不等式 、引理 错误概率p 与信道疑义度H(X|Y)之间的关系 错误概率 E与信道疑义度 之间的关系 H(X|Y)<H(pE)十pElog(r—1) < 十
最 译 规 佳 码 则 F( y1) = x1 A: F( y2 ) = x2
输 入分布 为等 概分 布条 件下 平 , 均错 误概 率 1 1 pE = ∑ p( y | x) = [0.01+ 0.01] =10−2 r Y , X −x* 2
10
6.2.1 简单重复编码 续) 简单重复编码(续
平均错误概率 1 pE = p(β j | αi ) = p3 + 3pp2 ≈ 3×10−4 ∑* M Y , X −x
12
6.2.3 (5.2)线性码 )
取M=4,n=5,这时信息传输率 = , = ,
log M log 4 2 R= = = n 5 5
1 0 ai = 1 1 1 0 0 0 0ai1 a 1 0 0 0 i2 1 0 0 0 ai3 0 0 0 0ai 4 1 0 0 0 a i5
D( X ,Y ) = ∑xk ⊕ yk
i=1
n
其中⊕表示模二和运算
2、物理含义:两个码字之间的汉明距离是它们在相同位上 、物理含义: 不同码符号的数目的总和。 不同码符号的数目的总和。 3、性质 、 汉明距离满足距离公理 (1)非负性 (2)对称性 (3)三角不等式 非负性 对称性 三角不等式
15
F( yj ) = x ,
*
D( x , y j ) = min{ D( x i , y j )}
* xi ∈ X
对于等概输入,当误码率较低时(小于1/2), 对于等概输入,当误码率较低时(小于1/2), 1/2 基于汉明距离的最小近邻译码规则等价于 基于汉明距离的最小近邻译码规则等价于 极大似然译码规则。 极大似然译码规则。
3
6.1.2 译码规则 续) 译码规则(续
可选择27种译码规则 可选择 种译码规则
设有一信道, 设有一信道,其信道矩阵为
4ቤተ መጻሕፍቲ ባይዱ
6.1.2 译码规则 续) 译码规则(续
1、错误概率 、 • 在确定译码规则 F(yj)=xi, i=1,2 …,r , j=l,2,…,s 之后, 之后, = 若信道输出端接收到的符号为yj,则一定译成xi。 • 如果发送端发送的就是xi,即为正确译码; • 反之 , 若发送端发送的 k , 且 k ≠ i, 即为 错误译码 。 反之, 若发送端发送的x 错误译码。 , 即为错误译码 经过译码后的平均错误概率p 经过译码后的平均错误概率 E为
18
6.3 有噪信道编码定理 续) 有噪信道编码定理(续
• 定理 6.3.2 香农第二定理的逆定理
设有一离散无记忆平稳信道,其信道容量为 , 设有一离散无记忆平稳信道,其信道容量为C, 对于任意> ,若选用码字总数M= 对于任意>0,若选用码字总数 =2n(C+ε),则无 取多大也找不到一种编码, 论n取多大也找不到一种编码,使译码错误概率 E 取多大也找不到一种编码 使译码错误概率p 任意小。 任意小。
H(S) log M n(C +ε ) log 2 = = = C +ε R= L n n
香农第二定理及其逆定理表明: 香农第二定理及其逆定理表明: 在任何信道中, 在任何信道中,信道容量是进行可靠传输的最大信息传 输率。 输率。
19
作 业 习题6 习题 1、2、7、10 、 、 、
20
2
6.1.2 译码规则 定义6.1.1 定义 设信道输入符号集为X=(xi,i=1,2 …,r),输出 设信道输入符号集为 , 符号集为Y=(yj,j=l,2,…,s),若对每一个输出符号 符号集为 , yj都有一个确定的函数 j),使yj对应于唯一的一 都有一个确定的函数F(y , 个输入符号x 则称这样的函数为译码规则, 个输入符号 i, 则称这样的函数为译码规则 , 即 F(yj)=xi i=1,2 …,r和 j=l,2,…,s 和 = 显然,对于有r个输入、s个输出的信道而言,按 显然,对于有 个输入、 个输出的信道而言, 个输入 个输出的信道而言 上述定义得到的译码规则共有r 上述定义得到的译码规则共有 s 种。
物理意义: 物理意义: (1) 只要 <C,就可以在有噪信道中以任意小的错误概率 E<ε)传 只要R< ,就可以在有噪信道中以任意小的错误概率(p 传 输信息 (2) 当输入序列长度 足够大时,可以以任意接近信道容量 的信息传输 当输入序列长度n足够大时 可以以任意接近信道容量C的信息传输 足够大时, 率传递信息。 率传递信息。
bit/ 码符号
对输入符号的4个码字采用以下编码方法 对输入符号的 个码字采用以下编码方法
i =1 2,3,4 , aik 是 i的 k个 量 k =1 2,3,4,5 a 第 分 , ,
平均错误译码概率为
pE =1− p5 −5p4 p − 2 p3 p2 ≈ 8p3 p2 = 7.8×10−4 ( p = 0.01)
6.2.4 汉明距离 续) 汉明距离(续
4、定义6.2.2 最小距离 、定义 在二元码C中 在二元码 中,任意两个码宇的汉明距离的最 小值,称为码C的最小距离 的最小距离, 小值,称为码 的最小距离,即
Dmin = min {D(Ci , Cj ),
Ci ≠ Cj ,且Ci , Cj ∈C}
C2 000 0 01 010 10 0 Dmin =1
第六章 有噪信道编码 •熟练掌握 熟练掌握
错误概率 译码规则
•一般掌握 一般掌握
编码方法 有噪信道编码定理
1
6.1 有噪信道编码问题
• 信道的任务是以信号方式传输信息 • 信道的输入端和输出端连接着编码器和译码器, 信道的输入端和输出端连接着编码器和译码器, 形成了一个新的信道, 形成了一个新的信道,即编码信道 • 基本思想: 基本思想: 根据相关性来检测和纠正传输过程中产生 的差错
5、举例 、
设 n =3 两 码 有 的 组 C1 a1 a2 a3 a4 Dmin 000 011 101 110 Dmin = 2
16
6.2.4 汉明距离 续) 汉明距离(续 6、基于汉明距离的最小近邻译码规则 将与y 汉明距离最近的x 作为y 原码, 将与yj汉明距离最近的xi作为yj原码,即
8
6.2 错误概率与编码方法
• 选择最佳译码规则只能使错误概率pE有限地减小、 无法使pE任意地小 • 必须优选信道编码方法来进一步减小错误概率 • 编码方法介绍 简单重复编码 (5.2)线性码
9
6.2.1 简单重复编码
二 对 信 矩 元 称 道 阵 0.99 0.01 P= 0.01 0.99
p(x* | y j ) ≥ p(xi | y j ) 对 i ∀
(2) 最大似然译码规则 选择译码函数F(y = , 选择译码函数 j)=x*,使之满足条件
p( yj | x*) p(x*) ≥ p( y j | xi ) p(xi )
对 i ∀
6
6.1.2 译码规则 续) 译码规则(续
3、平均错误概率 、
17
6.3 有噪信道编码定理
• 定理 定理6.3.1 香农第二定理
设有一离散无记忆平稳信道,其信道容量为 , 设有一离散无记忆平稳信道,其信道容量为C,只要待 传送的信息传输率 R<C,则存在一种编码,当输入序 < ,则存在一种编码, 列长度n足够大时 足够大时, 列长度 足够大时,使译码错误概率任意小。
简单重复编码: 简单重复编码: 规定信源符号为“ 或 规定信源符号为“0’’(或“1”)时,则重复发送 时 三个“ 或 三个“0”(或“1”),此时构成的新信道可以看 , 成是二元对称信道的三次扩展信道
没 使 发送端用作 有 用 的 字 消息的码字 码 a1 = 000 a2 = 001 a3 = 010 a4 = 011 a5 =100 a6 =101 a7 =110 a8 =
pp2
p2 p pp2