信息论与编码第一章答案

合集下载

信息论与编码第一章答案

信息论与编码第一章答案

第一章信息论与基础1.1信息与消息的概念有何区别?信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。

一切物质都有可能成为信息的载体,信息充满着整个物质世界。

信息是物质和能量在空间和时间中分布的不均匀程度。

信息是表征事物的状态和运动形式。

在通信系统中其传输的形式是消息。

但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。

在通信系统中形式上传输的是消息,但实质上传输的是信息。

消息只是表达信息的工具,载荷信息的载体。

显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。

信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。

可见,信息与消息既有区别又有联系的。

1.2 简述信息传输系统五个组成部分的作用。

信源:产生消息和消息序列的源。

消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。

信源研究主要内容是消息的统计特性和信源产生信息的速率。

信宿:信息传送过程中的接受者,亦即接受消息的人和物。

编码器:将信源发出的消息变换成适于信道传送的信号的设备。

它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。

(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。

(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。

纠错编码器和调制器的组合又称为信道编码器。

信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。

信息论与编码作业答案(新)超全

信息论与编码作业答案(新)超全

1 1 1 , H ( , ) = 1bit / event 2 2 2 99 1 99 1 (2) p(r ) = , p(w ) = ,H( , ) » 0.081bit / event 100 100 100 100 1 1 1 1 1 1 1 1 (3) p(r ) = , p(y ) = , p(b ) = , p(w ) = , H ( , , , ) = 2bit / event 4 4 4 4 4 4 4 4
解: (1)状态转移矩阵
p(0 | 00) = p(00 | 00) = 0.8 p(0 | 11) = p(10 | 11) = 0.2 p(1 | 00) = p(01 | 00) = 0.2 p(1 | 11) = p(11 | 11) = 0.8
p(0 | 01) = p(10 | 01) = 0.5 p(0 | 10) = p(00 | 10) = 0.5 p(1 | 01) = p(11 | 01) = 0.5 p(1 | 10) = p(01 | 10) = 0.5
2-8
(题目略)
Log( 2) 1 Log( 4) 2 Log( 8) 3
2-9
(题目略) “-” 用三个脉冲 (1) I(●)= Log( 4) 2
1 Log( 4) 3 4
“●”用一个脉冲 I(-)=
4 Log
0.415 3
4
(2) H= 4
Log
1 1 ´ 6 6 1 = 36
1 1 ´ + 6 6 1 1 ´ 6 6 2 = 36
1 1 ´ + 6 6 1 1 ´ + 6 6 1 1 ´ 6 6 3 = 36
1 1 ´ + 6 6 1 1 ´ + 6 6 1 1 ´ + 6 6 1 1 ´ 6 6 4 = 36

信息论与编码习题解答

信息论与编码习题解答

信息论与编码习题解答信息论与编码习题解答第⼀章1.⼀位朋友很不赞成“通信的⽬的是传送信息”及“消息中未知的成分才算是信息”这些说法。

他举例说:我多遍地欣赏梅兰芳⼤师的同⼀段表演,百看不厌,⼤师正在唱的正在表演的使我愉快,将要唱的和表演的我都知道,照你们的说法电视⾥没给我任何信息,怎么能让我接受呢?请从信息论的⾓度对此做出解释。

(主要从狭义信息论与⼴义信息论研究的内容去理解和解释)答:从狭义信息论⾓度,虽然将要表演的内容观众已知,但是每⼀次演出不可能完全相同。

⽽观众在欣赏的同时也在接受着新的感官和视听享受。

从这⼀⾓度来说,观众还是可以得到新的信息的。

另⼀种解释可以从⼴义信息论的⾓度来分析,它涉及了信息的社会性、实⽤性等主观因素,同时受知识⽔平、⽂化素质的影响。

京剧朋友们在欣赏京剧时也因为主观因素⽽获得了享受,因此属于⼴义信息论的范畴。

2.利⽤下图(图1.2)所⽰的通信系统分别传送同样时间(例如⼗分钟)的重⼤新闻公告和轻⾳乐,它们在接收端各⽅框的输⼊中所含的信息是否相同,为什么?图1.2 通信系统的⼀般框图答:重⼤新闻是语⾔,频率为300~3400Hz,⽽轻⾳乐的频率为20~20000Hz。

同样的时间内轻⾳乐的采样编码的数据要⽐语⾳的数据量⼤,按码元熵值,⾳乐的信息量要⽐新闻⼤。

但是在信宿端,按信息的不确定度,信息量就应分别对待,对于新闻与⾳乐的信息量⼤⼩在⼴义上说,因⼈⽽异。

第⼆章1.⼀珍珠养殖场收获240颗外观及重量完全相同的特⼤珍珠,但不幸被⼈⽤外观相同但重量仅有微⼩差异的假珠换掉1颗。

(1)⼀⼈随⼿取出3颗,经测量恰好找出了假珠,问这⼀事件⼤约给出了多少⽐特的信息量;(2)不巧假珠⼜滑落进去,那⼈找了许久却未找到,但另⼀⼈说他⽤天平最多6次能找出,结果确是如此,问后⼀事件给出多少信息量;(3)对上述结果作出解释。

解:(1)从240颗珍珠中取3颗,其中恰好有1颗假珠的概率为:22393240239!2!237!240!3!237!11/80240/3C P C====所以,此事件给出的信息量为:I = – log 2P = log 280=6.32 (bit)(2)240颗中含1颗假珠,⽤天平等分法最多6次即可找到假珠,这是⼀个必然事件,因此信息量为0。

《信息论与编码》部分课后习题参考答案

《信息论与编码》部分课后习题参考答案

若知道是星期几,则从别人的答案中获得的信息量为 0。 2.3 每帧电视图像可以认为是 3*10^5 个像素构成,所有像素均独立变化,且每一像素又取 128 个不同的亮度电平,并设亮度电平等概率出现。问每帧图像喊多少信息量?如果一个广 播员在约 10000 个汉字的字汇中选取 1000 个字来口述此电视图像,试问广播员描述此图像 所广播的信息量是多少(假设汉字字汇是等概率分布,并且彼此独立)?若要恰当地描述此 图像,广播员在口述中至少需用多少汉字? 答:由于每一象素取 128 个不同的亮度电平,各个亮度电平等概率出现。因此每个亮度电平 包含的信息量为 I(X) = – lb(1/128)=lb128=7 bit/像素 每帧图像中像素均是独立变化的, 因此每帧图像信源就是离散亮度电平信源的无记忆 N 次扩展。由此,每帧图像包含的信息量为 I(XN) = NI(X)= 3×105×7 =2.1×106 bit/帧 广播员在约 10000 个汉字中选取字汇来口述此电视图像, 各个汉字等概分布, 因此每个 汉字包含的信息量为 I(Y) = – lb(1/10000)=lb1000=13.29 bit/ 字 广播员述电视图像是从这个汉字字汇信源中独立地选取 1000 个字进行描述,因此广播 员描述此图像所广播的信息量是 I(YN) = NI(Y)= 1000×13.29 =1.329 ×104 bit/字 由于口述一个汉字所包含的信息量为 I(Y),而一帧电视图像包含的信息量是 I(XN),因此 广播员要恰当地描述此图像,需要的汉字数量为:
《信息论与编码》
部分课后习题参考答案
1.1 怎样理解消息、信号和信息三者之间的区别与联系。 答:信号是一种载体,是消息的物理体现,它使无形的消息具体化。通信系统中传输的是 信号。 消息是信息的载体, 信息是指消息中包含的有意义的内容, 是消息中的未知成分。 1.2 信息论的研究范畴可以分成哪几种,它们之间是如何区分的? 答:信息论的研究范畴可分为三种:狭义信息论、一般信息论、广义信息论。 1.3 有同学不同意“消息中未知的成分才算是信息”的说法。他举例说,他从三岁就开始背 诵李白诗句“床前明月光,疑是地上霜。举头望明月,低头思故乡。 ” ,随着年龄的增长, 离家求学、远赴重洋,每次读到、听到这首诗都会带给他新的不同的感受,怎么能说这 些已知的诗句没有带给他任何信息呢?请从广义信心论的角度对此现象作出解释。 答:从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识 水平、文化素质的影响。这位同学在欣赏京剧时也因为主观因素而获得了享受,因此属于广 义信息论的范畴。

信息论与编码第三版答案

信息论与编码第三版答案

信息论与编码第三版答案《信息论与编码》是一本非常经典的书籍,已经成为了信息科学领域中的经典教材。

本书的第三版已经出版,相比于前两版,第三版的变化不小,主要是增加了一些新内容,同时也对一些旧内容做了修改和完善。

作为一本教材,上面的题目和习题都是非常重要的,它们可以帮助读者更好地理解书中的相关概念和知识点,同时也可以帮助读者更好地掌握理论和技术。

因此,本文将介绍《信息论与编码》第三版中部分习题的答案,方便读者快速查阅和学习。

第一章:信息量和熵1.1 习题1.1Q:两个随机变量的独立性和无关性有什么区别?A:独立性和无关性是两个不同的概念。

两个随机变量是独立的,当且仅当它们的联合概率分布等于乘积形式的边缘概率分布。

两个随机变量是无关的,当且仅当它们的协方差等于0。

1.2 习题1.7Q:什么样的随机变量的熵等于0?A:当随机变量的概率分布是确定的(即只有一个概率为1,其余全为0),其熵等于0。

第二章:数据压缩2.5 习题2.9Q:为什么霍夫曼编码比熵编码更加高效?A:霍夫曼编码能够更好地利用信源的统计特征,将出现频率高的符号用较短的二进制编码表示,出现频率低的符号用较长的二进制编码表示。

这样一来,在编码过程中出现频率高的符号会占用较少的比特数,从而能够更加高效地表示信息。

而熵编码则是针对每个符号分别进行编码,没有考虑符号之间的相关性,因此相比于霍夫曼编码更加低效。

第四章:信道编码4.2 习题4.5Q:在线性块码中,什么是生成矩阵?A:在线性块码中,生成矩阵是一个包含所有二元线性组合系数的矩阵。

它可以用来生成码字,即任意输入信息序列可以通过生成矩阵与编码器进行矩阵乘法得到相应的编码输出序列。

4.3 习题4.12Q:简述CRC校验的原理。

A:CRC校验是一种基于循环冗余校验的方法,用于检测在数字通信中的数据传输错误。

其基本思想是将发送数据看作多项式系数,通过对这个多项式进行除法运算,得到余数,将余数添加到数据尾部,发送给接收方。

信息论、编码与密码学课后复习题答案

信息论、编码与密码学课后复习题答案

《信息论、编码与密码学》课后习题答案第1章 信源编码1.1考虑一个信源概率为{0.30,0.25,0.20,0.15,0.10}的DMS 。

求信源熵H (X )。

解: 信源熵 ∑=-=512)(log )(k k k p p X HH(X)=-[0.30*(-1.737)+0.25*(-2)+0.2*(-2.322)+0.15*(-2.737)+0.1*(-3.322)]=[0.521+0.5+0.464+0.411+0.332] =2.228(bit)故得其信源熵H(X)为2.228bit1.2 证明一个离散信源在它的输出符号等概率的情况下其熵达到最大值。

解: 若二元离散信源的统计特性为P+Q=1 H(X)=-[P*log(P)+(1-P)*log(1-P)] 对H(X)求导求极值,由dH(X)/d(P)=0可得211101log ==-=-p ppp p可知当概率P=Q=1/2时,有信源熵)(1)(max bit X H =对于三元离散信源,当概率3/1321===P P P 时,信源熵)(585.1)(m ax bit X H =,此结论可以推广到N 元的离散信源。

1.3 证明不等式ln 1x x ≤-。

画出曲线1ln y x =和21y x =-的平面图以表明上述不等式的正确性。

证明:max ()ln 1(0)1()()01001()0()0ln 11ln 1ln 1f x x x x f x xf x x x x f x f x f x x x x x x x =-+>'=''==>∴<≤>≤=≤-≥≤-≤-令,又有时此时也即当时同理可得此时综上可得证毕绘制图形说明如下 可以很明确说明上述 不等式的正确性。

1.4 证明(;)0I X Y ≥。

在什么条件下等号成立?1111(,)(,)(,)(,)log()()n mi j i j i j n mi j i j i j i j I P x y I x y P x y P x y P x P y =====∑∑∑∑(X ;Y )=当和相互独立时等号成立。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间: bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

(完整版)信息论与编码习题参考答案

(完整版)信息论与编码习题参考答案

1.6为了使电视图象获得良好的清晰度和规定的对比度,需要用5×105个像素和10个不同的亮度电平,并设每秒要传送30帧图象,所有的像素是独立的,且所有亮度电平等概出现。

求传输此图象所需要的信息率(bit/s )。

解:bit/s 104.98310661.130)/)(()/(R bit/frame10661.1322.3105)(H 105)(H bit/pels322.310log )(log )()(H 7665051010⨯=⨯⨯=⨯=∴⨯=⨯⨯=⨯⨯====∑=frame bit X H s frame r x X a p a p x i i i 所需信息速率为:每帧图像的熵是:每个像素的熵是:,由熵的极值性:由于亮度电平等概出现1.7设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度。

试证明传输这种彩电系统的信息率要比黑白系统的信息率大2.5倍左右。

证:.5.2,,5.25.2477.210log 300log )(H )(H pels/bit 300log )(log )()(H bit 3001030,10,,300130011倍左右比黑白电视系统高彩色电视系统信息率要图形所以传输相同的倍作用大信息量比黑白电视系统彩色电视系统每个像素每个像素的熵是:量化所以每个像素需要用个亮度每个色彩度需要求下在满足黑白电视系统要个不同色彩度增加∴≈====∴=⨯∑=x x b p b p x i i i1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。

问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字? 解:个汉字最少需要数描述一帧图像需要汉字每个汉字所包含信息量每个汉字所出现概率每帧图象所含信息量55665510322.6/10322.61.0log 101.2)()()()(,log H(c):1.0100001000symble /bit 101.2128log 103)(103)(:⨯∴⨯=-⨯=≥≤-=∴==⨯=⨯⨯=⨯⨯=frame c H X H n c nH X H n p p x H X H1.9给定一个概率分布),...,,(21n p p p 和一个整数m ,nm ≤≤0。

信息理论与编码答案 人民邮电出版社

信息理论与编码答案 人民邮电出版社

第一章 自我测试题一、填空题1. 在认识论层次上研究信息的时候,必须同时考虑到形式、__语义___和__语用___三个方面的因素。

2. 如果从随机不确定性的角度来定义信息,信息是用以消除__随机不确定性___的东西。

3. 信源编码的结果是__减小_冗余;而信道编码的手段是__增加___冗余。

4. _1948_年,香农发表了著名的论文__通信的数学理论__,标志着信息论诞生。

5. 信息商品是一种特殊商品,它有__保存性_性、_共享_性、_老化可能_性和 知识创造性 等特征。

二、判断题1. 信息传输系统模型表明,噪声仅仅来源于信道(×)2. 本体论层次信息表明,信息不依赖于人而存在(√)3. 信道编码与译码是一对可逆变换(×)4. 1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始(×)5. 基因组序列信息的提取和分析是生物信息学的研究内容之一(√)三、选择题1.下列表述中,属于从随机不确定性的角度来定义信息的是__D___ A . 信息是数据B . 信息是集合之间的变异度C . 信息是控制的指令D . 信息是收信者事先不知道的报道 2.___B__是最高层次的信息 A . 认识论 B . 本体论 C . 价值论 D . 唯物论 3.下列不属于狭义信息论的是__D___ A . 信息的测度 B . 信源编码 C . 信道容量 D . 计算机翻译 4.下列不属于信息论的研究内容的是__A___ A . 信息的产生 B . 信道传输能力 C . 文字的统计特性 D . 抗干扰编码 5.下列关于信息论发展历史描述不正确的是__B___A . 偶然性、熵函数引进物理学为信息论的产生提供了理论前提。

B . 1952年,香农发展了信道容量的迭代算法C . 哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。

D . 1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。

信息论与编码 课后习题答案

信息论与编码 课后习题答案

信息论与编码课后习题答案信息论与编码课后习题答案&lbrack;信息论与编码&rsqb;课后习题答案1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分为语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的就是为了高效率、可信、安全地互换和利用各种各样的信息。

6、信息的是建立信息论的基础。

8、就是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号线性信源通常用随机变量叙述,而多符号线性信源通常用随机矢量叙述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位通常存有比特、奈特和哈特。

13、必然事件的自信息是。

14、不可能将事件的自信息量就是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处置后,随着处理器数目的激增,输出消息与输入消息之间的平均值互信息量趋向变大。

17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。

limh(xn/x1x2xn1)h n18、线性稳定存有记忆信源的音速熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。

20、一维已连续随即变量x在[a,b]。

1log22ep21、平均功率为p的高斯分布的已连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于减半平均功率的一维已连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一线性并无记忆信源的信源熵h(x)等同于2.5,对信源展开相切的并无杂讯二进制编码,则编码长度至少为。

信息论与编码习题1及答案1

信息论与编码习题1及答案1

一、dr)填空题(1)1948年.美国数学家_____________________ 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论.(2)必然事件的自信息是_0 ___________ 。

(3)离散平稳无记忆信源X的N次扩展信源的嫡等于离散信源X的嫡的N倍°(4)对于离散无记忆信源,当信源爛有最大值时,满足条件为.信源符号等槪分術一(5)若一离散无记忆信源的信源爛H (X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3 _____ ・(6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是 __________________ 。

(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出2 个码元错误.最多能纠正—1_个码元错误.(8)设有一离散无记忆平稳信道,其信道容董为C,只要待传送的信息传输率R_小于_C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(9)平均错误概率不仅与信道本身的统计特性有关,还与— ___________ 和_编码方巷—有关二、(9 )判斷题(1)信息就是一种消息。

( )(2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。

( )(3)概率大的事件自信息量大。

( )(4)互信息量可正、可负亦可为零。

( )(5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。

( )(6)对于固定的信源分布,平均互信息董是信道传递概率的下凸函数。

( )(7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。

( )(8)信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。

( )(9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( )三、(5 )居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1o 6米以上的,而女孩中身爲1・6米以上的占总数的一半。

信息论与编码作业答案(新)超全

信息论与编码作业答案(新)超全

信息论与编码作业答案(新)超全篇一:信息论与编码姜丹第三版答案信息论与编码习题参考答案第一章单符号离散信源信息论与编码作业是74页,的(1)(5),,,,,还有证明熵函数的连续性、扩展性、可加性同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:11样本空间:N?c6c6?6?6?36n12??I(a)??logP1?log18?(2)P2?2??I(a)??logP2?log36?N36(1)P1?(3)信源空间:?log?6??log36? 36236?H(x)?15?2436636836?log36+?log??log??log36362363364 1036636??log+?log?365366n1136(5) P3?3??I(a)??logP3?log?N3611?H(x)?如有6行、8列的棋型方格,若有两个质点A和B,分别以等概落入任一方格内,且它们的坐标分别为(Xa,Ya), (Xb,Yb),但A,B不能同时落入同一方格内。

(1)若仅有质点A,求A落入任一方格的平均信息量;(2)若已知A已落入,求B落入的平均信息量;(3)若A,B是可辨认的,求A,B落入的平均信息量。

解:1(1)?A落入任一格的概率:P(ai)??I(ai)??logP(ai)?log4848?H(a)P(ai)logP(ai)?log48?i?148(2)?在已知A落入任一格的情况下,B落入任一格的概率是:P(bi)??I(bi)??logP(bi)?log47?H(b)P(bi)logP(bi)?log47?i?148147(3)AB同时落入某两格的概率是P(ABi)??I(ABi)??logP(ABi)48?47i?111?4847H(ABi)P(ABi)logP(ABi)?log(48?47)?从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码姜丹第三版答案精编版

信息论与编码姜丹第三版答案精编版

信息论与编码习题参考答案 第一章 单符号离散信源信息论与编码作业是74页,1.1的(1)(5),1.3,1.4,1.6,1.13,1.14还有证明熵函数的连续性、扩展性、可加性1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3616236log 36215)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码第二版答案 (3)

信息论与编码第二版答案 (3)

信息论与编码第二版答案第一章:信息论基础1.问题:信息论的基本概念是什么?答案:信息论是一种数学理论,研究的是信息的表示、传输和处理。

它的基本概念包括:信息、信息的熵和信息的编码。

2.问题:什么是信息熵?答案:信息熵是信息的度量单位,表示信息的不确定度。

它的计算公式为H(X) = -ΣP(x) * log2(P(x)),其中P(x)表示事件x发生的概率。

3.问题:信息熵有什么特性?答案:信息熵具有以下特性:•信息熵的值越大,表示信息的不确定度越高;•信息熵的值越小,表示信息的不确定度越低;•信息熵的最小值为0,表示信息是确定的。

4.问题:信息熵与概率分布有什么关系?答案:信息熵与概率分布之间存在着直接的关系。

当概率分布均匀时,信息熵达到最大值;而当概率分布不均匀时,信息熵会减小。

第二章:数据压缩1.问题:数据压缩的目的是什么?答案:数据压缩的目的是通过消除冗余和重复信息,使数据占用更少的存储空间或传输更快。

2.问题:数据压缩的两种基本方法是什么?答案:数据压缩可以通过无损压缩和有损压缩两种方法来实现。

无损压缩是指压缩后的数据可以完全还原为原始数据;而有损压缩则是指压缩后的数据不完全还原为原始数据。

3.问题:信息压缩的度量单位是什么?答案:信息压缩的度量单位是比特(bit),表示信息的数量。

4.问题:哪些方法可以用于数据压缩?答案:数据压缩可以通过以下方法来实现:•无结构压缩方法:如霍夫曼编码、算术编码等;•有结构压缩方法:如词典编码、RLE编码等;•字典方法:如LZW、LZ77等。

第三章:信道容量1.问题:什么是信道容量?答案:信道容量是指在给定信噪比的条件下,信道传输的最大数据速率。

2.问题:信道容量的计算公式是什么?答案:信道容量的计算公式为C = W * log2(1 + S/N),其中C表示信道容量,W表示信道带宽,S表示信号的平均功率,N表示噪声的平均功率。

3.问题:信道容量与信噪比有什么关系?答案:信道容量与信噪比成正比,信噪比越高,信道容量越大;反之,信噪比越低,信道容量越小。

信息论与编码作业答案 新 超全

信息论与编码作业答案 新 超全
1-2、
简述一个通信系统包括的各主要功能模块及其作用。 答:主要模块和其作用如下:
信源:向通信系统提供消息。 信宿:接收消息。 信道:传递消息或说物理信号。 干扰源:集中反映通信系统的干扰。 密钥源:产生密钥。 信源编码器:进行信源编码,把信源发出的消息转换成由二进制码元(或多进制码元)的代码组。 信道编码器:增加监督码元,增加检错或纠错的能力。 加密编码:提高通信系统的安全性。 #
p(1 | 11) = p(11 | 11) = 0.8
p(1 | 10) = p(01 | 10) = 0.5
于是可以列出转移概率矩阵: p = æççççççççççççè0000..85
0.2 0 0.5 0
0 0.5 0 0.2
0000..85ö÷÷÷÷÷÷÷÷÷÷÷÷÷÷ø
(2)状态图为:
2-2
由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:p(0 | 00) =0.8,p(0 | 11)=0.2,p(1 | 00)=0.2,p(1 | 11) =0.8,
p(0 | 01) =0.5, p(0 | 10) =0.5, p(1 | 01) =0.5, p(1 | 10) =0.5。画出状态图,并计算各状态的稳态概率。
=
3, x2
=
5) +
p(x1
=
5, x2
=
3)
=
1´ 6
1 6
+
1 6
´1 6
=
1 18
I(3, 5) = -log(p(3, 5)) » 4.17bit
(2)
p(1,1)
=
p(x1
=
1, x2
=
1)
=
1´1 66

信息论与编码理论-习题答案-姜楠-王健-编著-清华大学

信息论与编码理论-习题答案-姜楠-王健-编著-清华大学
一阶马尔可夫过程共有3种状态,每个状态转移到其他状态的概率均为 ,设状态的平稳分布为 ,根据
可得 ,3种状态等概率分布。
一阶马尔可夫信源熵为
信源剩余度为
(2)二阶马尔可夫信源有9种状态(状态转移图略),同样列方程组求得状态的平稳分布为
二阶马尔可夫信源熵为
信源剩余度为
由于在上述两种情况下,3个符号均为等概率分布,所以信源剩余度都等于0。
总的概率
所需要的信息量
2.6设 表示“大学生”这一事件, 表示“身高1.60m以上”这一事件,则

2.7四进制波形所含的信息量为 ,八进制波形所含信息量为 ,故四进制波形所含信息量为二进制的2倍,八进制波形所含信息量为二进制的3倍。
2.8
故以3为底的信息单位是比特的1.585倍。
2.9(1)J、Z(2)E(3)X
(2)三元对称强噪声信道模型如图所示。
4.7由图可知信道1、2的信道矩阵分别为
它们串联后构成一个马尔科夫链,根据马氏链的性质,串联后总的信道矩阵为
4.8传递矩阵为
输入信源符号的概率分布可以写成行向量形式,即
由信道传递矩阵和输入信源符号概率向量,求得输出符号概率分布为
输入符号和输出符号的联合概率分布为
由冗余度计算公式得
3.18(1)由一步转移概率矩阵与二步转移概率矩阵的公式 得
(2)设平稳状态 ,马尔可夫信源性质知 ,即
求解得稳态后的概率分布
3.19设状态空间S= ,符号空间

一步转移概率矩阵
状态转移图
设平稳状态 ,由马尔可夫信源性质有

可得
马尔可夫链只与前一个符号有关,则有
3.20消息元的联合概率是
平均信息传输速率

信息论与编码(第二版)曹雪虹(最全版本)答案

信息论与编码(第二版)曹雪虹(最全版本)答案

《信息论与编码(第二版)》曹雪虹答案(一)第二章Equation Chapter 1 Section 12.1一个马尔可夫信源有3个符号,转移概率为:,,,,,,,,,画出状态图并求出各符号稳态概率。

解:状态图如下状态转移矩阵为:设状态u1,u2,u3稳定后的概率分别为W1,W2、W3由得计算可得2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:=0.8,=0.2,=0.2,=0.8,=0.5,=0.5,=0.5,=0.5。

画出状态图,并计算各状态的稳态概率。

解:于是可以列出转移概率矩阵:状态图为:000110110.80.20.50.50.50.50.20.8设各状态00,01,10,11的稳态分布概率为W1,W2,W3,W4 有得 计算得到2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。

解:(1)(2)(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是其他15个组合的概率是(4)参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:(5)2-42.5 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。

假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量?解:设随机变量X代表女孩子学历X x1(是大学生)x2(不是大学生)P(X)0.250.75设随机变量Y代表女孩子身高Y y1(身高>160cm)y2(身高<160cm)P(Y)0.50.5已知:在女大学生中有75%是身高160厘米以上的即:求:身高160厘米以上的某女孩是大学生的信息量即:2.6 掷两颗骰子,当其向上的面的小圆点之和是3时,该消息包含的信息量是多少?当小圆点之和是7时,该消息所包含的信息量又是多少?解:1)因圆点之和为3的概率该消息自信息量2)因圆点之和为7的概率该消息自信息量2.7 设有一离散无记忆信源,其概率空间为(1)求每个符号的自信息量(2)信源发出一消息符号序列为{202 120 130 213 001 203 210 110 321 010 021 032 011 223 210},求该序列的自信息量和平均每个符号携带的信息量解:同理可以求得因为信源无记忆,所以此消息序列的信息量就等于该序列中各个符号的信息量之和就有:平均每个符号携带的信息量为bit/符号2.8 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}二进制脉冲可以表示2个不同的消息,例如:{0, 1}假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量八进制脉冲的平均信息量二进制脉冲的平均信息量所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。

信息论编码课后答案01

信息论编码课后答案01
解:
男士:
女士:
2.6设信源 ,求这个信源的熵,并解释为什么H(X)> log6不满足信源熵的极值性。
解:
不满足极值性的原因是 。
2.7证明:H(X3/X1X2)≤H(X3/X1),并说明当X1, X2, X3是马氏链时等式成立。
证明:
2.8证明:H(X1X2。。。Xn)≤H(X1) + H(X2) +…+ H(Xn)。
(1)此消息的自信息量是多少?
(2)此消息中平均每符号携带的信息量是多少?
解:
(1)此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:
此消息的信息量是:
(2)此消息中平均每符号携带的信息量是:
2.5从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?
(2)试求Y = X + A (A > 0)的熵Hc(Y);
(3)试求Y = 2X的熵Hc(Y)。
解:
1)
2)
3)
解:
(1)
(2)
(3)
H(X) > H2(X)
表示的物理含义是:无记忆信源的不确定度大与有记忆信源的不确定度,有记忆信源的结构化信息较多,能够进行较大程度的压缩。
2.12同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:
(1)“3和5同时出现”这事件的自信息;
(2)“两个1同时出现”这事件的自信息;
(1)任一特定排列所给出的信息量是多少?

信息论编码课后答案01

信息论编码课后答案01
x1=0
x2=1
y1=0
1/8
3/8
y2=1
3/8
1/8
并定义另一随机变量Z = XY(一般乘积),试计算:
(1)H(X),H(Y), H(Z), H(XZ), H(YZ)和H(XYZ);
(2)H(X/Y), H(Y/X), H(X/Z), H(Z/X), H(Y/Z), H(Z/Y), H(X/YZ), H(Y/XZ)和H(Z/XY);
(1) 假设图上黑白消息出现前后没有关联,求熵H(X);
(2) 假设消息前后有关联,其依赖关系为P(白/白)= 0.9,P(黑/白)= 0.1,P(白/黑)= 0.2,P(黑/黑)= 0.8,求此一阶马尔可夫信源的熵H2(X);
(3) 分别求上述两种信源的剩余度,比较H(X)和H2(X)的大小,并说明其物理含义。
(3) 两个点数的各种组合(无序)对的熵和平均信息量;
(4) 两个点数之和(即2, 3, … , 12构成的子集)的熵;
(5) 两个点数中至少有一个是1的自信息量。
解:
(1)
(2)
(3)
两个点数的排列如下:
11
12
13
14
15
16
21
22
23
24
25
26
31
32
33
34
35
36
41
42
43
44
45
46
(3)I(X;Y), I(X;Z), I(Y;Z), I(X;Y/Z), I(Y;Z/X)和I(X;Z/Y)。
解:
(1)
Z = XY的概率分布如下:
(2)
(3)
2.16 有两个随机变量X和Y,其和为Z = X + Y(一般加法),若X和Y相互独立,求证:H(X) ≤ H(Z), H(Y) ≤ H(Z)。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第一章信息论与基础
1.1信息与消息的概念有何区别?
信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。

一切物质都有可能成为信息的载体,信息充满着整个物质世界。

信息是物质和能量在空间和时间中分布的不均匀程度。

信息是表征事物的状态和运动形式。

在通信系统中其传输的形式是消息。

但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。

在通信系统中形式上传输的是消息,但实质上传输的是信息。

消息只是表达信息的工具,载荷信息的载体。

显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。

信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。

可见,信息与消息既有区别又有联系的。

1.2 简述信息传输系统五个组成部分的作用。

信源:产生消息和消息序列的源。

消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。

信源研究主要内容是消息的统计特性和信源产生信息的速率。

信宿:信息传送过程中的接受者,亦即接受消息的人和物。

编码器:将信源发出的消息变换成适于信道传送的信号的设备。

它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。

(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。

(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。

纠错编码器和调制器的组合又称为信道编码器。

信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。

信道除了传送信号外,还存储信号的作用。

译码器:编码的逆变换。

它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。

1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学
模型。

解:设该信源符号集合为X
2
34567891011121234565432136
36
36
36
36
36
36
36
36
3636X P ⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦
⎣⎦
1.4 二阶马尔可夫信源的符号集X={0,1,2},Y={0,1,2},
已知符号下发出符号的概率为p(0|0)=1-2p, p(1|0)= p(2|0)=p, p(0|1)= p(2|1)=p, p(1|1)=1-2p, p(0|2)= p(1|2)=p, p(2|2)=1-2p,画出状态转移图并求平稳后各状态的概率分布。

解:根据符号转移概率
状态空间为
S={00(S 0),01(S 1),02 (S 2),10(S 3),11(S 4),12(S 5),20(S 6),21(S 7),22(S 8)} 可写出转移概率矩阵
1200
00
012000
00
1212000
01200000
12121212p p p p
p
p p
p
p p p p P p
p
p p
p
p p p
p
p
p
p
p
p
p -⎡⎤⎢
⎥-⎢⎥⎢⎥
-⎢
⎥-⎢⎥⎢⎥=-⎢⎥-⎢⎥
⎢⎥-⎢⎥-⎢⎥⎢⎥-⎣
⎦ 状态转移图(略)
由状态转移图列方程组,设各状态的转移概率分别为,0~8i p i =
00361
0362
3147541476258782588
1
(12)()()()(12)()()(12)()
1
i i p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p =⎧
=-++⎪⎪=++=⎪=++=⎪⎪
=-++⎨⎪=++=⎪⎪=-++⎪⎪=∑⎩ 解得048123567
123
3p p p p p p p p p p p -⎧
===⎪⎪⎨
⎪======⎪⎩
1.5 设有一马尔可夫信源如题图1-1所示,
112233,,s xa s xa s xa ===
(1) 求平稳后各状态出现的概率; (2) 若在初始时刻L=0时处于状态s 1; (3) 求L=2时刻 x 2=a 1的概率;
(4) 求稳态下字母序列a 3,a 1,a 2,a 1,a 2出现的概率。

解:(1)求平稳后各状态出现的概率 转移概率矩阵为
0143412
14141
0P ⎡⎤
⎢⎥=⎢⎥⎢⎥⎣⎦
由P 列方程组
123212
312
12312114431441
p p p p p p p p p p p p ⎧=+⎪⎪
⎪=+⎪⎨
⎪=+⎪⎪
⎪++=⎩ 解得平稳分布为111
613213513p p p ⎧
=⎪⎪

=⎨⎪
⎪=⎪⎩
(2)若在初始时刻0l =时处于状态S 1,求2l =时刻,21x a =的概率
S
2
3
S 1
S
1l l =1
l =2
21011137{}1424
8
p x a S s ⇒===
⨯+
⨯=
或由二步转移概率矩阵
(2)
711816163
37816161304
4P
P P ⎡⎤
⎢⎥⎢⎥⎢

=⋅=⎢⎥⎢⎥⎢⎥⎢⎥⎣

可得 (3)∵在L=0时处于状态S 1,∴在L=2时x 2=a 1有两种情况:
P 1=
314
⨯,P 2 =
114
2

= 18
∴所求概率P= P 1 +P 2=
78
(4)求稳态下字母序列31212a a a a a 出现的概率
51115
1
416
p =⨯⨯⨯⨯=平稳分布P 3
转移概率
1.6 有一个二院对称信道,p=0.06,设该信道以1000个符号/秒的速度传输输入符号,现有一消息序列共有9500个符号,并设消息中 q (0)=q (1)=0.5,问从信息传输的角度来考虑,10秒钟能否将消息无失真地传送完?
解:信源符号等概率分布,故信源熵为1
()12H =bit ,9500个符号的信息量为
9500bit 。

又由二进制对称信道的信道矩阵0.94
0.06.0.6
0.94P ⎡⎤
=⎢
⎥⎣⎦
1(0)(1)2
q q ==
,1()()12
H Y H ==bit/符号
发送和接收符号的联合概率矩阵为0.47
0.030.030.47XY P ⎡⎤
=⎢⎥⎣⎦
1()()()log ()((0.94,0.06)2)
2
X
Y
H Y X p x p y x p y x H ==
⨯∑∑=0.327
(;)()()10.3270.673I X Y H Y H Y X =-=-=bit/符号
10秒钟可以传送0.6731000106730⨯⨯=bit ,故无法在10秒内无失真地传送。

1.7 求二元删除信道的二次扩展信道。

解:二元删除信道的信道矩阵为100
1p
p P p
p -⎡⎤=⎢
⎥-⎣⎦
,设输入符号集合为X={0,1},
输出符号集合为Y={0,e,1}。

2
{00,01,10,11}X
=,2
{00,0,01,0,,1,10,1,11}Y e e ee e e =
2
2
2
2
2
2
2
2(1)0(1)(1)00000(1)0(1)(1)000000(1)(1)0(1)00
(1)
(1)
(1)
p
p p p p p p p p
p p p P p p p p p p p p p p p p ---⎡⎤⎢⎥---⎢
⎥=⎢⎥---⎢⎥---⎣⎦
1.8 设有一反馈通信系统如图1-2所示,信源为二元离散无记忆信源,信道为二元删除信道,反馈信道为无干扰信道。

译码器判断若收到为删除符号就通知发端重传原来的符号(0或1),若收到0或1,译码器就将它送给信宿,同时通知发端送下一个符号。

试求:
(1)每个信息符号被接收端接收所需的平均传送次数。

(2)信宿接收的符号的错误概率。

解:(1)∵此系统中有二元删除信道且其概率分布如图:
∴信息符号被接收端接收的概率为p ∴接收端接收所需的平均传送次数为
(2)∵信源发出信号是随机的,且此系统中有二元删除信道且译码器判断
若收到为删除符号就通知发端重传原来的符号(0或1) ∴信宿接收的符号错误概率为0。

P
e 1-p 1
P
1
1-p。

相关文档
最新文档