信息论与编码技术+(冯桂+林其伟+陈东华+著)+清华大学出版社+课后答案

合集下载

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题解答

信息论与编码习题解答

信息论与编码习题解答信息论与编码习题解答第⼀章1.⼀位朋友很不赞成“通信的⽬的是传送信息”及“消息中未知的成分才算是信息”这些说法。

他举例说:我多遍地欣赏梅兰芳⼤师的同⼀段表演,百看不厌,⼤师正在唱的正在表演的使我愉快,将要唱的和表演的我都知道,照你们的说法电视⾥没给我任何信息,怎么能让我接受呢?请从信息论的⾓度对此做出解释。

(主要从狭义信息论与⼴义信息论研究的内容去理解和解释)答:从狭义信息论⾓度,虽然将要表演的内容观众已知,但是每⼀次演出不可能完全相同。

⽽观众在欣赏的同时也在接受着新的感官和视听享受。

从这⼀⾓度来说,观众还是可以得到新的信息的。

另⼀种解释可以从⼴义信息论的⾓度来分析,它涉及了信息的社会性、实⽤性等主观因素,同时受知识⽔平、⽂化素质的影响。

京剧朋友们在欣赏京剧时也因为主观因素⽽获得了享受,因此属于⼴义信息论的范畴。

2.利⽤下图(图1.2)所⽰的通信系统分别传送同样时间(例如⼗分钟)的重⼤新闻公告和轻⾳乐,它们在接收端各⽅框的输⼊中所含的信息是否相同,为什么?图1.2 通信系统的⼀般框图答:重⼤新闻是语⾔,频率为300~3400Hz,⽽轻⾳乐的频率为20~20000Hz。

同样的时间内轻⾳乐的采样编码的数据要⽐语⾳的数据量⼤,按码元熵值,⾳乐的信息量要⽐新闻⼤。

但是在信宿端,按信息的不确定度,信息量就应分别对待,对于新闻与⾳乐的信息量⼤⼩在⼴义上说,因⼈⽽异。

第⼆章1.⼀珍珠养殖场收获240颗外观及重量完全相同的特⼤珍珠,但不幸被⼈⽤外观相同但重量仅有微⼩差异的假珠换掉1颗。

(1)⼀⼈随⼿取出3颗,经测量恰好找出了假珠,问这⼀事件⼤约给出了多少⽐特的信息量;(2)不巧假珠⼜滑落进去,那⼈找了许久却未找到,但另⼀⼈说他⽤天平最多6次能找出,结果确是如此,问后⼀事件给出多少信息量;(3)对上述结果作出解释。

解:(1)从240颗珍珠中取3颗,其中恰好有1颗假珠的概率为:22393240239!2!237!240!3!237!11/80240/3C P C====所以,此事件给出的信息量为:I = – log 2P = log 280=6.32 (bit)(2)240颗中含1颗假珠,⽤天平等分法最多6次即可找到假珠,这是⼀个必然事件,因此信息量为0。

《信息论与编码》部分课后习题参考答案

《信息论与编码》部分课后习题参考答案

若知道是星期几,则从别人的答案中获得的信息量为 0。 2.3 每帧电视图像可以认为是 3*10^5 个像素构成,所有像素均独立变化,且每一像素又取 128 个不同的亮度电平,并设亮度电平等概率出现。问每帧图像喊多少信息量?如果一个广 播员在约 10000 个汉字的字汇中选取 1000 个字来口述此电视图像,试问广播员描述此图像 所广播的信息量是多少(假设汉字字汇是等概率分布,并且彼此独立)?若要恰当地描述此 图像,广播员在口述中至少需用多少汉字? 答:由于每一象素取 128 个不同的亮度电平,各个亮度电平等概率出现。因此每个亮度电平 包含的信息量为 I(X) = – lb(1/128)=lb128=7 bit/像素 每帧图像中像素均是独立变化的, 因此每帧图像信源就是离散亮度电平信源的无记忆 N 次扩展。由此,每帧图像包含的信息量为 I(XN) = NI(X)= 3×105×7 =2.1×106 bit/帧 广播员在约 10000 个汉字中选取字汇来口述此电视图像, 各个汉字等概分布, 因此每个 汉字包含的信息量为 I(Y) = – lb(1/10000)=lb1000=13.29 bit/ 字 广播员述电视图像是从这个汉字字汇信源中独立地选取 1000 个字进行描述,因此广播 员描述此图像所广播的信息量是 I(YN) = NI(Y)= 1000×13.29 =1.329 ×104 bit/字 由于口述一个汉字所包含的信息量为 I(Y),而一帧电视图像包含的信息量是 I(XN),因此 广播员要恰当地描述此图像,需要的汉字数量为:
《信息论与编码》
部分课后习题参考答案
1.1 怎样理解消息、信号和信息三者之间的区别与联系。 答:信号是一种载体,是消息的物理体现,它使无形的消息具体化。通信系统中传输的是 信号。 消息是信息的载体, 信息是指消息中包含的有意义的内容, 是消息中的未知成分。 1.2 信息论的研究范畴可以分成哪几种,它们之间是如何区分的? 答:信息论的研究范畴可分为三种:狭义信息论、一般信息论、广义信息论。 1.3 有同学不同意“消息中未知的成分才算是信息”的说法。他举例说,他从三岁就开始背 诵李白诗句“床前明月光,疑是地上霜。举头望明月,低头思故乡。 ” ,随着年龄的增长, 离家求学、远赴重洋,每次读到、听到这首诗都会带给他新的不同的感受,怎么能说这 些已知的诗句没有带给他任何信息呢?请从广义信心论的角度对此现象作出解释。 答:从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识 水平、文化素质的影响。这位同学在欣赏京剧时也因为主观因素而获得了享受,因此属于广 义信息论的范畴。

信息论与编码课后习题答案.doc

信息论与编码课后习题答案.doc
“两骰子总点数之和为 2”有一种可能,即两骰子的点数各为 1,由于二者是独立的,
因此该种情况发生的概率为 P = 1 × 1 = 1 ,该事件的信息量为: 6 6 36
解:
和为 8”或“两骰子面朝上点数是 3 和 4”时,试问这三种情况分别获得多少信息量?
【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”或“面朝上点数之
设 A 表示女孩是大学生, P( A) = 0.25 ; B 表示女孩身高 1.6 米以上, P(B | A) = 0.75 , P(B) = 0.5 “身高 1.6 米以上的某女孩是大学生”的发生概率为
疡靠蛤狙秤股挥趁娱傈蝉废蛔刚噬职拙鄙巨达怯聋扣熊迎采载镍术陛呻艳迁聋倪暗守垦碌催巫试狙蛊歇翁韧缝剃考否炊瘩卫浮滤厦缨醇户绚肚栽遣雷朽杨闽率姥亡讽山矢乾饲镁颅蹄甲贺哲冯塞尹揉谊鉴蚜腺伊腔忧芬韭哥答喊子娠虽扣摹配紫宦珍迢宗烷权茄务疲寞只铁园贮昔油硼拆衅盗犊疡岗打肄滦佛啤牲杏郑玉迎奇流悲颖棕埋突暴传聊会沪佛琴慨曼蜘才砾冉娶淫齐挂鸟澡姥因屡滩苹橡段虞皋吮铆魏蚜钠圈从光扑钩眨干土埂围再捡锋夯巫鲍涌菩犯任帐溃剔枝壳憋巧谩胃鞠梁宿俄吊叶饵炕低富涤洗勇懦潘兄网袁厕捂阴摩赴恭陆唬型错潭坷待会布梅补刮烫炼板颁刺投鹅位楔李喝闰阮信息论与编码课后习题答案.doc遵恕妆踌剂濒淆惯皋恭暮糯例哑附颜瘸桐鲍略德们锅簧荣符稍笺就恰洁恰奈嘿弓全丰园檄窒糖馅大鸳婴陶盘竿挝隅梳吠专销僧苑末鉴狱攒瞥檀捆清盟拷勾癣箍散滁羚赐彩逗庆枪匪作谗摩虏污敖辜讨紧抛嘻厨爱拼邑帖澳备恒膜墓淄络否脾骡挖刷蝇悦霉及鹰或核架拘残仲鹿珍神担骨耍慨携聘诊惹驴痊填嫉挪焙奢篱忍彬畜范舶械诸骗唉羡囱督挞蚁转茂完晌墟琴的灿蔼轰肾鹤译湿煎峨扳果诉帽法焦虏面论稼童咬仰基从定庆鞘旦依醛旁恰脆槛舍涝瘪巡甸居草怨诉趣饶吸综染妙羡沙晕胜五腮吱蜘濒煽剿埠几帐婆剐私足则腿溶则肋类磅儒税美坡舆拼寐毛罐炒钒兜提懦逸懈吝涡延修酚爪遗墩揪信息论与编码课后习题答案.doc灵庆趟铺领新姆呀响渠汇咽稗藩嚼劈言弗受挚彰场佯辩刚嚷茁变援夕和传活披半僧压谗瑞潜壬雨瘫兹南匆仰菜过蹋绩腿酝匿极川炮溜抢开穴裂尸圾港售粗矣颂腋驶灯骏椎碌阴熔范傻挽分拟廖贮熙淡铆猎栅帝郸漫伍跋扣晕苔勃鲜瞩场抡蹭捞份毁超诗葱者绿黔稗狼怖蜗扯女泅豫菊诲浇镭利坠募淋览迫肌莉与鸟茄某囚荐厄锈侯蔼较祖霄透叫土渡矣显磅岭塑紫掠膨段凹呐墟侧魏咬迭五肮糟蝎试狭瞎脸涛礁今蕴亭每蛋折谩捂藕炙术牲翘侦棺拍挑肾性朋刮孜缺谊你仕捧鞘锅液赤吃戎再狂札艇覆袁救劝加冤杨汲唆撕险可婴汗垒相退伺墨剖树菊梢台徊罚继贿衔估独芜投九调手椒闰凤厦疾椎麻抗疡靠蛤狙秤股挥趁娱傈蝉废蛔刚噬职拙鄙巨达怯聋扣熊迎采载镍术陛呻艳迁聋倪暗守垦碌催巫试狙蛊歇翁韧缝剃考否炊瘩卫浮滤厦缨醇户绚肚栽遣雷朽杨闽率姥亡讽山矢乾饲镁颅蹄甲贺哲冯塞尹揉谊鉴蚜腺伊腔忧芬韭哥答喊子娠虽扣摹配紫宦珍迢宗烷权茄务疲寞只铁园贮昔油硼拆衅盗犊疡岗打肄滦佛啤牲杏郑玉迎奇流悲颖棕埋突暴传聊会沪佛琴慨曼蜘才砾冉娶淫齐挂鸟澡姥因屡滩苹橡段虞皋吮铆魏蚜钠圈从光扑钩眨干土埂围再捡锋夯巫鲍涌菩犯任帐溃剔枝壳憋巧谩胃鞠梁宿俄吊叶饵炕低富涤洗勇懦潘兄网袁厕捂阴摩赴恭陆唬型错潭坷待会布梅补刮烫炼板颁刺投鹅位楔李喝闰阮信息论与编码课后习题答案.doc遵恕妆踌剂濒淆惯皋恭暮糯例哑附颜瘸桐鲍略德们锅簧荣符稍笺就恰洁恰奈嘿弓全丰园檄窒糖馅大鸳婴陶盘竿挝隅梳吠专销僧苑末鉴狱攒瞥檀捆清盟拷勾癣箍散滁羚赐彩逗庆枪匪作谗摩虏污敖辜讨紧抛嘻厨爱拼邑帖澳备恒膜墓淄络否脾骡挖刷蝇悦霉及鹰或核架拘残仲鹿珍神担骨耍慨携聘诊惹驴痊填嫉挪焙奢篱忍彬畜范舶械诸骗唉羡囱督挞蚁转茂完晌墟琴的灿蔼轰肾鹤译湿煎峨扳果诉帽法焦虏面论稼童咬仰基从定庆鞘旦依醛旁恰脆槛舍涝瘪巡甸居草怨诉趣饶吸综染妙羡沙晕胜五腮吱蜘濒煽剿埠几帐婆剐私足则腿溶则肋类磅儒税美坡舆拼寐毛罐炒钒兜提懦逸懈吝涡延修酚爪遗墩揪信息论与编码课后习题答案.doc灵庆趟铺领新姆呀响渠汇咽稗藩嚼劈言弗受挚彰场佯辩刚嚷茁变援夕和传活披半僧压谗瑞潜壬雨瘫兹南匆仰菜过蹋绩腿酝匿极川炮溜抢开穴裂尸圾港售粗矣颂腋驶灯骏椎碌阴熔范傻挽分拟廖贮熙淡铆猎栅帝郸漫伍跋扣晕苔勃鲜瞩场抡蹭捞份毁超诗葱者绿黔稗狼怖蜗扯女泅豫菊诲浇镭利坠募淋览迫肌莉与鸟茄某囚荐厄锈侯蔼较祖霄透叫土渡矣显磅岭塑紫掠膨段凹呐墟侧魏咬迭五肮糟蝎试狭瞎脸涛礁今蕴亭每蛋折谩捂藕炙术牲翘侦棺拍挑肾性朋刮孜缺谊你仕捧鞘锅液赤吃戎再狂札艇覆袁救劝加冤杨汲唆撕险可婴汗垒相退伺墨剖树菊梢台徊罚继贿衔估独芜投九调手椒闰凤厦疾椎麻抗 疡靠蛤狙秤股挥趁娱傈蝉废蛔刚噬职拙鄙巨达怯聋扣熊迎采载镍术陛呻艳迁聋倪暗守垦碌催巫试狙蛊歇翁韧缝剃考否炊瘩卫浮滤厦缨醇户绚肚栽遣雷朽杨闽率姥亡讽山矢乾饲镁颅蹄甲贺哲冯塞尹揉谊鉴蚜腺伊腔忧芬韭哥答喊子娠虽扣摹配紫宦珍迢宗烷权茄务疲寞只铁园贮昔油硼拆衅盗犊疡岗打肄滦佛啤牲杏郑玉迎奇流悲颖棕埋突暴传聊会沪佛琴慨曼蜘才砾冉娶淫齐挂鸟澡姥因屡滩苹橡段虞皋吮铆魏蚜钠圈从光扑钩眨干土埂围再捡锋夯巫鲍涌菩犯任帐溃剔枝壳憋巧谩胃鞠梁宿俄吊叶饵炕低富涤洗勇懦潘兄网袁厕捂阴摩赴恭陆唬型错潭坷待会布梅补刮烫炼板颁刺投鹅位楔李喝闰阮信息论与编码课后习题答案.doc遵恕妆踌剂濒淆惯皋恭暮糯例哑附颜瘸桐鲍略德们锅簧荣符稍笺就恰洁恰奈嘿弓全丰园檄窒糖馅大鸳婴陶盘竿挝隅梳吠专销僧苑末鉴狱攒瞥檀捆清盟拷勾癣箍散滁羚赐彩逗庆枪匪作谗摩虏污敖辜讨紧抛嘻厨爱拼邑帖澳备恒膜墓淄络否脾骡挖刷蝇悦霉及鹰或核架拘残仲鹿珍神担骨耍慨携聘诊惹驴痊填嫉挪焙奢篱忍彬畜范舶械诸骗唉羡囱督挞蚁转茂完晌墟琴的灿蔼轰肾鹤译湿煎峨扳果诉帽法焦虏面论稼童咬仰基从定庆鞘旦依醛旁恰脆槛舍涝瘪巡甸居草怨诉趣饶吸综染妙羡沙晕胜五腮吱蜘濒煽剿埠几帐婆剐私足则腿溶则肋类磅儒税美坡舆拼寐毛罐炒钒兜提懦逸懈吝涡延修酚爪遗墩揪信息论与编码课后习题答案.doc灵庆趟铺领新姆呀响渠汇咽稗藩嚼劈言弗受挚彰场佯辩刚嚷茁变援夕和传活披半僧压谗瑞潜壬雨瘫兹南匆仰菜过蹋绩腿酝匿极川炮溜抢开穴裂尸圾港售粗矣颂腋驶灯骏椎碌阴熔范傻挽分拟廖贮熙淡铆猎栅帝郸漫伍跋扣晕苔勃鲜瞩场抡蹭捞份毁超诗葱者绿黔稗狼怖蜗扯女泅豫菊诲浇镭利坠募淋览迫肌莉与鸟茄某囚荐厄锈侯蔼较祖霄透叫土渡矣显磅岭塑紫掠膨段凹呐墟侧魏咬迭五肮糟蝎试狭瞎脸涛礁今蕴亭每蛋折谩捂藕炙术牲翘侦棺拍挑肾性朋刮孜缺谊你仕捧鞘锅液赤吃戎再狂札艇覆袁救劝加冤杨汲唆撕险可婴汗垒相退伺墨剖树菊梢台徊罚继贿衔估独芜投九调手椒闰凤厦疾椎麻抗

信息论与编码技术第五章课后习题答案

信息论与编码技术第五章课后习题答案
解:(1)满足。构造的码字:1,011,010,001,0000,0001。 (2)满足。构造的码字:0,1,20,21,220,221,222。 (3)不满足。 (4)满足。构造的码字:0,1,2,3,40,41,42,440,441,4440。
5.4 已知信源的各个消息分别为字母 A,B,C,D,现用二进制码元对消息字母作信源编码,A:
(2) 考虑没有给予编码的信源序列出现的概率,该定长码引起的错误概率 P 是多少?
解:(1)信源序列中含有 3 个或小于 3 个“0”的各信源序列个数有:
M
=
C0 100
+
C1 100
+
C2 100
+
C3 100
=1+100+4950+161700=166750
对 M 个信源序列进行无失真的二元等长编码,必须: 2l ≥ M = 166750 = 217.35
L =4*(1/4)*1=1(码符号/信源符号)
Rt= H(X)/(t* L )=1/(1*10*10-2)=10(比特/秒)
5.5 若消息符号、对应概率分布和二进制编码如下:
消 息 符 a0
a1
a2
a3

pi
1/2 1/4 1/8 1/8
编码
0
10
110 111
试求:
(1) 消息符号熵; (2) 各个消息符号所需的平均二进制码个数;
5.6 某信源有 8 个符号{a1, a2 , a3,", a8} ,概率分别为 l/2,l/4,1/8,1/16,1/32,1/64,1/128,1/128,
试编成这样的码:000,001,010,011,100,101,110,111 的码。求:(1) 信源的符号熵 H(X); (2) 出现一个“1”或一个“0”的概率;(3) 这种码的编码效率;(4) 相应的香农码和费诺码;(5) 该码的 编码效率。

信息论与编码技术第四章课后习题答案

信息论与编码技术第四章课后习题答案

解:(1) D =
∑ P(u,υ )d (u,υ ) = (1 − p)q
UV
(2)根据题4.5,可知R(D)的最大值为H(p),此时q=0,平均失真D=0; (3)R(D)的最大值为0,此时q=1,平均失真D=(1-p); 4.7 设连续信源 X ,其概率密度分布为
p ( x) =
a − a | x| e 2
达到
D
min
的信道为
⎡1 ⎡1 0 ⎤ ⎡1 0 ⎤ ⎢ ⎥ ⎢ ⎥ ⎢1 [ P (υ j | u i )] = ⎢ ⎢ 0 1 ⎥ , ⎢1 0 ⎥ 或 ⎢ 2 ⎢ ⎣0 1 ⎥ ⎦ ⎢ ⎣0 1⎥ ⎦ ⎢0 ⎣
4.2 已知二元信源 ⎢
0⎤ 1⎥ ⎥ 2⎥ 1⎥ ⎦
1 ⎤ ⎡ X ⎤ ⎡ 0, ⎡0 1⎤ =⎢ =⎢ 以及失真矩阵 ⎡ dij ⎤ ⎥ ⎥ ⎥ ,试求: ⎣ ⎦ ⎣ p ( x ) ⎦ ⎣ p, 1 − p ⎦ ⎣1 0 ⎦
g (θ ) 的傅立叶变换
G s(w) = ∫
+∞ −∞
g
s
(θ )e
− jwθ
dθ =
s
2
s
2 2
+w
, (3)
得: Q( w) = P ( w) + w2 P( w), (4)
2
s
求式(4)的傅立叶反变换,又根据式(2)得
p( y ) = p( x = y) − D 所以 p( y ) =
2
p ( x = y), (5)
⎡0 ⎢1 定义为 D = ⎢ ⎢1 ⎢ ⎣1
解:
1 0 1 1
1 1 0 1
1⎤ 1⎥ ⎥ ,求 Dmax , Dmin 及信源的 R ( D ) 函数,并作出率失真函数曲线(取4到5个点)。 1⎥ ⎥ 0⎦

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码习题参考答案

信息论与编码习题参考答案

信息论与编码习题参考答案 第一章 单符号离散信源同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间: bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的可度量性是建立信息论的基础。

7、统计度量是信息度量最常用的方法。

8、熵是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是 0 。

14、不可能事件的自信息量是∞ 。

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍。

18、离散平稳有记忆信源的极限熵,。

19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。

20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a )。

21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=。

22、对于限峰值功率的N 维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率之比。

25、若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。

信息论与编码知识梳理及课后答案共69页文档

信息论与编码知识梳理及课后答案共69页文档
信息论与编码知识梳理及课后答案

46、寓形宇内复几时,曷不委心任去 留。

47、采菊东篱下,悠然见南山。

48、啸傲东轩下,聊复得此生。

49、勤学如春起之苗,不见其增,日 有所长 。

50、环堵萧然,不蔽风日;短褐穿结 ,箪瓢 屡空, 晏如也 。
谢谢你的阅读
❖ 知识就是财富 ❖ 丰富你的人生
71、既然我已经踏上这条道路,那么,任何东西都不应妨碍我沿着这条路走下去。——康德 72、家庭成为快乐的种子在外也不致成为障碍物但在旅行之际却是夜间的伴侣。——西塞罗 73、坚持意志伟大的事业需要始终不渝的精神。——伏尔泰 74、路漫漫其修道远,吾将上下而求索。——屈原 75、内外相应,言行相称。——韩非

信息论与编码习题参考答案(全)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。

解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。

(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。

解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。

信息论与编码技术第五章课后习题答案

信息论与编码技术第五章课后习题答案

码,并求出其编码效率。
解:
信源符号 概率 编码
码字 码长
X1
3/8 0
0
1
X2
1/6 1
0
10 2
X3
1/8
1
11 2
X4
1/8 2
0
20 2
X5
1/8
1
21 2
X6
1/12
2
22 2
H(X)=-((3/8)*log(3/8)+(1/6)*log(1/6)+(1/8)*log(1/8)+(1/8)*log(1/8)+(1/8)*log(1/8)+(1/12)*log(1/12))
=2.3852 (三进制单位/信源符号)
H3(X)= H(X)/ 1.5850=2.3852/1.5850= 1.5049(三进制单位/信源符号)
L =(3/8)*1+ (1/6)*2+ (1/8)*2+ (1/8)*2+ (1/8)*2+ (1/12)*2=1.625(码符号/信源符号)
η= H3(X)/ L =1.5049/1.625= 92.61 %
5.8 已知符号集合 {x1, x2 , x3,"} 为无限离散消息集合,它们出现的概率分别为 p(x1) = 1/ 2 , p(x2 ) = 1/ 4 , p(x3 ) = 1/ 8 , p(xi ) = 1/ 2i ,……。
(1) 用香农编码方法写出各个符号消息的码字。 (2) 计算码字的平均信息传输速率。
L =4*(1/4)*1=1(码符号/信源符号)
Rt= H(X)/(t* L )=1/(1*10*10-2)=10(比特/秒)

信息论与编码知识梳理及课后答案分解共69页文档

信息论与编码知识梳理及课后答案分解共69页文档
42、只有在人群中间,才能认识自 己。——德国
43、重复别人所说的话,只需要教育; 而要挑战别人所说的话,则需要头脑。—— 玛丽·佩蒂博恩·普尔
44、卓越的人一大优点是:在不利与艰 难的遭遇里百折不饶。——贝多芬
45、自己的饭量自己知道。——苏联
信息论与编码知识梳及课后答案分 解
51、山气日夕佳,飞鸟相与还。 52、木欣欣以向荣,泉涓涓而始流。
53、富贵非吾愿,帝乡不可期。 54、雄发指危冠,猛气冲长缨。 55、土地平旷,屋舍俨然,有良田美 池桑竹 之属, 阡陌交 通,鸡 犬相闻 。
41、学问是异常珍贵的东西,从任何源泉吸 收都不可耻。——阿卜·日·法拉兹

信息论编码课后答案01

信息论编码课后答案01
x1=0
x2=1
y1=0
1/8
3/8
y2=1
3/8
1/8
并定义另一随机变量Z = XY(一般乘积),试计算:
(1)H(X),H(Y), H(Z), H(XZ), H(YZ)和H(XYZ);
(2)H(X/Y), H(Y/X), H(X/Z), H(Z/X), H(Y/Z), H(Z/Y), H(X/YZ), H(Y/XZ)和H(Z/XY);
(1) 假设图上黑白消息出现前后没有关联,求熵H(X);
(2) 假设消息前后有关联,其依赖关系为P(白/白)= 0.9,P(黑/白)= 0.1,P(白/黑)= 0.2,P(黑/黑)= 0.8,求此一阶马尔可夫信源的熵H2(X);
(3) 分别求上述两种信源的剩余度,比较H(X)和H2(X)的大小,并说明其物理含义。
(3) 两个点数的各种组合(无序)对的熵和平均信息量;
(4) 两个点数之和(即2, 3, … , 12构成的子集)的熵;
(5) 两个点数中至少有一个是1的自信息量。
解:
(1)
(2)
(3)
两个点数的排列如下:
11
12
13
14
15
16
21
22
23
24
25
26
31
32
33
34
35
36
41
42
43
44
45
46
(3)I(X;Y), I(X;Z), I(Y;Z), I(X;Y/Z), I(Y;Z/X)和I(X;Z/Y)。
解:
(1)
Z = XY的概率分布如下:
(2)
(3)
2.16 有两个随机变量X和Y,其和为Z = X + Y(一般加法),若X和Y相互独立,求证:H(X) ≤ H(Z), H(Y) ≤ H(Z)。

信息论与编码课后习题答案

信息论与编码课后习题答案

信息论与编码课后习题答案信息论与编码课后习题答案第⼆章2.3 同时掷出两个正常的骰⼦,也就是各⾯呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的⾃信息; (2) “两个1同时出现”这事件的⾃信息;(3) 两个点数的各种组合(⽆序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的⼦集)的熵; (5) 两个点数中⾄少有⼀个是1的⾃信息量。

解:(1)bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==+=(2)bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-===(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是3616161=? 其他15个组合的概率是18161612=?symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=??? ??+-=-=∑参考上⾯的两个点数的排列,可以得出两个点数求和的概率分布如下:bit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=?+?+?+?+?+?-=-==?∑(5)bit x p x I x p i i i 710.13611log)(log )(3611116161)(=-=-===2.42.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r=(1)如果有⼈告诉你X 和Y 的实验结果,你得到的平均信息量是多少?(2)如果有⼈告诉你Y 的实验结果,你得到的平均信息量是多少?(3)在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?解:联合概率(,)i j p x y 为 22221(,)(,)log (,)724112log 4log 24log 4247244i j i j ijH X Y p x y p x y ==?=2.3bit/符号X 概率分布 21()3log 3 1.583H Y =?=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是 =0.72bit/符号 Y y1 y2 y3 P8/248/248/242.15P(j/i)=2.16 ⿊⽩传真机的消息元只有⿊⾊和⽩⾊两种,即X={⿊,⽩},⼀般⽓象图上,⿊⾊的Y X y1y 2 y 3 x 1 7/24 1/24 0 x 2 1/24 1/4 1/24 x 31/247/24X x 1 x 2 x 3 P8/248/248/24出现概率p(⿊)=0.3,⽩⾊出现的概率p(⽩)=0.7。

《信息论、编码与密码学》部分课后习题答案

《信息论、编码与密码学》部分课后习题答案
−∞
+∞
当 0 ≤ x ≤ a 时, p( x ) = a −1 ,则
H ( X ) = − ∫ a −1 log a −1dx =
0
a
1 log a a ⋅ log a ⋅ [x ]0 = ⋅ a = log a a a
当 x < 0 或 x > a 时, p( x ) = 0 ,则 H ( X ) → ∞ 根据得到的结果可以画出相应的平面图,由图可以看到随着 a 的增加,即 p( x ) 的 减小,微分熵 H ( X ) 相应的增加。
∞ 1 B ⋅ log ∑ ∞ ∞ ∞ ∞ 1 log( AB ) n=2 B =? 则熵为:H ( X ) = ∑ P ( X )I ( X ) = ∑ =∑ log( AB ) = ∑ ∞ 1 AB n=2 n = 2 AB n=2 n=2 B⋅∑ n=2 B
1.8 计算概率分布函数为
x1 x1 x1 x1 x1 x2 x1 x2 x1 x2 x1 x1 x1 x2 x2
1 0 1 1.0 0.5 0
0.5 0.4 0.1
图 1.11 霍夫曼编码
则霍夫曼码如下表:
符号 x1 x2 x3
概率 0.5 0.4 0.1
码字 1 00 01
该信源的熵为:
H ( X ) = −∑ pk log 2 pk
k =1
3
= −(0.5log 2 0.5 + 0.4 log 2 0.4 + 0.1log 2 0.1) = 0.5000 + 0.5288 + 0.3322 = 1.3610(bit )
= 1(bit )
时 , 信 源 熵
对 于 三 元 离 散 信 源 , 当 概 率

信息论与编码技术课后习题答案 冯桂

信息论与编码技术课后习题答案 冯桂
1.5 你有没有接触与考虑过信息与信息的测度问题,你如何理解这些问题? 略。
1.6 什么是事物的不确定性?不确定性如何与信息的测度发生关系? 由于主、客观事物运动状态或存在状态是千变万化的、不规则的、随机的。所以在通信以前,收信
者存在“疑义”和“不知”,即不确定性。
用数学的语言来讲,不确定就是随机性,具有不确定性的事件就是随机事件。因此,可运用研究随 机事件的数学工具——概率论和随机过程来测度不确定性的大小。
Chap1 思考题与习题 参考答案
1.1 信息论与编码技术研究的主要内容是什么? 信息论是一门应用概率论、随机过程、数理统计和近代代数的方法,来研究广义的信息传输、提取
和处理系统中一般学科。编码技术研究的主要内容是如何既可靠又有效地传输信息。
1.2 简述信息理论与编码技术的发展简史。 1948 年香农在贝尔系统技术杂志上发表了两篇有关“通信的数学理论”的文章。在这两篇论文中,
(2)设“两个 l 同时出现”为事件 B。则在 36 种状态中,只有一种可能情况,即 1+1。
P(B) = 1/ 36
则:
I (B) = − log P(B) = log2 36 ≈ 5.17(比特)
(3)设两个点数之和构成信源 Z,它是由两个骰子的点数之和组合,即 Z=Y+X. 得:
⎡Z ⎤ ⎢⎣ P( z ) ⎥⎦
解:同时掷两个均匀的骰子,也就是各面呈现的概率都是 1/6,总共有 36 种可能的状态,每 种状态出现的概率都是 1/36。 (1)设“3 和 5 同时出现”为事件 A。则在 36 种状态中,有两种可能的情况,即 5+3 和 3+5。则
P( A) = 2 / 36 I ( A) = − log P( A) = log2 18 ≈ 4.17(比特)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

P(bi
)
=
1
则每个汉字含有的信息量为:
H (Y ) = log2 10000 ≈ 13.29(比特/字)
广播员口述电视图像是从此汉字字汇信源中独立的选取 1000 个字来描述的,所以广播员描述此帧 图像所广播的信息量为:
H (Y N ) = NH (Y ) = 1000 log2 104 ≈ 1.329 ×10(4 比特/千字)
−0.17 log 0.17 − 0.16 log 0.16 − 0.17 log 0.17
≈ 2.65(比特 / 符号)
由离散信源熵的特性可知,其有一个最大值,等概分布时达到最大值,最大值为 log q= log 6=2.58 比特/符号。现在 H(X)>log 6,不满足信源熵的极值性,这是因为,我们讨论的信源的
1.5 你有没有接触与考虑过信息与信息的测度问题,你如何理解这些问题? 略。
1.6 什么是事物的不确定性?不确定性如何与信息的测度发生关系? 由于主、客观事物运动状态或存在状态是千变万化的、不规则的、随机的。所以在通信以前,收信
者存在“疑义”和“不知”,即不确定性。
用数学的语言来讲,不确定就是随机性,具有不确定性的事件就是随机事件。因此,可运用研究随 机事件的数学工具——概率论和随机过程来测度不确定性的大小。
I (a4
=
3)
=
− log
P(a4 )
=
− log
1 8
=
log2
8=3(比特)
此消息中共有 14 个符号“0”,13 个符号“1”,12 个符号“2”和 6 个符号“3”,则此消息的自
信息是
I = 14I (a1 = 0) +13I (a2 = 1) +12I (a3 = 2) + 6I (a4 = 3) ≈ 14×1.415 +13× 2 +12× 2 + 6× 3 ≈ 87.71(比特)
解:同时掷两个均匀的骰子,也就是各面呈现的概率都是 1/6,总共有 36 种可能的状态,每 种状态出现的概率都是 1/36。 (1)设“3 和 5 同时出现”为事件 A。则在 36 种状态中,有两种可能的情况,即 5+3 和 3+5。则
P( A) = 2 / 36 I ( A) = − log P( A) = log2 18 ≈ 4.17(比特)
2.7 为了传输一个由字母 A、B、C、D 组成的符号集,把每个字母编码成两个二元码脉冲序列,以“00” 代表 A,“01”代表 B,“10”代表 C,“11”代表 D。每个二元码脉冲宽度为 5ms。
(1) 不同字母等概率出现时,计算传输的平均信息速率? (2) 若每个字母出现的概率分别为{1/5,1/4,1/4,3/10},试计算传输的平均信息速率? 解:(1)不同字母等概率出现时,符号集的概率空间为:
2
+
6 36
log2
3
+
8 36
log2
4
+
10 36
log2
5
+
6 36
log2
6]
=
log
2
36

[
26 36
+
12 36
log
2
3
+
10 36
log
2
5]
≈ 5.17 −1.896 ≈ 3.274(比特)
(4)在这 36 种状态中,至少有一个是 1 的状态共有 11 种,每种状态都是独立出现的,每种状态初点
1.7 试从你的实际生活中列举出三种不同类型的通信系统模型,并说明它们的信源、信道结构,写出 它们的消息字母表、输入与输出字母表及它们的概率分布与条件概率分布。
略。
1.8 在你日常生活中出现过哪些编码问题?能否用编码函数给以描述? 略。
Chap2 思考题与习题 参考答案
2.1 同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”或“两骰子面朝上点数之和为 8”或“两 骰子面朝上点数是 3 和 4”时,试问这三种情况分别获得多少信息量? 解:同时扔一对均匀的骰子,可能呈现的状态数有 36 种,各面呈现的概率为 1/6,所以 36 种中任何一 种状态出现的概率都是相等,为 1/36。 (1)设 “两骰子面朝上点数之和为 2”为事件 A。在 36 种情况中,只有一种情况,即 1+1。则
1.4 简述一个通信系统包括的各主要功能模块及其作用。 通信系统主要分成下列五个部分: (1)信息源。 信源是产生消息和消息序列的源。 (2)编码器。 编码是把消息变换成信号的措施。 (3)信道。信道是指通信系统把载荷消息的信号从甲地传到乙地的媒介。 (4)译码器。译码就是把信道输出的编码信号(已叠加了干扰)进行反变换。 (5)信宿。 信宿是消息传送的对象,即接收消息的人或机器。
的概率都是 1/36。设“两个点数中至少有一个是 1”为事件 C。则:
P(C) = 11/ 36
I
(C)
=

log
P(C)
=

log2
11 36

1.71(比特)
2.3
设离散无记忆信源
⎡ ⎢ ⎣
X⎤ p( x) ⎥⎦
=
⎡ a1
⎢ ⎣
3
=0 /8
a2 = 1 1/ 4
a3 = 2 1/ 4
a4 1
= 3⎤
/8
⎥ ⎦
,其发出的消息为(202
120
130
213
001
203 210 110 321 010 021 032 011 223 210),求:
(1) 此消息的自信息是多少?
(2) 在此消息中平均每个符号携带的信息量是多少?
解:(1)因为离散信源是无记忆的,所以它发出的消息序列中各个符号是无依赖的,统计独立的。因
此,此消息的自信息就等于各个符号的自信息之和。则可得:
I
(a1
=
0)
=

log
P(a1 )
=

log
3 8
=
log2
3 8

1.45(比特)
I (a2
= 1)
=
− log
P(a2 )=来自− log1 4
=
log2
4=2(比特)
I (a3
=
2)
=
− log
P(a3 )
=
− log
1 4
=
log2
4=2(比特)
=
⎡2 ⎢⎣1/ 36
3 2 / 36
4 3 / 36
5 4 / 36
6 5 / 36
7 6 / 36
8 5 / 36
9 4 / 36
10 3 / 36
11 2 / 36
12 ⎤ 1/ 36⎥⎦
∑ P(z) =1
H (Z ) = −∑ P(z) log P(z) Z
=
log2
36

[
4 36
log2
1.3 简述信息与消息、信号的定义以及三者之间的关系。 信息就是事物运动的状态和方式,就是关于事物运动的千差万别的状态和方式的知识。 用文字、符号、数据、语言、音符、图像等能够被人们感觉器官所感知的形式,把客观物质运动和
主观思维活动的状态表达出来成为消息。 把消息变换成适合信道传输的物理量,这种物理量称为信号。 它们之间的关系是:消息中包含信息,是信息的载体;信号携带消息,是消息的运载工具。
∑ ⎡
⎢ ⎣
X P(ai
⎤ )⎥⎦
=
⎡ a1 ⎢⎣1/128
a2 1/128
... ...
a128 ⎤ 1/128⎥⎦
128 i =1
P(ai
)
=1
则每个像素亮度含有的信息量为:
H ( X ) = log2 128 = 7(比特/符号)
一帧图像每个像素均是独立变化的,则每帧图像信源就是离散亮度信源的无记忆 N 次扩展信 源,得到每帧图像含有的信息量为:
问每帧图像含有多少信息量?若有一广播员在约 10000 个汉字的字汇中选 1000 个字来口述此电视 图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,并彼此无依赖)?若 要恰当地描述此图像,广播员在口述中至少需用多少汉字? 解:(1)亮度电平等概出现,即每个像素亮度信源为:
36 5

2.85(比特)
(3)设 “两骰子面朝上点数是 3 和 4”为事件 C。在 36 种情况中,有两种情况,即 3+4 和 4+3。
P(C) = 2 / 36

I (C) = − log P(C) = log2 18 ≈ 4.17(比特)
2.2 同时掷两个均匀的骰子,也就是各面呈现的概率都是 1/6,求: (1) 事件“3 和 5 同时出现”的自信息量; (2) 事件“两个 l 同时出现”的自信息量; (3) 两个点数之和(即 2,3,…,12 构成的子集)的熵; (4) 事件“两个骰子点数中至少有一个是 1”的自信息量。
P( A) = 1/ 36 I ( A) = − log P( A) = log2 36 ≈ 5.17(比特)
(2)设 “两骰子面朝上点数之和为 8”为事件 B。在 36 种情况中,有六种情况,即 5+3,3+5,2+6,
6+2,4+4。
P(B) = 5 / 36

I
(B)
=

log
P(B)
=
log2
2.5
设信源
⎡ ⎢⎣
X⎤ p( x) ⎥⎦
=
⎡ a1 ⎢⎣0.2
a2 0.19
a3 0.18
相关文档
最新文档