20.信息的度量与应用

相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
若取a=2,C=1,此时信息量单位称为比特
若取a=10,C=1,此时信息量单位称为迪吉特 若取a=e,C=1,此时信息量单位称为奈特
例3设剧院有1280个座位,分为32排,每排40座。现欲从中找
出某人,求以下信息的信息量。(i)某人在第十排;(ii) 某人在第15座;(iii)某人在第十排第15座。
白箱
不确定度A
不确定度B
不确定度C
几个例子: 例1 当你要到大会堂去找某一个人时,甲告诉你两条消息:
(1)此人不坐在前十排,(2)他也不坐在后十排;乙只告 诉你一条消息:此人坐在第十五排。问谁提供的信息量大? 乙虽然只提供了一条消息,但这一条消息对此人在什么 位置上这一不确定性消除得更多,所以后者包含的信息量应 比前者提供的两条消息所包含的总信息量更大
f ( p ) f (e q ) g ( q ) ,又 p A p B e ( q A qB ) 有: g (q A q B ) g (q A ) g (q B ) ,g亦为连续函数。
g(x+y)=g(x)+g(y)的连续函数有怎样的性质
首先,由g(0)=g(0+0)=2g(0)得出g(0)=0或g(0)=∞。 但由公理4,后式不能成立,故必有g(0)=0。
例2 假如在盛夏季节气象台突然预报“明天无雪”的消息。
在明天是否下雪的问题上,根本不存在不确定性,所以这 条消息包含的信息量为零。
是否存在信息量的度量公式
基于前面的观点,美国贝尔实验室的学者香农(Shannon) 应用概率论知识和逻辑方法推导出了信息量的计算公式
In his words "I just wondered how things were put together."
平均信息量(熵)问题
设某一实验可能有N种结果,它们出现的概率分别为p1,…,pN,则 事先告诉你将出现第i种结果的信息,其信息量为-log2pi,而该 实验的不确定性则可用这组信息的平均信息量(或熵)
H pi log 2 pi 来表示
N
例4 投掷一枚骼子的结果有六种,即出现1—6点、出现每
解: 在未知任何信息的情况下, 此人在各排的概率可以认
对于相应不独立的信息,要计算 这一例子反映了对完全独立的 为是相等的,他坐在各座号上的概率也可以认为是相等的,故 在已获得某信息后其余信息的信 几条信息,其总信息量等于各 条信息的信息量之和。 息量时,需要用到条件概率公式, (i)“某人在第十排”包含的信息量为 可以参阅信息论书籍。 1 log2 5 (比特) 32 (ii)“某人在第15座”包含的信息量为 5bit+5.32bit=10.32bit
定理1
满足公理1—公理4的信息量计算公式为I(M)=-Clogap, 其中C是任意正常数,对数之底a可取任意为大于1的正实 数。 由公理1 I(M)=f(p),函数f连续。 由公理2 若A发生必有B发生,则pA≤pB,
证明:
有f(pA)≥f(PB) ,故函数f是单调不增的。
由公理3 若A、B是两个独立事件,则A、B同时发生 的概率为pApB,有f(PAPB)=f(pA)+f(pB)。 先作变量替换 令p=a-q,即q=-logaP 记
信息的度量与应用
怎么度量信息 对于系统,可以利用守恒 关系有 A+I=B,得I=B-A。
首先分析一下问题的认识过Hale Waihona Puke Baidu 1.对一问题毫无了解,对它的认识是不确定的
2. 通过各种途径获得信息,逐渐消除不确定性 3. 对这一问题非常的了解,不确定性很小 可否用消除不确定性的多少来度量信息! 黑箱 信息I 灰箱 信息II
由连续性可知:对一切非负实数x,有g(x)=Cx
当x取负实数时,由g(x)+g(-x)=g(0)=0,可得 出g(x)=―g(―x)=cx也成立,从而对一切实数x,g(x)=Cx, 故g(q)=Cq。
现作逆变换q=-logap, 得I(M)=f(P)=-ClogaP (11.3) 证毕。
各种信息量单位
记g(1)=C,容易求得g(2)=2C,g(3)=3C,…,一般地, 有g(n)=nC。进而 1 1 1 1 1 g g (1) g (1) g ng 。 n n n ,可得 n n 于是对一切正有理数 m/n,g(m/n) =(m/n)C。
Claude Elwood Shannon (April 30, 1916 - February 24, 2001) has been called "the father of information theory".
Shannon提出的四条基本性质 (不妨称它们为公理 )
公理1 信息量是该事件发生概率的连续函数 公理2 如果事件A发生必有事件B发生,则得知事件A发生 的信息量大于或等于得知事件B发生的信息量。 公理3 如果事件A和事件B的发生是相互独立的,则获知 A、B事件将同时发生的信息量应为单独获知两事件 发生的信息量之和。 公理4 任何信息的信息量均是有限的。 上述公理怎样推出信息量的计算公式呢 将某事件发生的信息记为M,该事件发生的概率记为p,记 M的信息量为I(M)。
log2 1 5.32 (比特) 40 1 10.32 (比特) 1280
(iii)“某人在第十排第15座”包含的信息量为
log2
至此,我们已经引入了信息度量的定量公式。如前 所述,它是信息对消除问题的不确定性的度量。这种讲 法似乎有点难以为人们所接受,其实,这只是人们的习 惯在起作用。这里,我们不妨来作一比较。在人们搞清 热的奥秘以前,温度也是一个较为抽象的概念,因它实 质上是物体分子运动平均速度的一种反映。人们天生就 知道冷和热,但如何来度量它却曾经是一个难题。只有 在解决了这一问题以后,以定量分析为主的热力学才能 得到飞速的发展。信息问题也是这样,人们对各种信息 包含的实质“内容”究竟有多少往往也有一个直观的感 觉,但用什么方法来度量它,却比“今天15度”这样的 讲法更不易理解,因为它是通过较为抽象的概率来计算 的。
相关文档
最新文档