信息熵的应用

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

分类号: O236单位代码:106

密级:一般学号:

本科毕业论文(设计)

题目:信息熵在球员选拔中的应用专业:

姓名:

指导教师:

职称:

答辩日期:

信息熵在球员选拔中的应用

摘要:.本课题通过研究信息熵的定义和性质,运用p c

-分析法,通过统计一场球赛中各个球员的各项技术指标并该场球赛中各个队员的信息熵,自信息等值,得到球员选拔过程中对球员的评判方法.并以此法选出优秀的球员,根据信息熵的性质指出每个球员的不足之处,为今后的训练指明了方向.

关键字:信息熵;P-C分析法;球员选拔

Information entropy application in selecting players

Abstract: Shannon information entropy presented expressions in 1948, which pioneered information theory. Now more and more international competitions, how to select best players on behalf of the state competition become critical .This issue through the definition and nature of information entropy, use of p c

-law to come the assessment of each player, and select a good player, and point out the inadequacties of each player based on information entropy, that should be strengthened in future training exercises.

Key Words: Information Entropy; P-C Analysis; Selecting Players

1 引言

1948年美国工程师和数学家香农发表的《通信的数学理论》这篇里程碑性的文章标志着信息论的产生,而香农本人也成为信息论的奠基人.在本书中他提出信息熵的概念,香农证明熵和信息是一样的,用以度量通信过程中信息源信号的不确定性.他把熵作为一个随机事件不确定性或信息量的度,为信息分析提供了有力的理论工具,也大大丰富了熵概念的内涵.

本文利用信息熵的原理,对球员在场上的各种表现做出评判,并得出相关结论用于球员的选拔.球员在场上的发挥因各种因素的影响而产生变化,可能因为自己的心情还有健康状况等等.但是一位好的球员会努力排除自己内在因素的影响把自己最好的一面表现出来,球员发挥的稳定性是最重要的.利用信息熵对球员发挥稳定性做一统计,从中选出最好的球员. 2 预备知识 2.1信息熵的基本定义

定义1[1]设某一概率系统中有n 个事件X =()12,,,,

,i n X X X X ,第i 个事件i X 产

生的概率为()1

,2,3,,i P i n =,当事件i X 产生后信息量为()2log i i H X P =-,单位为bit 对

于由n 个事件构成的概率系统,产生的平均信息量为:

()21

log n

i i i H X P P ==-∑ (1)

称之为信息熵,简称熵.

定义2[1]条件熵 条件自信息(|)I y x 的平均值定义为条件熵:

(|)((|))H Y X E I y x ==()()p xy logp y |x x

y

-∑∑

=()[(|)log(|)]x

y

p x p y x y x -∑∑

=()(|)x

p x H Y x ∑

定义3[2]自信息 设离散信源X,其概率空间为

1212,

,,()(),(),,()n n X x x x p X p x p x p x ⎛⎫⎛⎫

= ⎪ ⎪⎝⎭⎝⎭

如果知道事件i x 已发生,则该事件所包含的信息量成为自信息,定义为

1

()log

()

i i I x p x =

2.2信息熵的意义

(1)信息熵表示信源输出每个消息或符号所提供的平均信息量.

如果一个电码由 q 种符号组成,每种符号相对出现的机率为i P ,一个电码携带着一定的信息,则平均每种符号携带的信息量为21log n

i i i P P =-∑, 这正是该信源的信息熵.

(2)信息熵表示信源输出消息前信源的平均不确定性.

有两个离散信号源 X ,Y ,其概率空间分别是:

()12::0.990.01x X x x P ⎛⎫

⎪⎝⎭ ()12::0.50.5y Y y y P ⎛⎫ ⎪⎝⎭

两信源的信息熵分别()0.56Y x k =,()0.693Y y k = , 由于信源 Y 的两种消息出现的几率均等,在信源输出消息前,猜测1y 和2y 哪一个会出现的不确定性大,它的信息熵也大;而对X 事先猜测1x 和2x 哪一个会出现,虽然有不确定性,但猜中1x 的概率大,所以,信源X 的不确定性小,其信息熵也相对小一些.信息熵大小反映了信源输出消息前平均不确定的程度.信息熵大,信源的不确定性就大;反之,不确定性就小. (3)信息熵表征事件发生的随机性

如上面两个信源 ,X Y ,猜测1y 和2y 的随机性大,信源Y 的信息熵也大;而猜测1x 和

2x 的随机性小,信息熵也小.

(4)自信息的意义

自信息()i I x 有两种含义:

1在事件i x 发生以前等于事件i x 发生的不确定性; ○

2在事件i x 发生后表示事件i x 含有或所能提供的信息量. 2.3信息熵的基本性质

性质1[3] 对称性 信息熵的对称性可表述为:设某一概率系统中n 个事件的概率分布为()12,,

,n P P P ,当对事件位置的顺序进行任意置换后,得到新的概率分布为()'

''1

2

,,

,n P P P ,并有以下关系成立:

()()'''1212,,

,,,

n n H P P P H P P P =

它表示概率系统中事件的顺序虽不同,但概率系统的熵H 是不变的,即概率系统的熵与事件的顺序无关.

性质2[4] 展开性 信息熵的展开性可表述为:设某一概率系统的概率分布为

()12,,,,n P P P 则系统的信息熵具有展开性质:

()()1212,,

,,

,,0n n H P P P H P P P =;

相关文档
最新文档