熵值法的原理及实例讲解

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

熵值法

1. 算法简介

熵值法是一种客观赋权法,其根据各项指标观测值所提供的信息的大小来确定指标权重。设有m个待评方案,n项评价指标,形成原始指标数据矩阵X (x ij )m n ,对于某项指标x j ,指标值X ij 的差距越大,则该指标在综合评价中所起的作用越大;如果某项指标的指标值全部相等,则该指标在综合评价中不起作用。

在信息论中,熵是对不确定性的一种度量。信息量越大,不确定性就越小,熵也就越小;信息量越小,不确定性就越大,熵也越大.根据熵的特性,我们可以通过计算熵值来判断一个方案的随机性及无序程度,也可以用熵值来判断某个指标的离散程度,指标的离散程度越大,该指标对综合评价的影响越大!因此,可根据各项指标的变异程度,利用信息熵这个工

具,计算出各个指标的权重,为多指标综合评价提供依据!

2. 算法实现过程

2.1 数据矩阵

X11 A

X n1 X1m

其中X j为第i个方案第j个指标的数值X nm n m

2.2 数据的非负数化处理

由于熵值法计算采用的是各个方案某一指标占同一指标值总和的比值,因此不存在量纲的影响,不需要进行标准化处理,若数据中有负数,就需要对数据进行非负化处理!此外,为了避免求熵值时对数的无意义,需要进行数据平移:对于越大越好的指标:

X ij min (X1j,X2j, ,X nj) X ij

max(X1j,X2j, ,X nj) min (X1j,X2j,

人)

,i 1,2 ,n; j 1,2 ,m 对于越小越好的指标:

max( X1 j, X 2 j, , X nj) X j

X ij

max(X1j,X2j, ,X nj) min (X^X j, ,X nj)

,i 1,2 ,n; j 1,2 ,m 为了方便起见,仍记非负化处理后的数据为X ij

2.3 计算第j项指标下第i个方案占该指标的比重

P j —

X ij

i 1

(j 1,2, m)

2.4 计算第j项指标的熵值

e j

n

k* R j log(R j),其中k 0,ln为自然对数,e j

i 1

0。式中常数k与样本数m有天,

般令k 1lnm,则0 e 1

2.5计算第j项指标的差异系数。

对于第j项指标,指标值X j的差异越大,对方案评价的作用越大,熵值就越小

g j 1 e j ,贝U: g j越大指标越重要

2.6求权数

g,

W j - - ,j 1,2 m

g j

j 1

2.7计算各方案的综合得分

m

S i W j * P ij (i 1,2, n)

j 1

3. 熵值法的优缺点

熵值法是根据各项指标指标值的变异程度来确定指标权数的,这是一种客观赋权法,免了人为因素带来的偏差,但由于忽略了指标本身重要程度,有时确定的指标权数会与预期的结果相差甚远,同时熵值法不能减少评价指标的维数!

熵值法实例讲解.xl

sx

相关文档
最新文档