各种评价方法统计

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第一种

模糊评价方法:内燃机性能评价。

第二种

数据包络分析法

人工神经网络评价法

思想与原理

人工神经网络是模仿生物神经网络功能的一种经验模型,输入和输出之间的变换关系一般是非线性的。首先根据输入的信息尽力神经元,通过学习规则或自组织等过程建立相应的非线性数学模型,并不断进行修正,是输出结果与实际值之间的差距不断缩小。人工神经网络通过样本的“学习和培训”,可记忆客观事物在空间、时间方面比较复杂的关系。由于人工神经网络本身具有非线性的特点,且在应用中只需对神经网络进行专门问题的样本训练,它能够把问题的特征反映在神经元之间相互关系的权中,所以,把实际问题特征参数输入后,神经网络输出端就能给出解决问题的结果。

神经网络的特点是,神经网络将信息或知识分布储存在大量的神经元或整个系统中。它具有全息联想的特征,具有高速运算的能力,具有很强的适应能力,具有自学习、自组织的潜力。他能根据历史数据通过学习和训练能找出输入和输出之间的内在联系,从而能得出问题的解。另外,他有较强的容错能力,能够处理那些有噪声或不完全的数据。部分节点不参与运算,也不会对整个系统的性能造成太大的影响。

反向传播(Back Propagation,BP)神经网络是由Rumelhart等人于1985年提出的一种很有影响的神经元模型,它是一种多层次反馈性模型,使用的石油“导师”的学习算法。有广阔的应用前景。

模型和步骤

处理单元,或称之为神经元,是神经网络的最基本组成部分。一个神经网络系统中有许多处理单元,每个处理单元的具体操作步骤都是从其相邻的其他单元中接受输入,然后产生出输出送到与其相邻的单元中去。神经网络的处理单元可以分为三种类型:输入单元、输出单元和隐含单元。输入单元是从外界环境接受信息,输出单元则给出神经网络系统对外界环境的作用,这两种处理单元与外界都有直接的联系。隐含单元则处于神经网络之中,他不与外界产生直接的联系。它从网络内不接受输入信息,是哟产生的输出则制作能够用于神经网络系统中的其他处理单元。隐含单元在神经网络中起着极为重要的作用。

人工神经网络的工作过程具有循环特征。对事物的哦按段分析必须经过一个学习和训练工程。1949年,Hebb率先提出了改变神经元连接强度的学习规则。其过程是:将样本(训练)数据赋予输入端,并将网络实际输出和期望输出相比较,得到误差信号,以此为依据来调整连接权值。重复此过程,直到收敛于稳态。

BP网络是一种具有三层或者三层以上的层次结构网络,相邻上、下层之间各神经元实现全连接,即下层的每个神经元与上层的每个神经元都实现权连接,而每层各种神经元之间无连接。换个角度看,BP神经网络不仅具有输入层节点,输出层节点,还可以有1个或者多个隐含层节点。对于输入信号,要先向前传播到隐含层节点,经作用函数后,再把隐含层的输出信号传播到输出节点,最后给出输出结果。在BP算法中,节点的作用的机理函数通常选取S形函数。

对于BP模型的输入层神经元,其输出与输入相同,中间隐含层和输出层的神经元的操

作规则如下:Ykj=f(∑

=

--

n

1

1 ,

1

i

i

k

kj

i

k

Y

W)

Y k-1i是k-1层的第i个神经元的输出,也是第k层神经元的输入;

W k-1i ,kj 是k-1层第i 个元素与k 层第j 个元素的连接权值; Y kj 是第j 个神经元的输出,也是第k+1层神经元的输出;

f 是Sigmoid 函数。F(u)=1/(1+e -u

1989年Robert Hecht-Nielson 证明了一个三层的BP 网可以完成人意的n 维道m 维的映照。这实际上已经给了一个基本的设计BP 网络的原则。

增加层数主要是可以进一步降低误差,提高精度,但同时是网络复杂化,从而增加了网络权值的训练时间。

误差精度的提高实际上也可以通过增加隐层中的神经元数目来获得,其训练效果也比增加层数更容易观察和调整,所以一般情况下,应先考虑增加隐层的神经元数目。

隐层单元数的选择在神经网络的引用中一直是一个复杂的问题。隐层单元数过少可能训练不出网络或者网络不够“强壮”,不能识别以前没有看过的样本,容错性差;但隐层单元数过多,又会是学习实践过长,误差也不一定最佳,因此存在一个如何确定合适的隐层单数的问题,在具体设计时。比较实际做法是通过对不同神经元数进行训练对比,然后适当地加上一点余量。

假设BP 网络每层有N 个处理单元,训练集包含M 个样本模式对。对第p 个学习样本(p=1,2,…,M ),节点j 的输入总和记为netpj,输出记为Opj,则:netpj=pj ji O W ∑i

O

pj=f(netpj)

如果任意设置网络初始权值,那么对每个输入样本p ,网络输出与期望输出(dpj )间的误差为:E=2/)P )((p

2

∑∑-=j

pj pj p O d E ,式中d pj 表示对第p 个输入样本输出单元的误

差的计算是不同的。

在BP 网络学习过程中,输出层单元与隐单元的误差的计算是不同的。 BP 网络的权值修正公式为:W ji =W ji (t)+ ηδpj O pj

δpj =⎪⎩

⎨⎧-∑k j

k j p pj pj pj W net O d net 对于输入节点

对于输出节点,δ)(f'),)((f'pj

上式中,引入学习速率η,是为了加快网络的收敛速度,但有时可能长生震荡。 通常权值修正公式中还需加一个惯性参数a,从而有:

Wji=Wji (t )+ηδpj O pj +a(Wji(t)-Wji(t-1)) 上式中,a 为一常数项,称为势态因子,他决定上一次的权值对本次全职更新的影响程度。 权值修正是在误差反向传播过程中逐层完成的。有输出层误差修正个输出层的单元的连接权值,再计算相连隐含层单元的误差两,并修正隐含层单元的连接权值。

在网络学习过程中,权重值是随着迭代的进行而更新的,并且一般是收敛的。但权值的初始值太大,可能导致网络很快就达到饱和,并且权值的初始值对网络的收敛速度也有一定的影响。

学习步长是网络学习的另一个重要参数,在一定程度上也决定了网络的收敛速度。学习步长国小会导致权重值更新量过小,因而是收敛非常的缓慢;学习步长过大又会导致在极值点附近震荡的可能性加大,乃至反复震荡而难以收敛。 一般地,BP 网络的学习算法描述为如下步骤:

1初始化网络及学习参数,如设置网络初始权矩阵,学习因子η,势态因子a 等; 2提供训练模式,训练网络,直到满足学习要求;

3前向传播过程,对给定训练模式输入,计算网络的输出模式,并与期望模式比较,如有误差,则执行(4);否则,返回(2);

相关文档
最新文档