神经网络的基本原理
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
神经网络的基本原理
在神经网络系统中,其知识是以大量神经元互连和各互连的权值表示。神经网络映射辨识方法主要通过大量的样本进行训练,经过网络内部自适应算法不断调整其权值,以达到目的。状态识别器就隐含在网络中,具体就在互连形式与权值上。在网络的使用过程中,对于特定的输入模式,神经网络通过前向计算,产生一输出模式,通过对输出信号的比较和分析可以得到特定解。目前,神经网络有近40多种类型,其中BP 网络是最常用和比较重要的网络之一,本文就应用BP 网络进行齿轮计算中相应数据图表的识别映射。
BP 网络模型处理信息的基本原理是:输入信号X i 通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号Y k ,网络训练的每个样本包括输入向量X 和期望输出量t ,网络输出值Y 与期望输出值t 之间的偏差,通过调整输入节点与隐层节点的联接强度取值W ij 和隐层节点与输出节点之间的联接强度T jk 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。
BP 网络的学习过程是通过多层误差修正梯度下降法进行的,称为误差逆传播学习算法。误差逆传播学习通过一个使误差平方和最小化过程完成输入到输出的映射。在网络训练时,每一个输入、输出模式集在网络中经过两遍传递计算:一遍向前传播计算,从输入层开始,传播到各层并经过处理后,产生一个输出,并得到一个该实际输出和所需输出之差的差错矢量;一遍反向传播计算,从输出层至输入层,利用差错矢量对连接权值和阀值,进行逐层修改。
经过训练好的BP 网络即可付诸应用。学习后的网络,其连接权值和阀值均已确定。此时,BP 模型就建立起来了。网络在回想时使用正向传播公式即可。
BP 网络由输入层结点,输出层结点和隐含层结点构成,相连层用全互连结构。图1为典型的三层结构网络模型。
图1 三层网络结构图
神经网络的工作过程主要分为两个阶段:一个是学习期,通过样本学习修改各权值,达到一稳定状态;一个是工作期,权值不变,计算网络输出。
BP 网络的学习过程由正向传播和反向传播两部分组成。在正向传播过程中,输入信息从输入层经隐含层单元逐层处理,并传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转入反向传播,将误差信号沿原来的路径返回,通过修改各层神经元的权值,使得误差信号最小。当给定一输入模式
12(,,...,)m X x x x =和希望输出模式12(,,...,)n Y y y y =
时,网络的实际输出和实际误差,可用下列公式求出:
隐含层输出:
1m j i j j i Z f w x θ=⎛⎫=- ⎪⎝⎭
∑ (1,2,...,)j h = (1) 网络实际输出:
'
1()h k jk j k j y f v
z ϕ==-∑ (1,2,...,)k h = (2)
网络输出误差平方和:
'21()/2n
k k k E y y ==-∑ (3)
式中:
,ij jk w v ——输入层至隐含层,隐含层至输出层的连接权值;
,i k θθϕ——隐含层结点,输出层结点的阀值;
,,m h n ——输入层,隐含层,输出层结点数;
f ——S 型函数,1()(1)x f x e --=+。
如果误差太大不能满足要求,则需要用下列公式修正各连接权值和阀值。 '''(1)()(1)()(1)()jk jk k j k k k k k k k k v t v t d z t t d d y y y y αϕϕα+=+⎧⎫⎪⎪+=+⎨⎬⎪⎪=--⎩⎭
(4)
1(1)()(1)()(1)y y r j j j j n j j j k jk k w t w t e x t t e e x x d v βθθβ=⎧⎫⎪⎪+=+⎪⎪⎪⎪+=+⎨⎬⎪⎪⎪⎪=-⎪⎪⎩⎭
∑ (5)
式中:
,αβ——学习率,0,1αβ><。
为网络提供一组特定的训练模式,随机产生初始连接权和阀值,不断重复上述计算过程,直到网络全局误差小于给定的极小值为止。
此时,该BP 网络即已具备了映射识别具体问题的能力,可以进入网络的工作期,进行具体计算。
由于BP 网络的高识别能力,设计中采用此结构形式。同时,为提高其识别效果,加快网络的训练速度,缩短工作周期,应用了附加动量项和自适应速率的改进算法。