2019神经网络实学习 例子.doc
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
神经网络实学习例子
1通过神经网络滤波和信号处理,传统的sigmoid函数具有全局逼近能力,而径向基rbf函数则具有更好的局部逼近能力,采用完全正交的rbf径向基函
数作为激励函数,具有更大的优越性,这就是小波神经网络,对细节逼近能力
更强。
BP网络的特点①网络实质上实现了一个从输入到输出的映射功能,而数学
理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解
内部机制复杂的问题。我们无需建立模型,或了解其内部过程,只需输入,获
得输出。只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次
的学习以内收敛到最低误差附近。而且理论上,一个三层的神经网络,能够以
任意精度逼近给定的函数,这是非常诱人的期望;②网络能通过学习带正确答
案的实例集自动提取"合理的"求解规则,即具有自学习能力;③网络具有一定
的推广、概括能力。bp主要应用回归预测(可以进行拟合,数据处理分析,事
物预测,控制等)、分类识别(进行类型划分,模式识别等),在后面的学习中,都将给出实例程序。但无论那种网络,什么方法,解决问题的精确度都无法打
到100%的,但并不影响其使用,因为现实中很多复杂的问题,精确的解释是毫
无意义的,有意义的解析必定会损失精度。BP注意问题1、BP算法的学习速度
很慢,其原因主要有:a由于BP算法本质上为梯度下降法,而它所要优化的目
标函数又非常复杂,因此,必然会出现"锯齿形现象",这使得BP算法低效;
结论4:由上表可以看出,后者的初始权值比较合适些,因此训练的时间
变短,
误差收敛速度明显快些。因此初始权值的选取对于一个网络的训练是很重
要的。
1.4,用最基本的BP算法来训练BP神经网络时,学习率、均方
误差、权值、阈值的设置都对网络的训练均有影响。综合选取合理的值,
将有
利于网络的训练。在最基本的BP算法中,学习率在整个训练过程是保持不变的,
学习率过大,算法可能振荡而不稳定;学习率过小,则收敛速度慢,训练
时间
长。而要在训练之前选择最佳的学习率是不现实的。因此学习率可变的BP
算法
(variable learning rate backpropagation,VLBP)应运而生。下一结介绍
用VLBP来训练该网络的情况。b存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区
域内,权值误差改变很小,使训练过程几乎停顿;c为了使网络执行BP算法,
不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋
予网络,这种方法将引起算法低效。2、网络训练失败的可能性较大,其原因有:a从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求
解复杂非线性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;b网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取
典型样本实例组成训练集是一个很困难的问题。3、网络结构的选择:尚无一种统一而完整的理论指导,一般只能由经验选定。为此,有人称神经网络的结构
选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,
应用中如何选择合适的网络结构是一个重要的问题。4、新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。5、采用s
型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能打
到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。
一认识bp:
第二节内容:主要是阐述BP中几个容易混绕的概念和问题,包括什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?本节主要学习BP中几个容易混绕的概念和问题:什么是网络的泛化能力?过拟合是什么,
怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用
BP逼近非线性函数,如何提高训练精度?什么是网络的泛化能力?一个神经网路
是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛化能力。网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓"过拟合"现象。此时,网
络学习了过多的样本细节,而不能反映样本内含的规律。过拟合是什么,怎么
处理?神经网络计算不能一味地追求训练误差最小,这样很容易出现"过拟合"现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000
次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人大失所望。避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据,在后面节将
讲到如何进行这种分类。其中变量数据,在网络训练中,起到的作用就是防止
过拟合状态。学习速率有什么作用?学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性。此时训练方法采用
采用贝叶斯正则化算法提高BP网络的推广能力。
二主要函数
1 prepca函数对归一化后的样本数据进行主元分析,从而消除样本数据中
的冗余成份,起到数据降维的目的。[ptrans,transMat]=prepca(pn,0.001);
1、数据归一化mapminmax(x,minx,maxx)minx为要取得的最小值,maxx为
最大值一般归一化到0.1-0.9比较和
2或者使用mapstd 3反归一化y1=mapminmax('reverse',y,ps)2、数据分类,主要包括打乱数据顺序,抽取正常训练用数据、变量数据、测试数据
4dividevec()函数输入训练数据的乱序排法,以及分类
[trainV,valV,testV]=dividevec(p,t,valPercent,testPercent)