(完整版)BP神经网络matlab实例(简单而经典).doc
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
p=p1';t=t1';
[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); % 原始数据归一化
net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx'); %设置网络,建立相应的BP 网络net.trainParam.show=2000; % 训练网络
net.trainParam.lr=0.01;
net.trainParam.epochs=100000;
net.trainParam.goal=1e-5;
[net,tr]=train(net ,pn,tn); %调用TRAINGDM 算法训练BP 网络
pnew=pnew1';
pnewn=tramnmx(pnew,minp,maxp);
anewn=sim(net,pnewn);
anew=postmnmx(anewn,mint,maxt); %对 BP 网络进行仿真%还原数据
y=anew';
1、 BP 网络构建
(1)生成 BP 网络
net newff ( PR,[ S1 S2...SNl],{ TF1 TF 2...TFNl }, BTF , BLF , PF ) PR :由R 维的输入样本最小最大值构成的R 2 维矩阵。
[ S1 S2...SNl] :各层的神经元个数。
{TF 1 TF 2...TFNl } :各层的神经元传递函数。
BTF :训练用函数的名称。
(2)网络训练
[ net,tr ,Y, E, Pf , Af ] train (net, P, T , Pi , Ai ,VV , TV )
(3)网络仿真
[Y, Pf , Af , E, perf ] sim(net, P, Pi , Ai ,T )
{'tansig','purelin'},'trainrp'
BP 网络的训练函数
训练方法
梯度下降法
有动量的梯度下降法
自适应 lr 梯度下降法
自适应 lr 动量梯度下降法弹性梯度下降法训练函数traingd traingdm traingda traingdx trainrp
Fletcher-Reeves 共轭梯度法traincgf Ploak-Ribiere 共轭梯度法traincgp
Powell-Beale 共轭梯度法traincgb 量化共轭梯度法trainscg 拟牛顿算法trainbfg 一步正割算法trainoss Levenberg-Marquardt trainlm
BP 网络训练参数
训练参数
net.trainParam.epochs
net.trainParam.goal net.trainParam.lr
net.trainParam.max_fail net.trainParam.min_grad net.trainParam.show net.trainParam.time
net.trainParam.mc net.trainParam.lr_inc 参数介绍
最大训练次数(缺省为10)
训练要求精度(缺省为0)
学习率(缺省为0.01 )
最大失败次数(缺省为5)
最小梯度要求(缺省为
1e-10)
显示训练迭代过程( NaN 表示
不显示,缺省为 25)
最大训练时间(缺省为inf )
动量因子(缺省0.9)
学习率lr增长比(缺省为
1.05)
训练函数
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingd 、traingdm 、traingda 、
traingdx 、 trainrp 、 traincgf 、
traincgp 、traincgb 、trainscg、
trainbfg 、 trainoss、 trainlm
traingdm 、 traingdx traingda 、
traingdx
net.trainParam.lr_dec 学习率 lr 下降比(缺省为 0.7) traingda 、 traingdx
net.trainParam.max_perf_inc 表现函数增加最大比(缺省traingda 、 traingdx
为 1.04)
net.trainParam.delt_inc 权值变化增加量(缺省为trainrp
1.2)
net.trainParam.delt_dec 权值变化减小量(缺省为trainrp
0.5)
net.trainParam.delt0 初始权值变化(缺省为 0.07) trainrp
net.trainParam.deltamax 权值变化最大值(缺省为trainrp
50.0)
net.trainParam.searchFcn 一维线性搜索方法(缺省为traincgf 、traincgp 、traincgb 、
srchcha)trainbfg 、 trainoss
net.trainParam.sigma 因为二次求导对权值调整的trainscg
影响参数(缺省值 5.0e-5)
mbda Hessian 矩阵不确定性调节trainscg
参数(缺省为 5.0e-7)
net.trainParam.men_reduc 控制计算机内存/ 速度的参trainlm
量,内存较大设为1,否则设
为 2(缺省为 1)
net.trainParam.mu 的初始值(缺省为0.001) trainlm
net.trainParam.mu_dec 的减小率(缺省为0.1)trainlm
net.trainParam.mu_inc 的增长率(缺省为10)trainlm
net.trainParam.mu_max 的最大值(缺省为1e10)trainlm
2、 BP 网络举例
举例 1、
%traingd
clear;
clc;
P=[-1 -1 2 2 4;0 5 0 5 7];
T=[-1 -1 1 1 -1];
%利用 minmax函数求输入样本范围
net = newff(minmax(P),T,[5,1],{'tansig','purelin'},'trainrp');
net.trainParam.show=50;%
net.trainParam.lr=0.05;
net.trainParam.epochs=300;
net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
sim(net,P)
BP 神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。
举例 2、利用三层
样本数据:
输入 X 输出 D 输入 X 输出 D 输入 X 输出 D -1.0000 -0.9602 -0.3000 0.1336 0.4000 0.3072 -0.9000 -0.5770 -0.2000 -0.2013 0.5000 0.3960 -0.8000 -0.0729 -0.1000 -0.4344 0.6000 0.3449 -0.7000 0.3771 0 -0.5000 0.7000 0.1816 -0.6000 0.6405 0.1000 -0.3930 0.8000 -0.3120 -0.5000 0.6600 0.2000 -0.1647 0.9000 -0.2189 -0.4000 0.4609 0.3000 -0.0988 1.0000 -0.3201 解:
看到期望输出的范围是1,1 ,所以利用双极性Sigmoid 函数作为转移函数。
程序如下:
clear;
clc;
X=-1:0.1:1;
D=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 ...
0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988 ...
0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201];
figure;
plot(X,D, '*' ); % 绘制原始数据分布图(附录:1-1 )
net = newff([-1 1],[5 1],{ 'tansig' , 'tansig' });
net.trainParam.epochs = 1000; % 训练的最大次数
net.trainParam.goal = 0.005; % 全局最小误差
net = train(net,X,D);
O = sim(net,X);
figure;
plot(X,D, '*' ,X,O); % 绘制训练后得到的结果和误差曲线(附录:1-2 、 1-3 )
V = net.iw{1,1}; %输入层到中间层权值
theta1 = net.b{1}; %中间层各神经元阈值
W = net.lw{2,1}; %中间层到输出层权值
theta2 = net.b{2}; %输出层各神经元阈值
所得结果如下:
输入层到中间层的权值:V -9.1669 7.3448 7.3761 4.8966
T 3.5409
中间层各神经元的阈值: 6.5885 -2.4019 -0.9962 1.5303
T 3.2731
中间层到输出层的权值:W 0.3427 0.2135 0.2981 -0.8840 1.9134 输出层各神经元的阈值:T -1.5271
举例 3、利用三层样本数据:
输入 X BP 神经网络来完成非线性函数的逼近任务,
输出 D输入X输出 D
其中隐层神经元个数为五个。
输入 X输出 D
0 0 4 4 8 2
1 1 5 3 9 3
2 2 6 2 10 4
3 3 7 1
解:
看到期望输出的范围超出1,1 ,所以输出层神经元利用线性函数作为转移函数。
程序如下:
clear;
clc;
X = [0 1 2 3 4 5 6 7 8 9 10];
D = [0 1 2 3 4 3 2 1 2 3 4];
figure;
plot(X,D, '*' ); % 绘制原始数据分布图
net = newff([0 10],[5 1],{ 'tansig' , 'purelin' })
net.trainParam.epochs = 100;
net.trainParam.goal=0.005;
net=train(net,X,D);
O=sim(net,X);
figure;
plot(X,D, '*' ,X,O); % 绘制训练后得到的结果和误差曲线(附录:2-2 、 2-3 )V = net.iw{1,1} %输入层到中间层权值
theta1 = net.b{1} %中间层各神经元阈值
W = net.lw{2,1} %中间层到输出层权值
theta2 = net.b{2} %输出层各神经元阈值
所得结果如下:
V T
输入层到中间层的权值:0.8584 2.0890 -1.2166 0.2752 -0.3910
-14.0302 -9.8340 7.4331 -2.0135 T
中间层各神经元的阈值:0.5610 中间层到输出层的权值:W -0.4675 -1.1234 2.3208 4.6402 -2.2686 输出层各神经元的阈值:T 1.7623
问题:以下是上证指数2009 年 2 月 2 日到 3 月 27 日的收盘价格,构建一个三层BP神经网络,利用该组信号的 6 个过去值预测信号的将来值。
日期价格日期价格2009/02/02 2011.682 2009/03/02 2093.452 2009/02/03 2060.812 2009/03/03 2071.432 2009/02/04 2107.751 2009/03/04 2198.112 2009/02/05 2098.021 2009/03/05 2221.082 2009/02/06 2181.241 2009/03/06 2193.012 2009/02/09 2224.711 2009/03/09 2118.752 2009/02/10 2265.161 2009/03/10 2158.572
2009/02/11 2260.822 2009/03/11 2139.021 2009/02/12 2248.092 2009/03/12 2133.881 2009/02/13 2320.792 2009/03/13 2128.851 2009/02/16 2389.392 2009/03/16 2153.291 2009/02/17 2319.442 2009/03/17 2218.331 2009/02/18 2209.862 2009/03/18 2223.731 2009/02/19 2227.132 2009/03/19 2265.761 2009/02/20 2261.482 2009/03/20 2281.091 2009/02/23 2305.782 2009/03/23 2325.481 2009/02/24 2200.652 2009/03/24 2338.421 2009/02/25 2206.572 2009/03/25 2291.551 2009/02/26 2121.252 2009/03/26 2361.701 2009/02/27 2082.852 2009/03/27 2374.44
load data3_1.txt;
[m,n]=size( data3_1);
tsx = data3_1(1:m-1,1);
tsx=tsx';
ts = data3_1(2:m,1);
ts=ts';
[TSX,TSXps]=mapminmax(tsx,1,2);
[TS,TSps]=mapminmax(ts,1,2);
TSX=TSX';
figure;
plot(ts, 'LineWidth' ,2);
title( xlabel( ylabel( grid
' 到杭旅游总人数(1999.01.01-2009.12.31)'
' 统计年份 (1990.12.19-2009.08.19)'
' 归一化后的总游客数/ 万人 ' , 'FontSize'
on ;
, 'FontSize'
, 'FontSize',12);
,12);
,12);
%生成 BP网络、利用 minmax 函数求输入样本范围
net_1=newff(minmax(TS),[10,1],{ 'tansig', 'purelin' }, 'traincgf' )
% 设置训练参数
net_1.trainParam.show = 50; %显示训练迭代过程(NaN表示不显示,缺省25 )net_1.trainParam.lr = 0.025; %学习率(缺省0.01 )
net_1.trainParam.mc = 0.9; %动量因子(缺省 0.9 )
net_1.trainParam.epochs = 10000; %最大训练次数
net_1.trainParam.goal = 0.001; %训练要求精度
inputWeights=net_1.IW{1,1} %输入层权值inputbias=net_1.b{1} %输入层阈值layerWeights=net_1.LW{2,1} %输出层权值layerbias=net_1.b{2} %输出层阈值
TS',TSX
%网络训练
[net_1,tr]=train(net_1,TS,TSX);。