作业(神经网络)
2023年秋江苏开放大学神经网络与深度学习形考二作业
2023年秋江苏开放大学神经网络与深度学习形考二作业试题列表单选题题型:单选题客观题分值5分难度:简单得分:51以下卷积运算的输出结果为A11 12<br>10 1115 16<br> 6 15C10 11<br>11 12D11 12<br>10 11学生答案:B老师点评:题型:单选题客观题分值5分难度:中等得分:52以下关于神经⽹络的训练过程,描述错误的是?A【mini-batch】从训练数据中随机选出⼀部分数据,这部分数据称为mini-batch,我们的⽬标是减少mini-batch损失函数的值。
【随机梯度下降】stochastic gradient descent:“随机”代表在梯度下降中随机初始⼀个学习率,并不断尝试多个值,寻求最好的结果C【计算梯度】为了减⼩mini-batch的损失函数,需要求出各个权重参数的梯度D【更新参数】梯度反⽅向表示损失函数的值减⼩最多的⽅向,将权重参数沿梯度反⽅向进⾏微⼩更新学生答案:B老师点评:题型:单选题客观题分值5分难度:一般得分:53多义现象可以被定义为在⽂本对象中⼀个单词或短语的多种含义共存。
下列哪⼀种⽅法可能是解决此问题的最好选择?A随机森林B以上所有⽅法卷积神经⽹络D强化学习学生答案:C老师点评:题型:单选题客观题分值5分难度:中等得分:54在⼀个神经⽹络⾥,知道每⼀个神经元的权重和偏差是最重要的⼀步。
如果以某种⽅法知道了神经元准确的权重和偏差,你就可以近似任何函数。
实现这个最佳的办法是什么?A以上都不正确B搜索所有权重和偏差的组合,直到得到最优值C随机赋值,祈祷它们是正确的赋予⼀个初始值,检查与最优值的差值,然后迭代更新权重学生答案:D题型:单选题客观题分值5分难度:一般得分:55以下场景中适合采⽤⼀对多结构RNN的是?A基于帧粒度的视频分类B⽣成图⽚说明C情感分析D机器翻译学生答案:B题型:单选题客观题分值5分难度:一般得分:56在典型CNN⽹络AlexNet中,原始图⽚是⼤⼩为227*227的三通道数据,经过96个⼤⼩为11*11的卷积核卷积后得到96个⼤⼩为55*55的特征图,若padding = 0 ,则卷积核的步⻓为多少?4B1C2D3学生答案:A老师点评:题型:单选题客观题分值5分难度:一般得分:57】在神经⽹络的学习中,权重的初始值特别重要,设定什么样的权重初始值,经常关系到神经⽹络的学习能否成功。
智能控制(神经网络)-作业
智能控制作业学生姓名: 学号: 专业班级:(一)7-2 采用BP网路、RBF网路、DRNN网路逼近线性对象, 分别进行matlab 仿真。
(二)采用BP网络仿真网络结构为2-6-1。
采样时间1ms, 输入信号, 权值的初值随机取值, 。
仿真m文件程序为:%BP simulationclear all;clear all;xite=0.5;alfa=0.5;w1=rands(2,6); % value of w1,initially by randomw1_1=w1;w1_2=w1;w2=rands(6,1); % value of w2,initially by randomw2_1=w2;w2_2=w2_1;dw1=0*w1;x=[0,0]';u_1=0;y_1=0;I=[0,0,0,0,0,0]'; % input of yinhanceng cellIout=[0,0,0,0,0,0]'; % output of yinhanceng cellFI=[0,0,0,0,0,0]';ts=0.001;for k=1:1:1000time(k)=k*ts;u(k)=0.5*sin(3*2*pi*k*ts);y(k)=(u_1-0.9*y_1)/(1+y_1^2);for j=1:1:6I(j)=x'*w1(:,j);Iout(j)=1/(1+exp(-I(j)));endyn(k)=w2'*Iout; %output of networke(k)=y(k)-yn(k); % error calculationw2=w2_1+(xite*e(k))*Iout+alfa*(w2_1-w2_2); % rectify of w2for j=1:1:6FI(j)=exp(-I(j))/(1+exp(-I(j))^2);endfor i=1:1:2for j=1:1:6dw1(i,j)=e(k)*xite*FI(j)*w2(j)*x(i); % dw1 calculation endendw1=w1_1+dw1+alfa*(w1_1-w1_2); % rectify of w1% jacobian informationyu=0;for j=1:1:6yu=yu+w2(j)*w1(1,j)*FI(j);enddyu(k)=yu;x(1)=u(k);x(2)=y(k);w1_2=w1_1;w1_1=w1;w2_2=w2_1;w2_1=w2;u_1=u(k);y_1=y(k);endfigure(1);plot(time,y,'r',time,yn,'b');xlabel('times');ylabel('y and yn');figure(2);plot(time,y-yn,'r');xlabel('times');ylabel('error');figure(3);plot(time,dyu);xlabel('times');ylabel('dyu');运行结果为:(三)采用RBF网络仿真网路结构为2-4-1, 采样时间1ms, 输入信号, 权值的初值随机取值, , 高斯基函数初值, 。
大工22夏《神经网络》大作业
大工22夏《神经网络》大作业
1. 项目介绍
本次《神经网络》大作业旨在让同学们深入理解神经网络的工作原理,并能够独立实现一个简单的神经网络模型。
通过完成本次作业,同学们将掌握神经网络的基本结构,训练过程以及参数优化方法。
2. 任务要求
1. 独立实现一个具有至少三层神经网络的结构,包括输入层、隐藏层和输出层。
2. 选择一个合适的激活函数,并实现其对应的激活和导数计算方法。
3. 实现神经网络的正向传播和反向传播过程,包括权重更新和偏置更新。
4. 在一个简单的数据集上进行训练,评估并优化所实现的神经网络模型。
3. 评分标准
1. 神经网络结构实现(30分)
2. 激活函数实现(20分)
3. 正向传播和反向传播实现(20分)
4. 模型训练与评估(20分)
5. 代码规范与文档说明(10分)
4. 提交要求
1. 提交代码文件,包括神经网络结构、激活函数、正向传播、反向传播以及训练与评估的实现。
2. 提交一份项目报告,包括项目简介、实现思路、实验结果及分析。
3. 请在提交前确保代码的可运行性,并在报告中附上运行结果截图。
5. 参考资料
1. Goodfellow, I. J., Bengio, Y., & Courville, A. C. (2016). Deep learning. MIT press.
2. Russell, S., & Norvig, P. (2016). Artificial intelligence: a modern approach. Pearson Education Limited.
祝大家作业顺利!。
上海交通大学神经网络大作业之数字卡片的识别
基于单片机的数字卡片识别实验报告 唐新灵 1110319055 温锦斌 1110319061一.题目感知器网络应用实例说明:输入:9个,笔划通过小块时,输出为“1”,否则为“0”; 输出:1个,当 j j W x 超过阈值时灯亮,否则灯灭;目的:奇偶数识别。
数字卡为奇数时,灯亮(输出1)。
将0~9都输入一遍,结果正确,什么都不变,否则,修正权值,减小误差。
并且这是基于单片机的硬件实现。
二.实验步骤。
1.硬件设计。
(1)实验器材单片机一块:8051F020单片机;PCB板一块;200欧电阻两个;开关若干;发光二极管若干;细导线若干。
(2)仿真软件Keil3,proteus;(3)硬件画图在proteus上画出硬件图,如下所示:(4)软件设计根据神经网络的原理和单片机的软件设计特点用C语言写出程序,程序如下:#include "C8051F020.h"#define uchar unsigned char#define uint unsigned int//sbit p20=P2^0; //指示灯sbit S1=P1^0;sbit S2=P1^1;sbit S3=P1^2;sbit S4=P1^3;sbit S5=P1^4;sbit S6=P1^5;sbit S7=P3^7;sbit S8=P1^7;sbit S9=P3^5;sbit S10=P3^6;sbit LED1=P3^0;sbit LED2=P3^1;void Oscillator_Init() //外部晶振初始化{int i = 0;OSCXCN = 0x66;for (i = 0; i < 3000; i++); // Wait 1ms for initialization while ((OSCXCN & 0x80) == 0);OSCICN = 0x08;}void Timer_Init(){CKCON = 0x18;TMOD = 0x21;TH1 = 0x30;//600bps }void UART_Init(){SCON0 = 0x40;SCON1 = 0x40;}void Port_IO_Init(){P0MDOUT = 0x0F;P1MDOUT = 0xff;P3MDOUT = 0xff;XBR0 = 0x14;XBR2 = 0x44;}void Interrupts_Init(){IE = 0x98;IP = 0x18;EIE2 = 0x40;EIP2 = 0x40;}void PCA_Init() //PCA配置产生38KHz载波{PCA0MD = 0x08;PCA0CPM1 = 0x46;PCA0CPM2 = 0x46;PCA0CPH0 = 0x35;PCA0CPH1 = 0x35;}void Init_Device(void){Oscillator_Init();Timer_Init();PCA_Init();UART_Init();Port_IO_Init();Interrupts_Init();PCA0CN = 0x40;//启动PCA}void delay(){uint i,j;for(i=0;i<2;i++);//for(j=0;j<50;j++);}/*************************************************/ void main(){int x[10][10]={{0,0,1,0,0,1,1,0,0,0},{0,1,1,0,1,0,1,0,0,1},{0,1,1,1,0,0,1,0,0,0},{1,0,1,0,1,1,1,0,0,0},{1,1,1,0,0,1,0,0,0,0},{1,0,1,0,1,0,0,0,1,1},{0,1,1,1,0,0,0,1,0,0},{0,0,1,0,0,1,0,1,0,0},{0,1,1,1,0,1,1,1,0,0},{0,1,1,0,1,0,0,1,1,0}};int d[10]={0,1,0,1,0,1,0,1,0,1},t[10]={0};int k,j,i,h,a,e,l;long w[10]={0,0,0,0,0,0,0,0,0,0};long c[10];float f[10],b[10],p=0;int r=1;long v=0;int y;for(k=1;k<=5;k++)for(j=0;j<=9;j++)for(i=0;i<=9;i++){c[i]=x[j][i]*w[i]*1000;//v=v+c[i];v=c[0]+c[1]+c[2]+c[3]+c[4]+c[5]+c[6]+c[7]+c[8]+c[9];if (v<0)y=0;elsey=1;w[i]=w[i]+r*(d[j]-y)*x[j][i]*1000;}for(i=0;i<=9;i++){f[i]=w[i]/1000;}WDTCN=0xde; //看门狗禁用WDTCN=0xad;Init_Device(); //初始化//TCON = 0x50; //启动定时器LED2=0;LED1=1;while(1){for(i=0;i<=9;i++){if (S1==0)t[i]=x[0][i];if (S2==0)t[i]=x[1][i];if (S3==0)t[i]=x[2][i];if (S4==0)t[i]=x[3][i]; if (S5==0)t[i]=x[4][i]; if (S6==0)t[i]=x[5][i]; if (S7==0)t[i]=x[6][i]; if (S8==0)t[i]=x[7][i]; if (S9==0)t[i]=x[8][i]; if (S10==0) t[i]=x[9][i]; p=p+t[i]*f[i]; }if (p<0)h=0;elseh=1;l=!h; LED2=h; LED1=l;//if (LED1==0){delay();LED1=1;};//if (LED2==0){delay();LED2=1;};}}三.实验实物照片照片1.整体视图照片2.单片机部分视图照片3.卡片识别部分视图四.实验结果。
神经网络作业
BP神经网络及MATLAB实现实验报告姓名:李英杰学号:123109302专业:机械电子工程2013年6月19日1. BP网络的MATLAB设计MatlabR2012 神经网络工具箱(Neural Network toolbox) 为用户提供了丰富的神经网络设计与分析函数,可是用它们来编程不容易掌握。
我们通过对神经网络工具箱的实践应用研究表明,使用神经网络工具箱中的NNTool对神经网络进行设计和仿真简便易行直观,不需要编程,且设计和仿真的结果证明完全能够满足一般工程设计人员的需要,能够取得事半功倍的效果。
下面我们以一个单隐含层的BP网络设计为例,介绍利用神经网络工具箱中的NNTool对BP网络的设计和分析。
利用NNTool设计一个BP 网络,该网络的输入层和输出层的神经元个数均为1。
训练样本定义如下:输入变量为p =[-1 1 3 1;-1 1 5 -3]目标变量为 t = [-1 2 4 3]打开Matlab 应用软件后,双击Neural Network toolbox 中的NNTool 图标,或在命令窗口键入nntool,即可进入神经络设计主界面,如下图。
图1 NNTool 设计主界面1.训练样本数据的导入点击New按钮,在弹出窗口选择Date选项卡,按如图2,3所示创建输入变量和目标变量。
图2 创建新的输入变量图3 创建新的目标变量2.神经网络的创建点击主界面中点击New按钮,在弹出窗口选择Newwork选项卡,并在对话框中可对网络的名称、类型、结构和训练函数等进行设置,如图4 所示。
图4创建神经元网络界面在上面窗口中对该网络命名为:tracylee;网络类型为:Feed-forward backprop,即前馈BP神经网络;Input ranges :点击Get From Input下拉框选择样本输入变量p加入输入向量;Training function:在下拉列表中选择TRAINGDM训练函数;采用动量梯度下降算法训练 BP 网络。
【上海交通大学】【神经网络原理与应用】作业4
Neural Network Theory and ApplicationsHomework Assignment4oxstar@SJTUJanuary19,20121PreparationsAs shown in Figure1,points from two gauss distribution are our dataset and initial5×5 neurons’weight of SOM are all set to(1.5,1.5).We choose rectangular neighborhoods as neurons’topology.Figure1:Dataset and Initial Neurons’Topology2ExperimentsThe series of diagrams in Figure2shows how the weights of the25neurons spread out over the active input space and organized themselves to match its topology.Here the Gaussian neighborhood functionσ=1and learning rateη=0.035.We will discuss how to choose these parameters later.3Discussion3.1Learning RateηIntuitively,the bigger a learning rate is,the faster an SOM can converge.Table1shows how many iterations an SOM need against differentηatσ=1.(a)1Iteration(b)2Iterations(c)3Iterations(d)4Iterations(e)5Iterations(f)6IterationsFigure2:Evolution of Neurons’TopologyTable1:Needed Iterations Against DifferentηLearning RateηIterations0.06020.03560.010200.04040However,it does not mean that learning rate should be set really large.A big learning rate may cause a not so good neurons’topology as shown in Figure3(a)η=0.5(b)η=0.6Figure3:Neurons’Topology(σ=1)Additionally,according to our experiments,if learning rate were bigger than0.6,the weights of neurons could hardly converge.3.2σin Gaussian Neighborhood FunctionAfterfixing the learning rate,we can consider howσin Gaussian neighborhood function can influence the results.Ifσwere too small,neighbors of wining neuron would update their weights very slightly due to the values calculated by neighborhood function failing to cause sufficient influence. Each neuron is isolated with the others and always updates solitarily.It may cause an irregular topology and Figure4a proves it.But ifσwere too large,many neurons would update at a similar degree at one iteration. Neurons may have difficulties in spreading out.This situation can be seen in last three diagrams in Figure4.(a)σ=0.5(b)σ=2(c)σ=4(d)σ=8Figure4:Neurons’Topology(η=0.035)。
神经网络作业:预测公路运量
预测公路运量公路运量主要包括公路的客运量和公路货运量两个方面。
据研究,某地区的公路运量主要与该地区的人数、机动车数量和公路面积有关,表1给出了20年得公路运量相关数据,表中人数和公路客运量的单位为万人,机动车数量单位为万两,公路面积的单位为万平方千米,公路货运量单位为万吨。
根据有关部门数据,该地区2010年和2011年的人数分别为73.39和75.55万人,机动车数量分别为3.9635和4.0975万辆,公路面积将分别为0.9880和1.0268万平方米。
1.请利用BP神经网络预测该地区2010年2011年得公路客运量和公路货运量。
2.请利用其他方法预测该地区2010年2011年得公路客运量和公路货运量。
3.比较两种方法的优缺点。
某地区20年公路运量数据某地区20年公路运量数据年份人口数量机动车数量公路面积公路客运量公路货运量199020.55 0.6 0.09 5126 1237 199122.44 0.75 0.11 6217 1379 199225.37 0.85 0.11 7730 1385 199327.13 0.90 0.14 9145 1399 199429.45 1.05 0.20 10460 1663 199530.1 1.35 0.23 11387 1714 199630.96 1.45 0.23 12353 1834 199734.06 1.60 0.32 15750 4322 199836.42 1.70 0.32 18304 8132 199938.09 1.85 0.34 19836 8936 200039.13 2.15 0.36 21024 11099 200139.99 2.20 0.36 19490 11203 200241.93 2.25 0.38 20433 10524 200344.59 2.35 0.49 22598 11115 200447.30 2.50 0.56 25107 13320 200552.89 2.60 0.59 33442 16762 200655.73 2.70 0.59 36836 18673 200756.76 2.85 0.67 40548 20724 200859.17 2.95 0.69 42927 20803 200960.63 3.10 0.79 43462 21804。
人工神经网络设计作业
人工神经网络设计作业一、利用感知机神经网络完成真值表中的操作设有一个M-P模型神经元有两个输入P1和P2,其输出为a,让其完成下列的真值表功能:1、具体的程序及其说明如下:clcP=[0 0 1 1;0 1 0 1];T=[0 1 1 1];%提供两组输入一组输出的训练集C=[-2 3 -2 3];%设置坐标轴的范围plotpv(P,T,C)%绘制样本点的坐标pause;[R,Q]=size(P);%R个输入[S,Q]=size(T);%S个输出[W,B]=rands(S,R);%随机获得权值plotpc(W,B)%绘制出初始的决策线pause;A=hardlim(netsum(W*P,B));%计算感知器神经元的输出E=T-A;SSE=sumsqr(E);%计算初始决策线的误差for epoch=1:100if(SSE==0)%若误差为零,画出决策线,并停止训练plot(W,B,'r-')disp('训练成功');breakend[dW,dB]=learnp(P,A,T)%感知器的学习W=W+dW;%修正权值B=B+dB;%调整偏差plotpc(W,B); %绘制决策线pause;a=epoch(1);hold onA=hardlim(netsum(W*P,B));%计算感知器神经元输出E=T-A;%计算误差SSE=sumsqr(E);endA %输出最后的训练结果a %输出训练次数2、具体的训练过程如图所示:样本点P(1)P (2)初始决策线P(1)P (2)训练中的决策线P(1)P (2)训练结束P(1)P (2)3、训练结果:训练结束后我们可知道A=[0 1 1 1],训练次数a=4次。
二、利用BP 网络逼近一个非线性函数1、函数选择为指数衰减函数2*2p te -=*,隐层采用对数正切S 型,输出层采用线性型,具体的程序及其说明如下:clcn=5;%隐层神经元的个数 lr=0.1;%学习率 mc=0.9;%动量因子 p=0:0.05:3; t=2*exp(-2.*p);[r,l]=size(p);%r 输入层的维数 [s,l]=size(t);%s 输出层的维数 w1=0.2*rand(n,r);%隐层的权值 deltaw1=zeros(n,r); B1=0.2*rand(n,1);%隐层的偏移量 deltaB1=zeros(n,1); w2=0.2*rand(s,n);%输出层权值 deltaw2=zeros(s,n);B2=0.2*rand(s,1);%输出层的偏移量 deltaB2=zeros(s,1); A1=tansig(w1*p,B1);A2=purelin(w2*A1,B2);plot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');axis([0 3 -1 2])title(['样本点和未经训练的曲线']);legend('样本点');pause;epoch=1;sse=1;for epoch=1:10000 %最大训练圈数为1000w1=w1+deltaw1;%权值及其偏移量的调整B1=B1+deltaB1;w2=w2+deltaw2;B2=B2+deltaB2;[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');E=t-A2;sse(epoch)=sumsqr(E);%计算误差if(sse(epoch)==0.001)%达到期望误差退出逼近breakendD2=deltalin(A2,E);D1=deltatan(A1,D2,w2);[deltaw2,deltaB2]=learnbpm(A1,D2,lr,mc,deltaw2,deltaB2); [deltaw1,deltaB1]=learnbpm(p,D1,lr,mc,deltaw1,deltaB1); if(sse(epoch)<=0.001)breakendend;epochplot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');title(['训练',num2str(epoch),'次后的曲线']);legend('样本点');axis([0 3 -1 2])pauseFF=1:epoch;plot(FF,sse(FF),'r-');xlabel('训练次数');ylabel('误差');title(['SSE误差曲线']);pause;%泛化能力测试[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');p=0:0.05:3;t=2*exp(-2.*p);%训练后逼近的曲线plot(p,A2,'-');xlabel('输入样本p');ylabel('输出样本t');legend('逼近的曲线'); axis([0 3 -1 3]) hold on ; pt=0:0.1:3;tt=2*exp(-2.*pt); plot(pt,tt,'ro'); title(['检验泛化能力']); axis([0 3 -1 3]) pause; hold off ; epoch %输出训练次数2、具体的逼近过程如下图形显示:0.511.522.53输入样本p输出样本t样本点和未经训练的曲线0.511.522.53输入样本p输出样本t训练113后的曲线由训练结果显示:完成很好的逼近功能,训练次数为113次,误差曲线如下图,我们可以看到误差是收敛的。
神经网络作业
机器学习,是人工智能的一个子领域,主要关注于开发一些蠩计算机可以自动“学习”的技术。
更堷体说,机器学习是一种用于创建数据順分析分析程序的方法。
机器学习跟统计学有着重要的关系,因为这两个领域都栯研究数据分析,但是又不像统计学,栺器学习关注的是计算实现的算法复杂堦。
很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容栓处理的近似算法。
机器学习已经有亠十分广泛的应用例如搜索引擎、诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音识别和手写识别识别、战略游戏和机器人运用。
第五讲机器学习机器学习就是计算机自动获取知识,它是知识工程的三个分支(使用知识、知识表示、获取知识)之一。
5.1 研究机器学习的必要性和可行性人工智能的概念和方法已经用于很多领域中,主要成果是专家系统、自然语言理解、计算机视觉和听觉、推理系统的研究。
当前人工智能研究的主要障碍和发展方向之一就是机器学习,这包括发展机器学习的计算理论和构造学习系统。
现在的人工智能系统还完全没有或仅有很有限的学习能力。
人工智能系统中的知识由人工编程送入系统,知识库中错误也不能自动改正。
也就是说,现有的AI系统是演绎推理而不是归纳推理,因而不能自动获取和生成知识。
人类有能力获取新知识、学习新技巧,并在实践中改进之。
如果一个人反复犯同样的错误,就不能说他是有智能的。
学习是智能的重要一环,人工智能的研究目标之一应该是理解学习的本质和建立学习系统。
人工智能解决的问题越来越复杂,系统中的知识越来越多,这些知识包括:领域专用的事实和规则,作为常识的启发式和约束,通用的概念和理论,把如此复杂的知识送入系统是复杂的、费时的、容易出错的和需要经验的。
例如:∙建立专家系统需要有关领域的专家和知识工程师的配合。
使用机器学习技术可以简化这一过程;∙计算机视觉中包含各种视觉专用变换、几何概念和对象的物理与功能描述。
把所有这些知识送入系统中是很困难的,系统应该可以由示教实例自动生成知识。
【上海交通大学】【神经网络原理与应用】作业1
10
5
0
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
1
Learning rates105 Nhomakorabea0
−5
−10
−15
−20
Class 1
−25
Class 2
Class 3 −30
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3
Figure 1: Times of Iteration at Different Learning Rates
Figure 2: Result for Classification (P2)
4 1
3 0.5
2 0
−0.5
1
−1
0
−1.5
−1
−2
−2
−2.5
−3
−3
Class 1
−4
Class 1
Class 2
Class 2
−3.5
−5
−0.5
0
0.5
1
2023年秋江苏开放大学神经网络与深度学习形考三作业
2023年秋江苏开放大学神经网络与深度学习形考三作业试题列表单选题题型:单选题客观题分值2分难度:一般得分:21深度学习中的卷积神经网络属于机器学习中的那哪种模型A深度无监督学习深度监督学习C深度半监督学习D深度强化学习学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:22对于非连续目标在深度神经网络的优化过程中,下面哪种梯度下降方法是最好的?A1-BFGS拉格朗日松弛Subgradont methodCSGDDAdaGrad学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:23深度学习中,不经常使用的初始化参数W(权重矩阵)的方法是哪种?常量初始化BMSRA初始化C高斯分布初始化DXavier初始化学生答案:A老师点评:题型:单选题客观题分值2分难度:一般得分:24请问以下和神经网络中的dropout作用机制类似的是?ABoostingBaggingCStackingD都不是学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:25关于CNN,以下说法错议的是ACNN用于解决图像的分类及回归问题CNN最初是由Hinton教授提出的CCNN是一种判别模型D第一个经典CNN模型是LeNet学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:26关于神经网络中经典使用的优化器,以下说法正确的是A对于轻量级神经网络,使用Adam比使用RMSprop更合适BAdam的收数速度比RMSprop相比于Adam或RMSprop等优化器,SGD的收效效果是最好的D相比于SGD或RMSprop等优化器,Adam9收做效果是最好的学生答案:C老师点评:题型:单选题客观题分值2分难度:一般得分:27反向传播算法一开始计算什么内容的梯度,之后将其反向传播?A都不对B各个输入样本的平方差之和预测结果与样本标签之间的误差D各个网络权重的平方差之和学生答案:C老师点评:题型:单选题客观题分值2分难度:一般得分:28神经网络,非线性激活函数包括sigmoid/tanh/ReLU等其他说法都不正确B总是输出0/1C只在最后输出层才会用到D加速反向传播时的梯度计算学生答案:A老师点评:题型:单选题客观题分值2分难度:一般得分:29声明1:可以通过将所有权重初始化为0来训练网络。
人工智能习题作业神经计算I习题答案
人工智能习题作业神经计算I习题答案第五章神经网络课后习题及答案一、选择题:1. 在BP算法中,设y=f(xi)为xi的平滑函数,想知道xi对y增大变化的情况,我们可求,然后进行下列的哪一项?( B )A 取最小B 取最大C 取积分D 取平均值2. 对于反向传播学习,无论是在识别单个概念的学习或识别两个概念的学习中,都涉及到下列的哪一个操作?( A )A 权值的修正B 调整语义结构C 调整阀值D 重构人工神经元3. 根据Hopfield网络学习的特点,能实现联想记忆和执行线性和非线性规划等求解问题其应用没有涉及到下列的哪一个内容?( D )A 模糊推理模型B 非线性辨认C 自适应控制模型D 图象识别4. 对于神经网络的二级推理产生式规则由三个层次构成,它不含下列的哪一个层次?( C )A 输入层B 输出层C 中间层D 隐层5. 人工神经网络借用了生理神经元功能的一些描述方式,它涉及到下列的哪一些内容?( ABC )A 模拟神经元B 处理单元为节点C 加权有向图D 生理神经元连接而成6. 在应用和研究中采用的神经网络模型有许多种,下列的哪一些是具有代表性的?( ABD )A 反向传递(BP)B Hopfield网C 自适应共振D 双向联想存储器7. 下列的哪一些内容与反向传播学习算法有关?( ABCD )A 选取比率参数B 误差是否满足要求C 计算权值梯度D 权值学习修正8. 构造初始网络后,要用某种学习算法调整它的权值矩阵,使NN在功能上满足样例集给定的输入一输出对应关系,并由此产生推理,该矩阵必须满足下列的哪一个性质? ( A )A 收敛性B 对称性C 满秩性D 稀疏性9. 在人工神经元的功能描述中,往往会用一激发函数来表示输出,常用的一般非线性函数有下列的哪一些项? ( ABD )A 阀值型B 分段线性强饱和型C 离散型D S i gm oid型10. 基于神经网络的推理,其应用中必须涉及到下列的哪一些内容?( ACD )A NN的结构模型B NN的推理规则C NN的学习算法D 从NN到可解释的推理网二、填空题:1. 前馈网络是一种具有很强学习能力的系统,结构简单,易于编程。
神经网络大作业
神经网络大作业题目神经网络模型的对比与分析学院学号学生姓名神经网络的网络拓扑结构大体有前向型、反馈型、自组织竞争型和随机型网络等拓扑结构(出发点不同网络结构的分法也不一样)。
前向型的人工神经网络有学习、分类等功能,反馈型的人工神经网络有联想记忆、优化计算等功能,自组织竞争型的人工神经网络有聚类、搜索、自组织、自学习等功能。
截至目前,我们主要学习了四种网络模型,即:感知机、有监督的Hebb网络、ADLINE (Widrow-Hoff)模型和反向传播模型(BP)都隶属于前向网络。
下面,我就各个网络模型的学习规则以及异同谈一些体会。
1.感知机学习规则:1943年,Warren McCulloch和Walter Pitts最早提出了一种人工神经元模型,把神经元输入信号的加权和与其阈值相比较以确定神经元的输出。
如果加权和小于阈值,则该神经元的输出值为0;如果加权和大于阈值,则该神经元的输出值为1。
但由于没有找到训练这一网络的方法,因此必须设计这些神经元网络的参数以实现特定的功能。
上世纪50年代,Frank Rosenblatt等研究人员提出了一种感知机的神经网络,引入了用于训练神经网络解决模式识别问题的学习规则,并证明了只要求解问题的权值存在,那么其学习规则通常会收敛到正确的权值上。
但是,感知机网络却存在一定的局限性,其只能解决模式识别中的线性可分问题。
正是由于这种局限性,一度导致神经网络的研究工作陷入低潮。
我们知道,对于1-3维输入单层神经元的模式识别问题,可以通过图解法解决。
其基本程序为:1、画出判定边界,该判定边界实现了区域划分的目的;2、求解权值矩阵,权值矩阵求解的关键是判定边界总是和权值矩阵相正交,对于同一模式识别问题,判定边界的不同会造成权值矩阵的不同。
这一不同,在与当前模式精确匹配时不会产生错误的输出,而在其他模式的判别中可能引起较大的误差(下面将举例说明)。
3、求解偏值,偏值b的求解,可以在求解权值矩阵的基础上,将判定边界上任意一点的坐标带入方程WT*P+b=0得到,如果我们划定的判定边界通过坐标原点,那么此时的b值可以设定为0。
神经网络 作业 -- 使用BP RBF SVM进行函数拟合和分类
神经网络作业作业说明第一题(函数逼近):BP网络和RBF网络均是自己编写的算法实现。
BP网络均采用的三层网络:输入层(1个变量)、隐层神经元、输出层(1个变量)。
转移函数均为sigmoid函数,所以没有做特别说明。
在第1小题中贴出了BP和RBF的Matlab代码,后面的就没有再贴出;而SVM部分由于没有自己编写,所以没有贴出。
而针对其所做的各种优化或测试,都在此代码的基础上进行,相应参数的命名方式也没有再改变。
RBF网络使用了聚类法和梯度法两种来实现。
而对于SVM网络,在后面两题的分类应用中都是自己编写的算法实现,但在本题应用于函数逼近时,发现效果很差,所以后来从网上下载到一个SVM工具包LS-SVMlab1.5aw,调用里面集成化的函数来实现的,在本题函数逼近中均都是采用高斯核函数来测试的。
第二题(分类):BP网络和RBF网络都是使用的Matlab自带的神经网络工具包来实现的,不再贴出代码部分。
而SVM网络则是使用的课上所教的算法来实现的,分别测试了多项式核函数和高斯核函数两种实现方法,给出了相应的Matlab代码实现部分。
第三题:由于问题相对简单,所以就没有再使用Matlab进行编程实现,而是直接进行的计算。
程序中考虑到MATLAB处理程序的特性,尽可能地将所有的循环都转换成了矩阵运算,大大加快了程序的运行速度。
编写时出现了很多错误,常见的如矩阵运算维数不匹配,索引值超出向量大小等;有时候用了很麻烦的运算来实现了后来才知道原来可以直接调用Matlab里面的库函数来实现以及怎么将结果更清晰更完整的展现出来等等。
通过自己编写算法来实现各个网络,一来提升了我对各个网络的理解程度,二来使我熟悉了Matlab环境下的编程。
1.函数拟合(分别使用BP,RBF,SVM),要求比较三个网络。
2π.x ,05x)sin(5x)exp(y(x)4π.x ,0xsinx y(x)100.x x),1exp(y(x)100.x ,1x1y(x)≤≤-=≤≤=≤≤-=≤≤=解:(1).1001,1)(≤≤=x x x ya. BP 网络:Matlab 代码如下:nv=10; %神经元个数:10个err=0.001; %误差阈值J=1; %误差初始值N=1; %迭代次数u=0.2; %学习率wj=rand(1,nv); %输入层到隐层神经元的权值初始化wk=rand(1,nv); %隐层神经元到输出层的权值初始化xtrain=1:4:100; %训练集,25个样本xtest=1:1:100; %测试集,100个dtrain=1./xtrain; %目标输出向量,即教师%训练过程while (J>err)&&(N<100000)uj=wj'*xtrain;h=1./(1+exp(-uj)); %训练集隐层神经元输出uk=wk*h;y=1./(1+exp(-uk)); %训练集输出层实际输出delta_wk = u*(dtrain-y).*y.*(1-y)*h'; %权值调整delta_wj = u*wk.*(((dtrain-y).*y.*(1-y).*xtrain)*(h.*(1-h))'); wk = wk+delta_wk;wj = wj+delta_wj;J=0.5*sum((dtrain-y).^2); %误差计算j(N)=J;N=N+1;end%测试及显示uj=wj'*xtest;h=1./(1+exp(-uj));uk=wk*h;dtest=1./(1+exp(-uk));figuresubplot(1,2,1),plot(xtest,dtest,'ro',xtest,1./xtest);legend('y=1/x', 'network output');subplot(1,2,2),plot(xtest,1./xtest-dtest);x=1:N-1;figureplot(x,j(x));运行条件:10个神经元,误差迭代阈值为0.001.学习率为0.2。
神经网络作业总结范文
一、前言随着人工智能技术的飞速发展,神经网络作为人工智能领域的重要技术之一,越来越受到广泛关注。
本次作业以吴恩达机器学习课程中的神经网络部分为基础,通过实际操作,对神经网络的理论知识和实践应用进行了深入学习和总结。
二、理论基础1. 神经网络结构神经网络主要由输入层、隐藏层和输出层组成。
输入层负责接收输入数据,隐藏层负责对输入数据进行特征提取和变换,输出层负责输出最终结果。
2. 激活函数激活函数是神经网络中的关键组成部分,它将线性组合的结果转换为非线性的输出。
常用的激活函数有Sigmoid、ReLU和Tanh等。
3. 权值和偏置权值和偏置是神经网络中重要的参数,它们决定了神经网络的输出。
在训练过程中,通过不断调整权值和偏置,使神经网络能够更好地拟合数据。
4. 前向传播和反向传播前向传播是指将输入数据经过神经网络各个层,最终得到输出结果的过程。
反向传播是指根据输出结果与真实值的误差,反向传播误差信号,并更新权值和偏置,使神经网络能够不断优化。
三、实践操作1. 数据准备本次作业以MNIST手写数字数据集为例,进行神经网络训练。
首先,需要将数据集划分为训练集、验证集和测试集。
2. 网络搭建根据吴恩达机器学习课程的要求,搭建一个简单的神经网络。
输入层为784个神经元,隐藏层为128个神经元,输出层为10个神经元,分别对应0-9的数字。
3. 训练过程使用训练集对神经网络进行训练。
在训练过程中,通过调整学习率、批处理大小等参数,使神经网络能够更好地拟合数据。
4. 验证和测试使用验证集和测试集对神经网络进行验证和测试。
通过计算准确率等指标,评估神经网络的性能。
四、总结1. 理论知识的重要性通过本次作业,深刻体会到理论知识在神经网络实践中的重要性。
只有掌握扎实的理论基础,才能更好地进行实践操作。
2. 神经网络的优化在训练过程中,不断调整学习率、批处理大小等参数,使神经网络能够更好地拟合数据。
这表明,优化神经网络参数对于提高性能至关重要。
神经网络作业-问题及答案
一 简述人工神经网络常用的网络结构和学习方法。
(10分)答:1、人工神经网络常用的网络结构有三种分别是:BP 神经网络、RBF 神经网络、Kohonen 神经网络、ART 神经网络以及Hopfield 神经网络。
人工神经网络模型可以按照网络连接的拓扑结构分类,还可以按照内部信息流向分类。
按照拓扑结构分类:层次型结构和互连型结构。
层次型结构又可分类:单纯型层次网络结构、输入层与输出层之间有连接的层次网络结构和层内有互联的层次网络结构。
互连型结构又可分类:全互联型、局部互联型和稀疏连接性。
按照网络信息流向分类:前馈型网络和反馈型网络。
2、学习方法分类:⑴.Hebb 学习规则:纯前馈网络、无导师学习。
权值初始化为0。
⑵.Perceptron 学习规则:感知器学习规则,它的学习信号等于神经元期望输出与实际输出的差。
单层计算单元的神经网络结构,只适用于二进制神经元。
有导师学习。
⑶.δ学习规则:连续感知学习规则,只适用于有师学习中定义的连续转移函数。
δ规则是由输出值与期望值的最小平方误差条件推导出的。
⑷.LMS 学习规则:最小均放规则。
它是δ学习规则的一个特殊情况。
学习规则与神经元采用的转移函数无关的有师学习。
学习速度较快精度较高。
⑸.Correlation 学习规则:相关学习规则,他是Hebb 学习规则的一种特殊情况,但是相关学习规则是有师学习。
权值初始化为0。
⑹.Winner-Take-All 学习规则:竞争学习规则用于有师学习中定义的连续转移函数。
权值初始化为任意值并进行归一处理。
⑺.Outstar 学习规则:只适用于有师学习中定义的连续转移函数。
权值初始化为0。
2.试推导三层前馈网络BP 算法权值修改公式,并用BP 算法学习如下函数:21212221213532)(x x x x x x x x f -+-+=,其中:551≤≤-x ,552≤≤-x 。
基本步骤如下:(1)在输入空间]5,5[1-∈x 、]5,5[2-∈x 上按照均匀分布选取N 个点(自行定义),计算)(21x x f ,的实际值,并由此组成网络的样本集;(2)构造多层前向网络结构,用BP 算法和样本集训练网络,使网络误差小于某个很小的正数ε;(3)在输入空间上随机选取M 个点(N M >,最好为非样本点),用学习后的网络计算这些点的实际输出值,并与这些点的理想输出值比较,绘制误差曲面;(4)说明不同的N 、ε值对网络学习效果的影响。
神经网络课程形成性考核作业
神经网络课程形成性考核作业1. 背景介绍神经网络是一种用于模拟人类大脑工作方式的计算模型。
近年来,神经网络在人工智能领域取得了显著的进展,并广泛应用于图像识别、自然语言处理、机器翻译等多个领域。
因此,在研究神经网络课程的过程中,我们需要深入理解神经网络的原理、应用及其在实际问题中的应用。
为了评估学生对神经网络课程的掌握程度,形成性考核作业是必不可少的一环。
通过完成形成性考核作业,学生既可以加深对神经网络的理解,也可以锻炼自己的编程能力和解决问题的能力。
2. 形成性考核作业要求为了确保学生对神经网络的理解程度以及代码实现能力,形成性考核作业将包括以下几个要求:2.1 神经网络原理的解释学生需要写一篇关于神经网络原理的解释文章。
这篇文章应该包括神经网络的基本结构、工作原理和常用算法。
学生需要用自己的语言解释这些概念,并结合实例进行说明。
文章长度至少为500字以上。
2.2 神经网络的编程实现学生需要使用Python或其他编程语言,实现一个简单的神经网络模型。
该模型应该具备基本的前向传播和反向传播功能,并能够在给定的样本数据上进行训练和预测。
学生需要提交完整的代码,并对代码进行简要的注释和说明。
2.3 神经网络应用案例分析学生需要选择一个实际应用场景,如图像识别、情感分析等,采用神经网络方法进行分析和实现。
学生需要解释在该应用场景下神经网络的优势和限制,并给出自己的思考和改进建议。
分析报告的要求为至少300字以上。
3. 提交要求- 神经网络编程实现的Python代码文件4. 评分标准形成性考核作业将根据以下几个方面进行评分:- 神经网络原理解释的清晰度和准确性- 神经网络编程实现的正确性和实用性- 神经网络应用案例分析的深度和思考度各个方面的得分将综合计算出最终的评分。
5. 时间安排- 作业发布:2021年5月1日- 截止日期:2021年5月15日6. 总结通过完成神经网络课程的形成性考核作业,学生可以深入理解神经网络的原理和应用,并提高自己的编程能力和解决问题的能力。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
作业(神经网络)1. Matlab BP网络练习/wiki/Iris_flower_data_set将Iris数据集分为2组,每组各75个样本,每组中每种花各有25个样本。
其中一组作为以上程序的训练样本,另外一组作为检验样本(每种花选取5个作为测试)。
为了方便训练,将3类花分别编号为1,2,3 。
使用这些数据训练一个4输入(分别对应4个特征),3输出(分别对应该样本属于某一品种的可能性大小)的前向网络。
数据如下:Iris flower data setFrom Wikipedia, the free encyclopediaSpectramap biplot of Fisher's iris data setFisher's Iris DataSepal length Sepal width Petal length Petal width Species5.1 3.5 1.4 0.2 I. setosa4.9 3.0 1.4 0.2 I. setosa4.7 3.2 1.3 0.2 I. setosa4.6 3.1 1.5 0.2 I. setosa5.0 3.6 1.4 0.2 I. setosa5.4 3.9 1.7 0.4 I. setosa4.6 3.4 1.4 0.3 I. setosa5.0 3.4 1.5 0.2 I. setosaFisher's Iris DataSepal length Sepal width Petal length Petal width Species 4.4 2.9 1.4 0.2 I. setosa4.9 3.1 1.5 0.1 I. setosa5.4 3.7 1.5 0.2 I. setosa 4.8 3.4 1.6 0.2 I. setosa 4.8 3.0 1.4 0.1 I. setosa4.3 3.0 1.1 0.1 I. setosa5.8 4.0 1.2 0.2 I. setosa 5.7 4.4 1.5 0.4 I. setosa 5.4 3.9 1.3 0.4 I. setosa 5.1 3.5 1.4 0.3 I. setosa 5.7 3.8 1.7 0.3 I. setosa 5.1 3.8 1.5 0.3 I. setosa 5.4 3.4 1.7 0.2 I. setosa 5.1 3.7 1.5 0.4 I. setosa 4.6 3.6 1.0 0.2 I. setosaFisher's Iris DataSepal length Sepal width Petal length Petal width Species 5.1 3.3 1.7 0.5 I. setosa4.8 3.4 1.9 0.2 I. setosa5.0 3.0 1.6 0.2 I. setosa 5.0 3.4 1.6 0.4 I. setosa 5.2 3.5 1.5 0.2 I. setosa 5.2 3.4 1.4 0.2 I. setosa 4.7 3.2 1.6 0.2 I. setosa4.8 3.1 1.6 0.2 I. setosa5.4 3.4 1.5 0.4 I. setosa 5.2 4.1 1.5 0.1 I. setosa 5.5 4.2 1.4 0.2 I. setosa4.9 3.1 1.5 0.2 I. setosa5.0 3.2 1.2 0.2 I. setosa 5.5 3.5 1.3 0.2 I. setosa 4.9 3.6 1.4 0.1 I. setosaFisher's Iris DataSepal length Sepal width Petal length Petal width Species4.4 3.0 1.3 0.2 I. setosa5.1 3.4 1.5 0.2 I. setosa5.0 3.5 1.3 0.3 I. setosa4.5 2.3 1.3 0.3 I. setosa4.4 3.2 1.3 0.2 I. setosa5.0 3.5 1.6 0.6 I. setosa5.1 3.8 1.9 0.4 I. setosa4.8 3.0 1.4 0.3 I. setosa5.1 3.8 1.6 0.2 I. setosa4.6 3.2 1.4 0.2 I. setosa5.3 3.7 1.5 0.2 I. setosa5.0 3.3 1.4 0.2 I. setosa7.0 3.2 4.7 1.4 I. versicolor 6.4 3.2 4.5 1.5 I. versicolor 6.9 3.1 4.9 1.5 I. versicolorFisher's Iris DataSepal length Sepal width Petal length Petal width Species5.5 2.3 4.0 1.3 I. versicolor6.5 2.8 4.6 1.5 I. versicolor5.7 2.8 4.5 1.3 I. versicolor6.3 3.3 4.7 1.6 I. versicolor 4.9 2.4 3.3 1.0 I. versicolor 6.6 2.9 4.6 1.3 I. versicolor 5.2 2.7 3.9 1.4 I. versicolor 5.0 2.0 3.5 1.0 I. versicolor5.9 3.0 4.2 1.5 I. versicolor6.0 2.2 4.0 1.0 I. versicolor 6.1 2.9 4.7 1.4 I. versicolor5.6 2.9 3.6 1.3 I. versicolor6.7 3.1 4.4 1.4 I. versicolor 5.6 3.0 4.5 1.5 I. versicolor 5.8 2.7 4.1 1.0 I. versicolorFisher's Iris DataSepal length Sepal width Petal length Petal width Species 6.2 2.2 4.5 1.5 I. versicolor 5.6 2.5 3.9 1.1 I. versicolor5.9 3.2 4.8 1.8 I. versicolor6.1 2.8 4.0 1.3 I. versicolor 6.3 2.5 4.9 1.5 I. versicolor 6.1 2.8 4.7 1.2 I. versicolor 6.4 2.9 4.3 1.3 I. versicolor 6.6 3.0 4.4 1.4 I. versicolor 6.8 2.8 4.8 1.4 I. versicolor 6.7 3.0 5.0 1.7 I. versicolor 6.0 2.9 4.5 1.5 I. versicolor 5.7 2.6 3.5 1.0 I. versicolor 5.5 2.4 3.8 1.1 I. versicolor 5.5 2.4 3.7 1.0 I. versicolor 5.8 2.7 3.9 1.2 I. versicolorFisher's Iris DataSepal length Sepal width Petal length Petal width Species 6.0 2.7 5.1 1.6 I. versicolor5.4 3.0 4.5 1.5 I. versicolor6.0 3.4 4.5 1.6 I. versicolor 6.7 3.1 4.7 1.5 I. versicolor 6.3 2.3 4.4 1.3 I. versicolor 5.6 3.0 4.1 1.3 I. versicolor 5.5 2.5 4.0 1.3 I. versicolor5.5 2.6 4.4 1.2 I. versicolor6.1 3.0 4.6 1.4 I. versicolor 5.8 2.6 4.0 1.2 I. versicolor 5.0 2.3 3.3 1.0 I. versicolor 5.6 2.7 4.2 1.3 I. versicolor 5.7 3.0 4.2 1.2 I. versicolor5.7 2.9 4.2 1.3 I. versicolor6.2 2.9 4.3 1.3 I. versicolorFisher's Iris DataSepal length Sepal width Petal length Petal width Species 5.1 2.5 3.0 1.1 I. versicolor5.7 2.8 4.1 1.3 I. versicolor6.3 3.3 6.0 2.5 I. virginica 5.8 2.7 5.1 1.9 I. virginica7.1 3.0 5.9 2.1 I. virginica 6.3 2.9 5.6 1.8 I. virginica6.5 3.0 5.8 2.2 I. virginica7.6 3.0 6.6 2.1 I. virginica 4.9 2.5 4.5 1.7 I. virginica 7.3 2.9 6.3 1.8 I. virginica6.7 2.5 5.8 1.8 I. virginica7.2 3.6 6.1 2.5 I. virginica 6.5 3.2 5.1 2.0 I. virginica 6.4 2.7 5.3 1.9 I. virginica 6.8 3.0 5.5 2.1 I. virginicaFisher's Iris DataSepal length Sepal width Petal length Petal width Species 5.7 2.5 5.0 2.0 I. virginica5.8 2.8 5.1 2.4 I. virginica6.4 3.2 5.3 2.3 I. virginica6.5 3.0 5.5 1.8 I. virginica7.7 3.8 6.7 2.2 I. virginica 7.7 2.6 6.9 2.3 I. virginica 6.0 2.2 5.0 1.5 I. virginica 6.9 3.2 5.7 2.3 I. virginica 5.6 2.8 4.9 2.0 I. virginica 7.7 2.8 6.7 2.0 I. virginica 6.3 2.7 4.9 1.8 I. virginica6.7 3.3 5.7 2.1 I. virginica7.2 3.2 6.0 1.8 I. virginica 6.2 2.8 4.8 1.8 I. virginica 6.1 3.0 4.9 1.8 I. virginicaFisher's Iris DataSepal length Sepal width Petal length Petal width Species6.4 2.8 5.6 2.1 I. virginica7.2 3.0 5.8 1.6 I. virginica 7.4 2.8 6.1 1.9 I. virginica 7.9 3.8 6.4 2.0 I. virginica 6.4 2.8 5.6 2.2 I. virginica 6.3 2.8 5.1 1.5 I. virginica6.1 2.6 5.6 1.4 I. virginica7.7 3.0 6.1 2.3 I. virginica 6.3 3.4 5.6 2.4 I. virginica 6.4 3.1 5.5 1.8 I. virginica 6.0 3.0 4.8 1.8 I. virginica 6.9 3.1 5.4 2.1 I. virginica 6.7 3.1 5.6 2.4 I. virginica 6.9 3.1 5.1 2.3 I. virginica 5.8 2.7 5.1 1.9 I. virginicaFisher's Iris DataSepal length Sepal width Petal length Petal width Species6.8 3.2 5.9 2.3 I. virginica6.7 3.3 5.7 2.5 I. virginica6.7 3.0 5.2 2.3 I. virginica6.3 2.5 5.0 1.9 I. virginica6.5 3.0 5.2 2.0 I. virginica6.2 3.4 5.4 2.3 I. virginica5.9 3.0 5.1 1.8 I. virginica2.BP网络的应用:函数逼近试设计神经网络来实现下面这对数组的函数关系:P=-1:0.1:1; %----------------------------- 输入向量----------T=[-0.96 -0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 ..0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201];。