人工神经网络作业

合集下载

人工神经网络方法

人工神经网络方法

人工神经网络方法人工神经网络是一种类似于生物神经系统的计算模型,它由多个节点(神经元)和连接这些节点之间的权重组成。

这些节点和连接可以模拟人类大脑的工作原理,从而实现复杂的计算任务。

以下是人工神经网络常用的几种方法:1.前馈神经网络(Feedforward neural network)前馈神经网络是最常用的神经网络类型之一,它的数据流仅向前流动,没有回流。

该网络由多个层组成,其中输入层接受数据,输出层产生输出,中间层包含多个带有权重的神经元。

每个神经元的输出都可以通过权重连接到下一层神经元的输入。

通过调整权重,前馈神经网络可以进行监督学习,用于分类或回归问题。

2.循环神经网络(Recurrent neural network)循环神经网络是一种形式化的神经网络,它可以对序列数据进行处理,如语音识别、自然语言处理等。

循环神经网络的节点之间可以相互连接,形成一个循环,输入数据会在整个网络中进行传递和加工,输出也会受到之前状态的影响。

循环神经网络还可以使用长短时记忆(LSTM)单元或门控循环单元(GRU)单元来处理长序列数据。

3.卷积神经网络(Convolutional neural network)卷积神经网络是一种针对图像识别和视觉处理任务的神经网络。

它由多个卷积层、池化层和全连接层组成。

在输入层之后的每一层都是由若干个卷积核组成的,并对输入数据进行卷积处理。

卷积操作可以有效地提取图像特征,池化层可以对输出信号进行降采样处理。

通过卷积和池化操作,卷积神经网络可以自动学习特征,并具有很高的图像识别准确率。

4.自编码器(Autoencoder)自编码器是一种非监督学习方法,它可以有效地进行数据的压缩和重建。

自编码器通过输入数据,将其表示为低维的潜在表示,然后通过解码器将其转换回原始维度。

自编码器主要由编码器和解码器组成。

编码器将输入数据转换成低维度的潜在表示,解码器将潜在表示转换成原始数据。

在训练过程中,自编码器可以调整权重和偏置,以最小化重建误差。

人工神经网络原理第8章习题参考答案

人工神经网络原理第8章习题参考答案

1.人工神经网络适合于解决哪些问题?试举例说明。

人工神经网络技术在处理对内部规律不甚了解,也不能用一组规则和方程等数学表达式描述的较为复杂的问题时具有一定的优越性,尤其对容错性有一定要求的任务,例如图形的检测与识别、诊断、特征提取、推论等,人工神经网络都是比较合适的处理手段,对于上述任务,即使输入数据是模糊的或不完善的,人工神经网络仍然能够对其进行处理。

示例略。

2.一个人工神经网络应用的开发要经过哪些阶段?明确需求、选取模型、设计神经网络节点、设计神经网络结构、设计神经网络训练算法、选择训练和测试样本、网络训练与测试、实现神经网络。

3.若要用神经网络实现对0~9十个数字字符的识别,应当如何选取适当的人工神经网络模型?参见表8-1,可以选择BP、Hopfield等神经网络模型。

4.若要实现一个简单的交通标志识别系统,应当如何选取适当的人工神经网络模型?参见表8-1,可以选择BP、Hopfield等神经网络模型。

5.若有一个私人医生,每天可接受10个预约病人的上门服务。

若要为该医生设计一条当天的巡诊路线,以使该医生的巡诊距离最短,应当如何选取适当的人工神经网络模型?这是一个优化问题,可以选择Hopfield神经网络。

6.试述对习题2、3、4中选取的人工神经网络模型进行设计开发的全过程。

略。

7.有如下几种模型,其特性如表8-4所示。

表8-4 人工神经网络模型的基本性能若要开发一个贷款评估人工神经网络,要求能够根据借贷申请人的月收入、生活费用支出、房租、水、电、交通费用支出及其他费用支出来实时地分析这一贷款申请是否合格。

如合格,则批准申请给予贷款,否则给予拒绝。

请从表8-4列出的人工神经网络模型中选择一个适合该贷款评估应用的模型,并阐明原因。

可根据输出类型(例如,此题是一个分类问题,而不是优化问题)、训练方法、要求的训练时间和执行时间等选取各项指标都符合具体需求的模型。

此题只是一个示例,让读者掌握如何选取适当的人工神经网络模型,具体选取过程略。

智能控制(神经网络)-作业

智能控制(神经网络)-作业

智能控制作业学生姓名: 学号: 专业班级:(一)7-2 采用BP网路、RBF网路、DRNN网路逼近线性对象, 分别进行matlab 仿真。

(二)采用BP网络仿真网络结构为2-6-1。

采样时间1ms, 输入信号, 权值的初值随机取值, 。

仿真m文件程序为:%BP simulationclear all;clear all;xite=0.5;alfa=0.5;w1=rands(2,6); % value of w1,initially by randomw1_1=w1;w1_2=w1;w2=rands(6,1); % value of w2,initially by randomw2_1=w2;w2_2=w2_1;dw1=0*w1;x=[0,0]';u_1=0;y_1=0;I=[0,0,0,0,0,0]'; % input of yinhanceng cellIout=[0,0,0,0,0,0]'; % output of yinhanceng cellFI=[0,0,0,0,0,0]';ts=0.001;for k=1:1:1000time(k)=k*ts;u(k)=0.5*sin(3*2*pi*k*ts);y(k)=(u_1-0.9*y_1)/(1+y_1^2);for j=1:1:6I(j)=x'*w1(:,j);Iout(j)=1/(1+exp(-I(j)));endyn(k)=w2'*Iout; %output of networke(k)=y(k)-yn(k); % error calculationw2=w2_1+(xite*e(k))*Iout+alfa*(w2_1-w2_2); % rectify of w2for j=1:1:6FI(j)=exp(-I(j))/(1+exp(-I(j))^2);endfor i=1:1:2for j=1:1:6dw1(i,j)=e(k)*xite*FI(j)*w2(j)*x(i); % dw1 calculation endendw1=w1_1+dw1+alfa*(w1_1-w1_2); % rectify of w1% jacobian informationyu=0;for j=1:1:6yu=yu+w2(j)*w1(1,j)*FI(j);enddyu(k)=yu;x(1)=u(k);x(2)=y(k);w1_2=w1_1;w1_1=w1;w2_2=w2_1;w2_1=w2;u_1=u(k);y_1=y(k);endfigure(1);plot(time,y,'r',time,yn,'b');xlabel('times');ylabel('y and yn');figure(2);plot(time,y-yn,'r');xlabel('times');ylabel('error');figure(3);plot(time,dyu);xlabel('times');ylabel('dyu');运行结果为:(三)采用RBF网络仿真网路结构为2-4-1, 采样时间1ms, 输入信号, 权值的初值随机取值, , 高斯基函数初值, 。

人工神经网络大作业

人工神经网络大作业

X X X X 大学研究生考查课作业课程名称:智能控制理论与技术研究生姓名:学号:作业成绩:任课教师(签名)交作业日时间:2010 年12 月22 日人工神经网络(artificial neural network,简称ANN)是在对大脑的生理研究的基础上,用模拟生物神经元的某些基本功能元件(即人工神经元),按各种不同的联结方式组成的一个网络。

模拟大脑的某些机制,实现某个方面的功能,可以用在模仿视觉、函数逼近、模式识别、分类和数据压缩等领域,是近年来人工智能计算的一个重要学科分支。

人工神经网络用相互联结的计算单元网络来描述体系。

输人与输出的关系由联结权重和计算单元来反映,每个计算单元综合加权输人,通过激活函数作用产生输出,主要的激活函数是Sigmoid函数。

ANN有中间单元的多层前向和反馈网络。

从一系列给定数据得到模型化结果是ANN的一个重要特点,而模型化是选择网络权重实现的,因此选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法就能得到包含学习训练样本范围的输人和输出的关系。

如果用于学习训练的样本不能充分反映体系的特性,用ANN也不能很好描述与预测体系。

显然,选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法是ANN的重要研究内容之一,而寻求应用合适的激活函数也是ANN研究发展的重要内容。

由于人工神经网络具有很强的非线性多变量数据的能力,已经在多组分非线性标定与预报中展现出诱人的前景。

人工神经网络在工程领域中的应用前景越来越宽广。

1人工神经网络基本理论[1]1. 1神经生物学基础可以简略地认为生物神经系统是以神经元为信号处理单元, 通过广泛的突触联系形成的信息处理集团, 其物质结构基础和功能单元是脑神经细胞即神经元(neu ron)。

(1) 神经元具有信号的输入、整合、输出三种主要功能作用行为。

突触是整个神经系统各单元间信号传递驿站, 它构成各神经元之间广泛的联接。

(3) 大脑皮质的神经元联接模式是生物体的遗传性与突触联接强度可塑性相互作用的产物, 其变化是先天遗传信息确定的总框架下有限的自组织过程。

人工神经网络例题

人工神经网络例题

1、什么是BP 网络的泛化能力?如何保证BP 网络具有较好的泛化能力?(5分)解:(1)BP网络训练后将所提取的样本对中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。

这种能力称为多层感知器的泛化能力,它是衡量多层感知器性能优劣的一个重要方面。

(2)网络的性能好坏主要看其是否具有很好的泛化能力,而对泛化能力的测试不能用训练集的数据进行,要用训练集以外的测试数据来进行检验。

在隐节点数一定的情况下,为获得更好的泛化能力,存在着一个最佳训练次数t0,训练时将训练与测试交替进行,每训练一次记录一训练均方误差,然后保持网络权值不变,用测试数据正向运行网络,记录测试均方误差,利用两种误差数据得出两条均方误差随训练次数变化的曲线,测试、训练数据均方误差曲线如下图1所示。

训练次数t0称为最佳训练次数,当超过这个训练次数后,训练误差次数减小而测试误差则开始上升,在此之前停止训练称为训练不足,在此之后称为训练过度。

图1. 测试、训练数据均方误差曲线2、什么是LVQ 网络?它与SOM 网络有什么区别和联系?(10 分)解:(1)学习向量量化(learning vector quantization,LVQ)网络是在竞争网络结构的基础上提出的,LVQ将竞争学习思想和监督学习算法相结合,减少计算量和储存量,其特点是网络的输出层采用监督学习算法而隐层采用竞争学习策略,结构是由输入层、竞争层、输出层组成。

(2)在LVQ网络学习过程中通过教师信号对输入样本的分配类别进行规定,从而克服了自组织网络采用无监督学习算法带来的缺乏分类信息的弱点。

自组织映射可以起到聚类的作用,但还不能直接分类和识别,因此这只是自适应解决模式分类问题中的第一步,第二步是学习向量量化,采用有监督方法,在训练中加入教师信号作为分类信息对权值进行细调,并对输出神经元预先指定其类别。

大工22夏《神经网络》大作业

大工22夏《神经网络》大作业

大工22夏《神经网络》大作业
1. 项目介绍
本次《神经网络》大作业旨在让同学们深入理解神经网络的工作原理,并能够独立实现一个简单的神经网络模型。

通过完成本次作业,同学们将掌握神经网络的基本结构,训练过程以及参数优化方法。

2. 任务要求
1. 独立实现一个具有至少三层神经网络的结构,包括输入层、隐藏层和输出层。

2. 选择一个合适的激活函数,并实现其对应的激活和导数计算方法。

3. 实现神经网络的正向传播和反向传播过程,包括权重更新和偏置更新。

4. 在一个简单的数据集上进行训练,评估并优化所实现的神经网络模型。

3. 评分标准
1. 神经网络结构实现(30分)
2. 激活函数实现(20分)
3. 正向传播和反向传播实现(20分)
4. 模型训练与评估(20分)
5. 代码规范与文档说明(10分)
4. 提交要求
1. 提交代码文件,包括神经网络结构、激活函数、正向传播、反向传播以及训练与评估的实现。

2. 提交一份项目报告,包括项目简介、实现思路、实验结果及分析。

3. 请在提交前确保代码的可运行性,并在报告中附上运行结果截图。

5. 参考资料
1. Goodfellow, I. J., Bengio, Y., & Courville, A. C. (2016). Deep learning. MIT press.
2. Russell, S., & Norvig, P. (2016). Artificial intelligence: a modern approach. Pearson Education Limited.
祝大家作业顺利!。

人工神经网络单选练习题

人工神经网络单选练习题

人工神经网络单选练习题一、基本概念1. 下列关于人工神经网络的描述,正确的是:A. 人工神经网络是一种静态的计算模型B. 人工神经网络可以模拟人脑的神经元连接方式C. 人工神经网络只能处理线性问题D. 人工神经网络的学习过程是监督式的2. 下列哪种算法不属于人工神经网络?A. 感知机算法B. 支持向量机算法C. BP算法D. Hopfield网络3. 人工神经网络的基本组成单元是:A. 神经元B. 节点C. 权重D. 阈值二、前向传播与反向传播4. 在前向传播过程中,下列哪个参数是固定的?A. 输入值B. 权重C. 阈值D. 输出值5. 反向传播算法的主要目的是:A. 更新输入值B. 更新权重和阈值C. 计算输出值D. 初始化网络参数6. 下列关于BP算法的描述,错误的是:A. BP算法是一种监督学习算法B. BP算法可以用于多层前馈神经网络C. BP算法的目标是最小化输出误差D. BP算法只能用于解决分类问题三、激活函数7. 下列哪种激活函数是非线性的?A. 步进函数B. Sigmoid函数C. 线性函数D. 常数函数8. ReLU激活函数的优点不包括:A. 计算简单B. 避免梯度消失C. 提高训练速度D. 减少过拟合9. 下列哪种激活函数会出现梯度饱和现象?A. Sigmoid函数B. ReLU函数C. Tanh函数D. Leaky ReLU函数四、网络结构与优化10. 关于深层神经网络,下列描述正确的是:A. 深层神经网络一定比浅层神经网络效果好B. 深层神经网络更容易过拟合C. 深层神经网络可以减少参数数量D. 深层神经网络训练速度更快11. 下列哪种方法可以降低神经网络的过拟合?A. 增加训练数据B. 减少网络层数C. 增加网络参数D. 使用固定的学习率12. 关于卷积神经网络(CNN),下列描述错误的是:A. CNN具有局部感知能力B. CNN具有参数共享特点C. CNN可以用于图像识别D. CNN无法处理序列数据五、应用场景13. 下列哪种问题不适合使用人工神经网络解决?A. 图像识别B. 自然语言处理C. 股票预测D. 线性规划14. 下列哪个领域不属于人工神经网络的应用范畴?A. 医学诊断B. 金融预测C. 智能家居D. 数值计算15. 关于循环神经网络(RNN),下列描述正确的是:A. RNN无法处理长距离依赖问题B. RNN具有短期记忆能力C. RNN训练过程中容易出现梯度消失D. RNN只能处理序列长度相同的数据六、训练技巧与正则化16. 下列哪种方法可以用来防止神经网络训练过程中的过拟合?A. 提前停止B. 增加更多神经元C. 减少训练数据D. 使用更大的学习率17. 关于Dropout正则化,下列描述错误的是:A. Dropout可以减少神经网络中的参数数量B. Dropout在训练过程中随机丢弃一些神经元C. Dropout可以提高模型的泛化能力D. Dropout在测试阶段不使用18. L1正则化和L2正则化的主要区别是:A. L1正则化倾向于产生稀疏解,L2正则化倾向于产生平滑解B. L1正则化比L2正则化更容易计算C. L2正则化可以防止过拟合,L1正则化不能D. L1正则化适用于大规模数据集,L2正则化适用于小规模数据集七、优化算法19. 关于梯度下降法,下列描述正确的是:A. 梯度下降法一定会找到全局最小值B. 梯度下降法在鞍点处无法继续优化C. 梯度下降法包括批量梯度下降、随机梯度下降和小批量梯度下降D. 梯度下降法的学习率在整个训练过程中保持不变20. 下列哪种优化算法可以自动调整学习率?A. 随机梯度下降(SGD)B. Adam优化算法C. Momentum优化算法D. 牛顿法21. 关于Adam优化算法,下列描述错误的是:A. Adam结合了Momentum和RMSprop算法的优点B. Adam算法可以自动调整学习率C. Adam算法对每个参数都使用相同的学习率D. Adam算法在训练初期可能会不稳定八、损失函数22. 在分类问题中,下列哪种损失函数适用于二分类问题?A. 均方误差(MSE)B. 交叉熵损失函数C. Hinge损失函数D. 对数损失函数23. 关于均方误差(MSE)损失函数,下列描述错误的是:A. MSE适用于回归问题B. MSE对异常值敏感C. MSE的输出范围是[0, +∞)D. MSE损失函数的梯度在接近最小值时趋近于024. 下列哪种损失函数适用于多分类问题?A. 交叉熵损失函数B. Hinge损失函数C. 对数损失函数D. 均方误差(MSE)九、模型评估与超参数调优25. 下列哪种方法可以用来评估神经网络的性能?A. 训练误差B. 测试误差C. 学习率D. 隐层神经元数量26. 关于超参数,下列描述正确的是:A. 超参数是在模型训练过程中自动学习的B. 超参数的值通常由经验丰富的专家设定C. 超参数的调整对模型性能没有影响D. 超参数包括学习率、批量大小和损失函数27. 关于交叉验证,下列描述错误的是:A. 交叉验证可以减少过拟合的风险B. 交叉验证可以提高模型的泛化能力C. 交叉验证会降低模型的训练速度D. 交叉验证适用于小规模数据集十、发展趋势与挑战28. 下列哪种技术是近年来人工神经网络的一个重要发展方向?A. 深度学习B. 线性回归C. 决策树D. K最近邻29. 关于深度学习,下列描述错误的是:A. 深度学习需要大量标注数据B. 深度学习模型通常包含多层神经网络C. 深度学习可以处理复杂的非线性问题D. 深度学习不适用于小规模数据集30. 下列哪种现象是训练深度神经网络时可能遇到的挑战?A. 梯度消失B. 参数过多C. 数据不平衡D. 所有上述选项都是挑战答案一、基本概念1. B2. B二、前向传播与反向传播4. B5. B6. D三、激活函数7. B8. D9. A四、网络结构与优化10. B11. A12. D五、应用场景13. D14. D15. C六、训练技巧与正则化16. A17. A18. A七、优化算法19. C20. B八、损失函数22. B23. D24. A九、模型评估与超参数调优25. B26. B27. D十、发展趋势与挑战28. A29. D30. D。

人工智能与神经网络 第二次作业

人工智能与神经网络 第二次作业

2-1 状态空间法、问题归约法、谓词逻辑法和语义网络法的要点是什么?它们有何本质上的联系及异同点? 状态空间法:基于解答空间的问题表示和求解方法,它是以状态和算符为基础来表示和求解问题的。

问题归约法:从目标出发逆向推理,建立子问题以及子问题的子问题,直至最后把初始问题归约为一个平凡的本原问题集合。

这就是问题归约法的实质。

谓词逻辑法:允许表达那些无法用命题逻辑表达的事情,其目的在于把数学中的逻辑论证符号化。

语义网络法:语义网络是知识的一种结构化图解表示,它由节点和弧线或链线组成。

节点用于表示实体、概念和情况等,弧线用于表示节点间的关系。

联系及异同点:状态空间图需要扩展过多的节点,容易出现“组合爆炸”,因而只适用于表示比较简单的问题,它是正向推理,只能表示或的关系。

问题归约法能够比状态空间法更有效地表示问题,状态空间法是问题归约法的特例,是逆向推理,能表示与或关系。

谓词逻辑法是一种形式语言,能够把数学中的逻辑论证符号化,可以表示比较复杂的问题。

语义网络法可用于表示多元关系,扩展后可以表示更复杂的关系。

2-3 利用图2.3,用状态空间法规划一个最短的旅行路程:此旅程从城市A 开始,访问其他城市不多于一次,并返回A 。

选择一个状态表示,表示出所求得的状态空间的节点及弧线,标出适当的代价,并指明图中从起始节点到目标节点的最佳路径。

最佳路径:ACDEBA 或 ABEDCA 总代价:6+5+6+10+7=34如下图所示 ,所有路径(其中红色所标出的为所要找的最佳路径)710 7 101396 6510BEDAC 图 2.32-4试说明怎样把一棵与或解树用来表达图2.28所示的电网络阻抗的计算。

单独的R、L或C可分别用R、jωL或1/jωC来计算,这个事实用作本原问题。

后继算符应以复合并联和串联阻抗的规则为基础。

图 2.28约定,用原来的与后继算法用来表达并联关系,用原来的或后继算法用来表达串联关系2-6 把下列句子变换成子句形式:(1) (∀x){P(x)→P(x)}(2) ∀x∀y(On(x,y)→Above(x,y))(3) ∀x∀y∀z(Above(x,y)∧Above(y,z)→Above(x,z))(4) ~{(∀x){P(x)→{(∀y)[p(y)→p(f(x,y))]∧(∀y)[Q(x,y)→P(y)]}}}(1)(ANY x) { P(x)→P(x) } (ANY x) {~P(x) OR P(x)} ~P(x) OR P(x)最后子句为:~P(x) OR P(x)(2) (ANY x) (ANY y) { On(x,y)→Above(x,y) } (ANY x) (ANY y) { ~On(x,y) OR Above(x,y) }~On(x,y) OR Above(x,y)最后子句为:~On(x,y) OR Above(x,y)(3) (ANY x) (ANY y) (ANY z) { Above(x,y) AND Above(y,z) → Above(x,z) }(命题联结词之优先级如下:否定→合取→析取→蕴涵→等价)(ANY x) (ANY y) (ANY z) { ~ [ Above(x,y) AND Above(y,z) ] OR Above (x,z) }~ [ Above(x,y) AND Above(y,z) ] OR Above (x,z)最后子句为:~[Above(x,y), Above(y,z)] OR Above(x,z)(4) ~{ (ANY x) { P(x)→ { (ANY y) [ p(y)→p(f(x,y)) ] AND (ANY y) [ Q(x,y) → P(y) ] } } }~ { (ANY x) { ~P(x) OR { (ANY y) [ ~p(y) OR p(f(x,y)) ] AND (ANY y) [ ~Q(x,y) OR P(y) ] } } }(EXT x) { P(x) AND { (EXT x) [ p(y) AND ~p(f(x,y)) ] OR (EXT y) [ Q(x,y) AND ~P(y) ] } }(EXT x) { P(x) AND { (EXT w) [ p(y) AND ~p(f(w,y)) ] OR (EXT v) [ Q(x,v) AND ~P(v) ] } }P(A) AND { [ p(y) AND ~p(f(B,y)) ] OR [ Q(A,C) AND ~P(C) ] }P(A) AND { [ p(y) AND ~p(f(B,y)) OR Q(A,C) ] AND [ p(y) AND ~p(f(B,y)) OR ~P(C) ] }P(A) AND { { p(y), ~p(f(B,y)) } OR Q(A,C) } AND { { p(y), ~p(f(B,y)) } OR ~P(C) }最后子句为:P(A){ p(x), ~p(f(B,x)) } OR Q(A,C){ p(y), ~p(f(B,y)) } OR ~P(C)2-7 用谓词演算公式表示下列英文句子(多用而不是省用不同谓词和项。

人工智能概论习题答案第3章 人工神经网络作业 20210307

人工智能概论习题答案第3章 人工神经网络作业 20210307

一、单项选择题1.人工神经网络是人工智能的三大流派思想中哪个流派的基础。

(B)A.符号主义B.连接主义(或称为仿生学派)C.行为主义D.逻辑推理主义2.以下关于感知器的说法错误的是(A)。

A.单层感知器可以解决异或问题B.感知器分类的原理是就是通过调整权重使两类不同的样本经过感知机模型后的输出不同C.单层感知器只能针对线性可分的数据集分类D.学习率可以控制每次权值调整力度3.人工神经网络的层数增加会出现梯度消失现象,其本质原因是(C)。

A.各层误差梯度相加导致B.各层误差梯度相减导致C.各层误差梯度相乘导致D.误差趋于饱和4.卷积层的主要作用是(A)A.提取图像特征B.降低输入维度C.解决梯度消失和梯度爆炸问题D.进行某种非线性变换二、多项选择题1.知识可以从以下哪几个维度来进行分类(AC)。

A.是否可统计B.是否可计算C.是否可推理D.是否可被人理解2.人工神经网络由许多神经元构成,M-P模型的主要特征包括(ABD)。

A.多输入单输出B.对输入加权求和C.具有树突和轴突D.具有激活函数3.卷积神经网络的结构主要包括(ABCD)。

A.卷积层B.池化层C.全连接层D.输入层三、判断题1.人工神经网络的层数是固定的,每层的神经元个数是不固定的(错)2.BP神经网络的误差是从前往后传播的(错)3.卷积神经网络的层数一般超过三层(对)四、简答题1.感知机是如何实现从数据中学习的?答:通过训练数据得到误差,再根据误差来调整权值,让再次计算训练数据得到的误差减小,最终达到无误差。

这时候得到的权值就称为学习到关于这些数据的知识。

2.什么是梯度,什么是梯度的方向?答:梯度就是把多元函数关于各个变量的偏导数放在一起构成的向量(也称为矢量)。

梯度方向表示当函数的各个变量都按照各自偏导数的比例进行增加时,各个增加量合起来构成的方向,是函数值变化最快的方向。

3.有A类物体和B类物体,均有两个类似的特征值。

以下有三个属于A类的样本,每个样本的特征值分别为[0.1, 1],[0.2, 0.7],[0.4, 0.8],样本标签用1表示;有三个属于B类的样本,其特征值分别为[0.8, 0.3],[0.9, 0.2],[1.0, 0.5],样本标签用0表示。

人工神经网络作业

人工神经网络作业

人工神经网络在材料领域的应用引言长期以来,对材料研究采用的是依赖大量试验并进行大面积筛选的方法。

这需要消耗大量人力和物理资源及时间。

由于大量尚未理论化的经验和试验规律的存在,在相当一段时间内还不可以完全脱离经验和试验来进行研究。

于是,人们将目光转向理论付诸的材料研究。

将先进的计算机技术应用于现代材料研究中,通过较少的实验获得较为理想的材料,达到事半功倍的效果。

材料设计的自由度大,影响因素多,利用传统的数学建模方法来研究结构。

工艺与性能之间的关系,存在许多困难,而且简化求解问题的数学和力学模型,往往是模型本身存在较大的局限性,难以满足工程技术的需求,人工神经网络的发展,为材料的研究提供了新的有效途径[1]。

人工神经网络(Artifical Neural Networks)是用来模拟人脑结构及智能特点的一个国际前沿研究领域,它具有独特的大规模并行分布处理及学习联想能力,力图模拟生物神经系统。

与其他传统模型相比,它具有以下独特的优点:较强的非线性问题处理能力;对噪声和不完整信息具有低敏感性,抗噪声能力好;在运行过程中依动态数据库对周围环境具有自适应能力而自我调整、完善、发展使误差达到最小,以提高运行精度;能很好的完成多变量模式识别;能对过程实现在线响应,在系统中可以在线使用。

由于他们的综合特点和人类的智能相似,故具有大规模并行、分布式存贮和处理、自组织、自适应的学习能力,适用于处理需要同时考虑许多因素和条件的不精确和模糊的信息问题,可以解决专家系统和统计分析方法不易解决的问题[2]。

正是因为具有上述优点,人工神经网络在信号处理、模式识别、目标跟踪、机器人控制、专家系统、组合优化、网络管理等众多领域的应用中获得了引人注目的成果。

人工神经网络是一门高度综合的交叉学科,已在生物、微电子、数学、物理、化学化工和材料等学科中得到了广泛的应用。

在材料科学与工程领域中,人工神经网络在处理材料科学的许多问题中发挥了巨大作用,已普遍用于材料设计与成分优化、材料的智能加工与控制、材料加工工艺的优化、材料相变规律的研究与相变点的预测、材料性能及缺陷预测等方面,涉及高分子,金属、合金和无机非金属等多种材料,并取得了良好效果[3]。

人工神经网络设计作业

人工神经网络设计作业

人工神经网络设计作业一、利用感知机神经网络完成真值表中的操作设有一个M-P模型神经元有两个输入P1和P2,其输出为a,让其完成下列的真值表功能:1、具体的程序及其说明如下:clcP=[0 0 1 1;0 1 0 1];T=[0 1 1 1];%提供两组输入一组输出的训练集C=[-2 3 -2 3];%设置坐标轴的范围plotpv(P,T,C)%绘制样本点的坐标pause;[R,Q]=size(P);%R个输入[S,Q]=size(T);%S个输出[W,B]=rands(S,R);%随机获得权值plotpc(W,B)%绘制出初始的决策线pause;A=hardlim(netsum(W*P,B));%计算感知器神经元的输出E=T-A;SSE=sumsqr(E);%计算初始决策线的误差for epoch=1:100if(SSE==0)%若误差为零,画出决策线,并停止训练plot(W,B,'r-')disp('训练成功');breakend[dW,dB]=learnp(P,A,T)%感知器的学习W=W+dW;%修正权值B=B+dB;%调整偏差plotpc(W,B); %绘制决策线pause;a=epoch(1);hold onA=hardlim(netsum(W*P,B));%计算感知器神经元输出E=T-A;%计算误差SSE=sumsqr(E);endA %输出最后的训练结果a %输出训练次数2、具体的训练过程如图所示:样本点P(1)P (2)初始决策线P(1)P (2)训练中的决策线P(1)P (2)训练结束P(1)P (2)3、训练结果:训练结束后我们可知道A=[0 1 1 1],训练次数a=4次。

二、利用BP 网络逼近一个非线性函数1、函数选择为指数衰减函数2*2p te -=*,隐层采用对数正切S 型,输出层采用线性型,具体的程序及其说明如下:clcn=5;%隐层神经元的个数 lr=0.1;%学习率 mc=0.9;%动量因子 p=0:0.05:3; t=2*exp(-2.*p);[r,l]=size(p);%r 输入层的维数 [s,l]=size(t);%s 输出层的维数 w1=0.2*rand(n,r);%隐层的权值 deltaw1=zeros(n,r); B1=0.2*rand(n,1);%隐层的偏移量 deltaB1=zeros(n,1); w2=0.2*rand(s,n);%输出层权值 deltaw2=zeros(s,n);B2=0.2*rand(s,1);%输出层的偏移量 deltaB2=zeros(s,1); A1=tansig(w1*p,B1);A2=purelin(w2*A1,B2);plot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');axis([0 3 -1 2])title(['样本点和未经训练的曲线']);legend('样本点');pause;epoch=1;sse=1;for epoch=1:10000 %最大训练圈数为1000w1=w1+deltaw1;%权值及其偏移量的调整B1=B1+deltaB1;w2=w2+deltaw2;B2=B2+deltaB2;[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');E=t-A2;sse(epoch)=sumsqr(E);%计算误差if(sse(epoch)==0.001)%达到期望误差退出逼近breakendD2=deltalin(A2,E);D1=deltatan(A1,D2,w2);[deltaw2,deltaB2]=learnbpm(A1,D2,lr,mc,deltaw2,deltaB2); [deltaw1,deltaB1]=learnbpm(p,D1,lr,mc,deltaw1,deltaB1); if(sse(epoch)<=0.001)breakendend;epochplot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');title(['训练',num2str(epoch),'次后的曲线']);legend('样本点');axis([0 3 -1 2])pauseFF=1:epoch;plot(FF,sse(FF),'r-');xlabel('训练次数');ylabel('误差');title(['SSE误差曲线']);pause;%泛化能力测试[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');p=0:0.05:3;t=2*exp(-2.*p);%训练后逼近的曲线plot(p,A2,'-');xlabel('输入样本p');ylabel('输出样本t');legend('逼近的曲线'); axis([0 3 -1 3]) hold on ; pt=0:0.1:3;tt=2*exp(-2.*pt); plot(pt,tt,'ro'); title(['检验泛化能力']); axis([0 3 -1 3]) pause; hold off ; epoch %输出训练次数2、具体的逼近过程如下图形显示:0.511.522.53输入样本p输出样本t样本点和未经训练的曲线0.511.522.53输入样本p输出样本t训练113后的曲线由训练结果显示:完成很好的逼近功能,训练次数为113次,误差曲线如下图,我们可以看到误差是收敛的。

D人工神经网络复习习题

D人工神经网络复习习题
1、是一个多输入单输出的信息处理单元; 2、突触分兴奋性和抑制性两种类型; 3、神经元具有空间整合特性和阀值特性; 4、输入与输出间有固定的时滞,取决于突触延搁; 5、忽略时间整合作用和不应期; 6、神经元本身是非时变的,即其突触时延和突触强度均 为常数。
2.2.1 神经元的建摸 (2/6)
上述假定,可用图2.5中的神经元模型示意图进行图解表 示。
i 1

(2 .1 )
式中 τij —— 输入i输出j间的突触延时; Tj —— 神经元j的阈值; wij —— 神经元i到j的突触连接系数值; f( ) —— 神经元转移函数。
2.2.2 神经元的数学模型(2/6)
为简单起见,将上式中的突触延时取为单位时
间,则式(2.1)可写为
n
第3章 监督学习神经网络 §3.1 单层感知器
§ 3.1.1 感知器模型 § 3.1.2 单节点感知器的功能分析 § 3.1.3 感知器的学习算法 § 3.1.4 感知器的局限性及解决途径 §3.2 基于误差反传的多层感知器—BP神经网络 § 3.2.1 BP网络模型 § 3.2.2 BP学习算法 § 3.2.3 BP算法的程序实现 § 3.2.4 BP网络的主要能力 § 3.2.5 误差曲面与BP算法的局限性 §3.3 BP算法的改进 §3.4 BP网络设计基础 §3.5 BP网络应用与设计实例 本章小结
§1.2.1 启蒙时期 …低潮时期…复兴时期…高潮时期(新高潮)………
本章小结
第2章 神经网络基础知识 §2.1 人工神经网络的生物学基础 §2.2 人工神经元模型
§ 2.2.1 神经元的建摸 § 2.2.2 神经元的数学模型 § 2.2.3 神经元的转移函数 §2.3 人工神经网络模型 § 2.3.1 网络拓扑结构类型

神经网络作业

神经网络作业

机器学习,是人工智能的一个子领域,主要关注于开发一些蠩计算机可以自动“学习”的技术。

更堷体说,机器学习是一种用于创建数据順分析分析程序的方法。

机器学习跟统计学有着重要的关系,因为这两个领域都栯研究数据分析,但是又不像统计学,栺器学习关注的是计算实现的算法复杂堦。

很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容栓处理的近似算法。

机器学习已经有亠十分广泛的应用例如搜索引擎、诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音识别和手写识别识别、战略游戏和机器人运用。

第五讲机器学习机器学习就是计算机自动获取知识,它是知识工程的三个分支(使用知识、知识表示、获取知识)之一。

5.1 研究机器学习的必要性和可行性人工智能的概念和方法已经用于很多领域中,主要成果是专家系统、自然语言理解、计算机视觉和听觉、推理系统的研究。

当前人工智能研究的主要障碍和发展方向之一就是机器学习,这包括发展机器学习的计算理论和构造学习系统。

现在的人工智能系统还完全没有或仅有很有限的学习能力。

人工智能系统中的知识由人工编程送入系统,知识库中错误也不能自动改正。

也就是说,现有的AI系统是演绎推理而不是归纳推理,因而不能自动获取和生成知识。

人类有能力获取新知识、学习新技巧,并在实践中改进之。

如果一个人反复犯同样的错误,就不能说他是有智能的。

学习是智能的重要一环,人工智能的研究目标之一应该是理解学习的本质和建立学习系统。

人工智能解决的问题越来越复杂,系统中的知识越来越多,这些知识包括:领域专用的事实和规则,作为常识的启发式和约束,通用的概念和理论,把如此复杂的知识送入系统是复杂的、费时的、容易出错的和需要经验的。

例如:∙建立专家系统需要有关领域的专家和知识工程师的配合。

使用机器学习技术可以简化这一过程;∙计算机视觉中包含各种视觉专用变换、几何概念和对象的物理与功能描述。

把所有这些知识送入系统中是很困难的,系统应该可以由示教实例自动生成知识。

北航智能控制神经网络控制作业

北航智能控制神经网络控制作业

《智能控制及应用》—人工神经网络学号姓名指导老师2013-12-16目录一、设计题目 (3)二、任务解答 (3)2.1任务一解答 (3)2.1.1逻辑“与”的计算原理 (3)2.1.2感知器的学习算法 (4)2.1.3训练c++程序 (4)2.2任务二解答 (7)一、设计题目1、设计一个实现逻辑“与”的单计算层感知器,并写出其学习算法和程序。

2、紧密结合自己的专业背景、科研方向或解决问题的经历,说明人工神经网络在解决与你有关的某个工程技术问题上的应用概况。

要求:说明自己的科研或专业背景,所关注的工程技术问题,人工神经网络在该问题上的应用概况,指出采用神经网络法比传统方法的优势所在。

二、任务解答2.1任务一解答2.1.1逻辑“与”的计算原理实现逻辑“与”计算的真值表:由真值表可以看出,4个样本的输出分为两类,一类输出为0,另一类输出为1。

据此,画出逻辑“与”的运算分类图:由图可知,应用感知器学习规则进行训练得到的连接权值和阈值并不会单一,只需要保证输入输出满足真值表即可,利用符号函数对各点计算,符号函数为sgn:2.1.2感知器的学习算法感知器训练按如下步骤进行:(1)给定权初值w i (0)(较小的随机非零值,包括阈值w 0= -θ,阈值并入权W 中),学习次数k=0;(2)输入一个样本X p 和d p ,计算输出(f 为符号函数);(3)修正权 w i (k+1)= w i (k) +α(d p -y p ) x pi ,i=0,1,2,…,n ,学习率0<α<=1,用于控制修正速度;(4)选另外一组样本,k 增1,重复(2)~(4),直到w i (k+1)对一切样本均稳定不变(即dp=yp )为止。

2.1.3训练c++程序(Qt 下开发)#include <QCoreApplication> #include<QTextStream> #include<QTextCodec>double alpha=0.2; //学习率,用于控制学校速度 //根据输入得到函数输出值 int f(double w[],double x[]){ double y=0;for(int i=0;i<3;i++) y+=w[i]*x[i]; return y>=0?1:0; }//根据结果调整权值void revise(double x[],double w[],int yp,int dp){ for(int k=0;k<3;k++)w[k]+=alpha*(dp-yp)*x[k]; }int main(int argc, char *argv[]) {QCoreApplication a(argc, argv);QTextStream cout(stdout,QIODevice::WriteOnly); int i;double w[3]={0,1,1}; //阈值初试值,权值初始值 cout<<"**********************"<<endl; cout<<"**********************"<<endl;00()(1,01np i pi p p i y f w x x X ===∑设取的第个分量总为)cout<<"**********************"<<endl;cout<<"alpha="<<w[0]<<endl;cout<<"w:"<<endl;cout.setRealNumberPrecision(4);cout<<"w1="<<w[1]<<" w2="<<w[2]<<endl;cout<<"**********************"<<endl;cout<<"**********************"<<endl;double x1[3]={1,1,1}; //输入值double x2[3]={1,0,1};double x3[3]={1,1,0};double x4[3]={1,0,0};int dp[4]={1,0,0,0}; //期望输出值int yp[4]={0,0,0,0};cout<<"training....."<<endl;//周而复始的进行训练while(dp[0]!=yp[0]||dp[1]!=yp[1]||dp[2]!=yp[2]||dp[3]!=yp[3]) {yp[0]=f(w,x1);revise(x1,w,yp[0],dp[0]);yp[1]=f(w,x2);revise(x2,w,yp[1],dp[1]);yp[2]=f(w,x3);revise(x3,w,yp[2],dp[2]);yp[3]=f(w,x4);revise(x4,w,yp[3],dp[3]);}cout<<"result>>"<<endl;cout<<"**********************"<<endl;cout<<"alpha="<<w[0]<<endl;cout<<"w:"<<endl;cout.setRealNumberPrecision(4);cout<<"w1="<<w[1]<<" w2="<<w[2]<<endl;cout<<"**********************"<<endl;cout.setRealNumberPrecision(8);cout<<"--real--"<<"--hope--"<<endl;cout.setRealNumberPrecision(10);for(i=0;i<4;i++)cout<<yp[i]<<" "<<dp[i]<<endl;return a.exec();}输出结果如下图所示。

人工神经网络练习题

人工神经网络练习题

人工神经网络练习题
1. 什么是人工神经网络?
人工神经网络是一种模仿人类神经系统结构和功能的计算模型。

它由许多人工神经元组成,通过模拟神经元之间的相互连接和信息
传递来研究和处理数据。

2. 人工神经网络的优点是什么?
人工神经网络具有以下优点:
- 能够进行非线性建模,适用于处理复杂的非线性问题。

- 具有自适应研究能力,能够通过反馈机制不断优化性能。

- 对于模式识别、分类和预测等任务表现良好。

- 具有容错性,即使部分神经元损坏,网络仍然可以正常工作。

3. 人工神经网络的主要组成部分有哪些?
人工神经网络主要由以下组成部分构成:
- 输入层:接收外部输入数据。

- 隐藏层:进行数据处理和特征提取。

- 输出层:给出最终的结果。

- 权重:神经元之间的连接强度。

- 激活函数:用于处理神经元的输入和输出。

4. 请解释反向传播算法的工作原理。

反向传播算法是一种用于训练人工神经网络的方法。

它通过将
输入数据传递给网络,并比较输出结果与期望结果之间的差异,然
后根据差异调整网络中的权重和偏置值。

该过程从输出层开始,逐
渐向前传播误差,然后通过梯度下降法更新权重和偏置值,最终使
网络逼近期望输出。

5. 请列举几种常见的用途人工神经网络的应用。

人工神经网络可以应用于许多领域,包括但不限于:
- 机器研究和模式识别
- 金融市场预测
- 医学诊断和预测
- 自动驾驶汽车
- 语音和图像识别
以上是关于人工神经网络的练习题,希望对您的学习有所帮助。

人工智能习题作业神经计算I习题答案

人工智能习题作业神经计算I习题答案

人工智能习题作业神经计算I习题答案第五章神经网络课后习题及答案一、选择题:1. 在BP算法中,设y=f(xi)为xi的平滑函数,想知道xi对y增大变化的情况,我们可求,然后进行下列的哪一项?( B )A 取最小B 取最大C 取积分D 取平均值2. 对于反向传播学习,无论是在识别单个概念的学习或识别两个概念的学习中,都涉及到下列的哪一个操作?( A )A 权值的修正B 调整语义结构C 调整阀值D 重构人工神经元3. 根据Hopfield网络学习的特点,能实现联想记忆和执行线性和非线性规划等求解问题其应用没有涉及到下列的哪一个内容?( D )A 模糊推理模型B 非线性辨认C 自适应控制模型D 图象识别4. 对于神经网络的二级推理产生式规则由三个层次构成,它不含下列的哪一个层次?( C )A 输入层B 输出层C 中间层D 隐层5. 人工神经网络借用了生理神经元功能的一些描述方式,它涉及到下列的哪一些内容?( ABC )A 模拟神经元B 处理单元为节点C 加权有向图D 生理神经元连接而成6. 在应用和研究中采用的神经网络模型有许多种,下列的哪一些是具有代表性的?( ABD )A 反向传递(BP)B Hopfield网C 自适应共振D 双向联想存储器7. 下列的哪一些内容与反向传播学习算法有关?( ABCD )A 选取比率参数B 误差是否满足要求C 计算权值梯度D 权值学习修正8. 构造初始网络后,要用某种学习算法调整它的权值矩阵,使NN在功能上满足样例集给定的输入一输出对应关系,并由此产生推理,该矩阵必须满足下列的哪一个性质? ( A )A 收敛性B 对称性C 满秩性D 稀疏性9. 在人工神经元的功能描述中,往往会用一激发函数来表示输出,常用的一般非线性函数有下列的哪一些项? ( ABD )A 阀值型B 分段线性强饱和型C 离散型D S i gm oid型10. 基于神经网络的推理,其应用中必须涉及到下列的哪一些内容?( ACD )A NN的结构模型B NN的推理规则C NN的学习算法D 从NN到可解释的推理网二、填空题:1. 前馈网络是一种具有很强学习能力的系统,结构简单,易于编程。

神经网络作业总结范文

神经网络作业总结范文

一、前言随着人工智能技术的飞速发展,神经网络作为人工智能领域的重要技术之一,越来越受到广泛关注。

本次作业以吴恩达机器学习课程中的神经网络部分为基础,通过实际操作,对神经网络的理论知识和实践应用进行了深入学习和总结。

二、理论基础1. 神经网络结构神经网络主要由输入层、隐藏层和输出层组成。

输入层负责接收输入数据,隐藏层负责对输入数据进行特征提取和变换,输出层负责输出最终结果。

2. 激活函数激活函数是神经网络中的关键组成部分,它将线性组合的结果转换为非线性的输出。

常用的激活函数有Sigmoid、ReLU和Tanh等。

3. 权值和偏置权值和偏置是神经网络中重要的参数,它们决定了神经网络的输出。

在训练过程中,通过不断调整权值和偏置,使神经网络能够更好地拟合数据。

4. 前向传播和反向传播前向传播是指将输入数据经过神经网络各个层,最终得到输出结果的过程。

反向传播是指根据输出结果与真实值的误差,反向传播误差信号,并更新权值和偏置,使神经网络能够不断优化。

三、实践操作1. 数据准备本次作业以MNIST手写数字数据集为例,进行神经网络训练。

首先,需要将数据集划分为训练集、验证集和测试集。

2. 网络搭建根据吴恩达机器学习课程的要求,搭建一个简单的神经网络。

输入层为784个神经元,隐藏层为128个神经元,输出层为10个神经元,分别对应0-9的数字。

3. 训练过程使用训练集对神经网络进行训练。

在训练过程中,通过调整学习率、批处理大小等参数,使神经网络能够更好地拟合数据。

4. 验证和测试使用验证集和测试集对神经网络进行验证和测试。

通过计算准确率等指标,评估神经网络的性能。

四、总结1. 理论知识的重要性通过本次作业,深刻体会到理论知识在神经网络实践中的重要性。

只有掌握扎实的理论基础,才能更好地进行实践操作。

2. 神经网络的优化在训练过程中,不断调整学习率、批处理大小等参数,使神经网络能够更好地拟合数据。

这表明,优化神经网络参数对于提高性能至关重要。

神经网络作业-问题及答案

神经网络作业-问题及答案

一 简述人工神经网络常用的网络结构和学习方法。

(10分)答:1、人工神经网络常用的网络结构有三种分别是:BP 神经网络、RBF 神经网络、Kohonen 神经网络、ART 神经网络以及Hopfield 神经网络。

人工神经网络模型可以按照网络连接的拓扑结构分类,还可以按照内部信息流向分类。

按照拓扑结构分类:层次型结构和互连型结构。

层次型结构又可分类:单纯型层次网络结构、输入层与输出层之间有连接的层次网络结构和层内有互联的层次网络结构。

互连型结构又可分类:全互联型、局部互联型和稀疏连接性。

按照网络信息流向分类:前馈型网络和反馈型网络。

2、学习方法分类:⑴.Hebb 学习规则:纯前馈网络、无导师学习。

权值初始化为0。

⑵.Perceptron 学习规则:感知器学习规则,它的学习信号等于神经元期望输出与实际输出的差。

单层计算单元的神经网络结构,只适用于二进制神经元。

有导师学习。

⑶.δ学习规则:连续感知学习规则,只适用于有师学习中定义的连续转移函数。

δ规则是由输出值与期望值的最小平方误差条件推导出的。

⑷.LMS 学习规则:最小均放规则。

它是δ学习规则的一个特殊情况。

学习规则与神经元采用的转移函数无关的有师学习。

学习速度较快精度较高。

⑸.Correlation 学习规则:相关学习规则,他是Hebb 学习规则的一种特殊情况,但是相关学习规则是有师学习。

权值初始化为0。

⑹.Winner-Take-All 学习规则:竞争学习规则用于有师学习中定义的连续转移函数。

权值初始化为任意值并进行归一处理。

⑺.Outstar 学习规则:只适用于有师学习中定义的连续转移函数。

权值初始化为0。

2.试推导三层前馈网络BP 算法权值修改公式,并用BP 算法学习如下函数:21212221213532)(x x x x x x x x f -+-+=,其中:551≤≤-x ,552≤≤-x 。

基本步骤如下:(1)在输入空间]5,5[1-∈x 、]5,5[2-∈x 上按照均匀分布选取N 个点(自行定义),计算)(21x x f ,的实际值,并由此组成网络的样本集;(2)构造多层前向网络结构,用BP 算法和样本集训练网络,使网络误差小于某个很小的正数ε;(3)在输入空间上随机选取M 个点(N M >,最好为非样本点),用学习后的网络计算这些点的实际输出值,并与这些点的理想输出值比较,绘制误差曲面;(4)说明不同的N 、ε值对网络学习效果的影响。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

西安建筑科技大学研究生课程考试试卷考试科目:人工神经网络课程编码:071032任课教师:谷立臣考试时间:2014.4.30学号:1307841390 学生姓名:李宇峰SOM神经网络在滚动轴承振动诊断中的应用摘要:SOM网络是一种重要的无导师学习训练算法的神经网络,使用该算法进行训练后,可以将高维输入空间映射到二维空间上,并对故障现象进行自动分类,从而得出它们对应的故障原因。

本文归纳和总结了SOM神经网络多参数诊断法的实施步骤,阐述了轴承故障与振动信号之间的关系以及神经网络的工作原理和实现过程,通过实验研究,提取了反映滚动轴承故障类型的振动信号的特征参数,以构建训练神经网络的特征向量,利用MA TLAB人工神经网络工具箱模拟和仿真SOM神经网络,然后用训练后的SOM神经网络对故障模式进行识别。

关键词:振动;滚动轴承;故障诊断;SOM神经网络1故障轴承振动与信号的关系故障滚动轴承在受载运转时,当缺陷部位与工作表面接触,都将产生一次冲击力。

这种冲击力将激起轴承系统的振动,并通过适当的振动传递通道,以振动和声音的形式传出。

信号传递过程,如图1所示。

滚动轴承工作时,由传感器拾取的振动信号成分比较复杂,损伤引起的固有衰减振动只是其中的组成部分。

当损伤微小时,往往被其他信号淹没而难以被发现。

信号处理的目的就是突出这些损伤特征成分。

图1轴承振动信号传递过程2 SOM神经网络的结构和学习算法2.1神经网络结构自组织特征映射神经网络是芬兰神经网络专家Kohnen于1981年提出的,网络结构由输入层和输出层组成。

输入层为单层神经元排列,其作用是通过权向量将外界信息转到输出层神经元。

输出层也叫竞争层,输出层的神经元同它周围的神经元侧向连接,成棋盘状平面。

其神经元排列有多种形式,其最典型的是二维形式。

在初始状态下,这些二维的处理单元阵列上没有这些信号特征的分布拓扑图。

利用SOM模型的这一特性,可以从外界环境中按照某种测度或者是某种可有序化的拓扑空间来抽取特征或者是表达信号的、概念性的元素。

自组织特征映射神经网络模型结构如图2所示。

图2 SOM 神经网络结构示意图采用的学习算法是在胜者为王的基础上改进的。

其自组织学习过程可以描述为:对于每一个网络的输入,不仅获胜神经元本身要调整权向量,其周围的神经元在其影响下也要不同程度地调整权向量。

这一调整过程,就是学习—竞争—学习。

随着不断学习,所有权矢量都在输入矢量空间相互分离,形成各自代表输入空间的一种模式,即为网络的自组织聚类功能。

2.2 SOM 神经网络学习SOM 网络采用的学习算法称为Kohonen 算法,按如下步骤进行:(1) 初始化。

将网络数值向量集ˆjW (j=1,2,…,m)赋予[0,1]区间随机值,确定学习率初始值(0)η(0(0)1)η<<,确定邻域初始值()g N t 的领域(0)g N ,确定总学习次数T ,m 为输出层神经元数目。

(2) 接受输入。

从输入向量集中随机选取向量k P 提供给网络输入层,并进行归一化处理。

其公式如下:2221122/||||(,,,)/[()()()]k k k k k k k k k n n P P P P P P P P P ==++r L L(3) 寻找获胜节点。

计算k P r和ˆjW 的点积,从中选出点积最大的获胜节点*j ;计算欧式距离,找出距离最小的获胜节点。

(4) 定义优胜邻域。

*()j N t 设*j 为中心确定t 时刻的权值调整域,一般初始邻域*(0)j N 较大,训练过程中*()j N t 随训练时间收缩。

(5) 调整权值。

对优胜邻域*()j N t 内的所有节点调整权值(1)()(,)[()]pij ij i ij w t w t t N x w t α+=+-*1,2,,,()j i n j N t =∈L 其中:()ij w t 为神经元的权值;(,)t N α为训练时间t 和第j 个神经元与获胜神经元*j 之间的拓扑距离N 函数。

(6) 结束检查。

训练结束是以学习率()t η是否衰减到0或某个预定的正小数为条件,不满足条件则回到(2)。

3 滚动轴承故障诊断的SOM 神经网络 3.1 滚动轴承常见故障特征参数选择描述滚动轴承振动时域波形的常用指标有均方根值,在峰值因子、波形因子、脉冲因子、裕度因子和史数据并且对载荷和转速的变化比较敏感,而无量纲参数指标基本不受轴承型号、转速和载荷等因素的影响,无需考虑相对标准或与以前的数据进行比较,另外,它们不受信号绝对水平的影响,所以即使测试条件略有变化,对参数的计算结果也不会产生太大的影响。

选择峰值因子、波形因子、脉冲因子、裕度因子和峭度等5个无量纲参数组成表征滚动轴承运行状态的特征向量,并作为SOM 神经网络的输入参数。

3.2 SOM 神经网络样本数据的建立通过实验测得滚动轴承各种故障状态下的上述5个参数作为振动数据,经数据采集系统后,对数据进行时域信号处理,不停的对轴承的状态进行监测,对每种典型的故障形式分别进行三组标准样本的数据采集,最后提取采集的特征向量组成神经网络学习样本。

由于原始的采集数据值比较大,而且不便于后期的分析,故将原始的测量数据采用2221122/||||(,,,)/[()()()]k k k k k k k k k n n P P P P P P P P P ==++r L L 公式进行归一化处理,得到表1如下所示:表13.3 神经网络样本设计从实验采集中得到15个样本,每个样本用5个指数来表示轴承的状态。

网络的输入模式为即一共有15组样本,每个样本包含5个元素,这5个元素组成了滚动轴承运行状态的标准样本。

利用训练函数train 对网络进行训练,经过训练的网络可以对输入向量进行正确分类。

但是网络的训练步数如果不合适,太少或太多都将会导致很不理想的结果,所以训练的步数的设定对于网络的性能影响比较大,所以这里将步数设置为250,如图3所示。

步数设置为400,如图4所示。

步数设置为500,如图5所示,并分别观察其权值分布。

图3训练250步时的权值分布图4训练400步时的权值分布当训练步数为500步时,网络达到了较好的分类效果(过多的步数不仅运行慢,而且效果不明显),此时网络的竞争层为10×6的结构。

神经元自组织分布,每个神经元可以区分不同的样本。

网络训练结束后,权值也就固定了。

以后每输入一个值,网络就会自动地对其进行分类。

此时获胜神经元的连接权值,分别代表了相应该类故障样本的“聚类”中心,记录下每个训练样本在竞争层的输出位置。

各种故障的“聚类”中心在图中基本能够均匀分布,这样有利于对故障种类的清晰识别和诊断。

从而可得到结论:利用SOM网络对滚动轴承故障模式进行了成功的识别与分类。

利用sim函数来观察网络对训练样本数据的分类结果。

进行诊断时,只要输入样本激活的获胜神经元落入该“聚类”中心邻域内,就可诊断出该样本故障是“聚类”中心所对应的故障。

聚类结果,如图6所示。

图6标准样本训练结果图图7SOM网络拓扑学结构图8 临近神经元之间的距离情况⨯=个;都代表一种故障类型,空格处表示对所有输入都不兴奋由图7可知,竞争层神经元有10660图8中蓝色代表神经元,红色代表神经元之间直接的连接,每个菱形中的颜色表示神经元之间距离的远近,从黄色到黑色,颜色越深说明神经元之间的距离越远。

3.4 神经网络的检验为了检验建立的SOM网络的可靠性,分别进行试验采集滚动轴承正常状态、外圈损坏、保持架损坏、内圈损坏的振动信号各一组,进行轴承故障的识别验证。

检验样本的数据,如表2所示。

表2神经网络检验样本神经网络检测结果如下所示:y = (1,1) 1(12,2) 1(12,3) 1(4,4) 1(6,5) 1(41,7) 1(51,8) 1(53,9) 1(10,10) 1(29,11) 1(20,12) 1(47,13) 1(59,14) 1(56,15) 1yc =1 12 12 4 6 6 41 51 53 10 29 20 4759 56rr = 21 15 52 29 55从结果可以看到待检验样本完全落在了标准样本聚类的结果范围内,达到了很好地分类结果,证明该方法对于滚动轴承的故障诊断是准确有效的。

4 结论通过检验样本(表2)数据的网络实际输出与期望值的比较,可以发现它们十分接近,输出结果比较理想。

在分析自组织特征映射神经网络的结构和学习算法的基础上,利用自组织特征映射神经网络对滚动轴承进行故障诊断。

该神经网络对被控对象的数学模型依赖程度较低,具有自学习、自适应、联想记忆、较强的容错性和非线性模式识别的能力,同时应用神经网络工具箱进行仿真的结果表明,基于SOM神经网络的诊断模型是准确和可靠的,适合于滚动轴承多故障复杂模式的故障诊断。

本实验说明运用SOM神经网络可以有效的识别轴承的故障状态,同时也说明把滚动轴承振动信号进行时域分析所得的无量纲参数作为轴承故障分析的参数特征向量是可行的,为滚动轴承诊断问题提供了一个较好的解决方案。

参考文献:[1]李春华,肖洋.基于SOM神经网络的矿井提升机减速器齿轮故障诊断[J].矿山机械,2007(35).[2]余金宝,谷立臣,孙颖宏.利用SOM网络可视化方法诊断液压系统故障[J].工程机械,2007(38).[3]朱大奇,史慧.人工神经网络原理及应用[M].北京:科学出版社.2006:144-163.[4]闻新,周鑫,等.MATLAB神经网络仿真与应用[M].北京:科学出版社,2003.[5]周开利,康耀红.神经网络模型及其MATLAB仿真程序设计[M].北京:清华大学出版社,2005.程序如下:X=[0.4152 0.1221 0.5559 0.6248 0.3009;0.4111 0.1204 0.5510 0.6528 0.2946;0.4136 0.1235 0.5399 0.6565 0.3016;0.4338 0.0985 0.5373 0.6684 0.2580;0.4439 0.0954 0.5231 0.6711 0.2644;0.4507 0.0894 0.5268 0.6715 0.2549;0.3286 0.0572 0.5413 0.6995 0.3263;0.3221 0.0588 0.5413 0.7017 0.3279;0.3281 0.0536 0.5440 0.7043 0.3122;0.2608 0.0453 0.5393 0.7785 0.1815;0.2671 0.0459 0.5357 0.7791 0.1802;0.2598 0.0450 0.5515 0.7735 0.1674;0.4099 0.0728 0.4992 0.7313 0.2066;0.3971 0.0672 0.4983 0.7365 0.2169;0.4016 0.0669 0.5160 0.7252 0.2050]';%% 网络建立和训练% newsom建立SOM网络。

相关文档
最新文档