人工神经网络题库

合集下载

人工智能与神经网络考试试题

人工智能与神经网络考试试题

人工智能与神经网络考试试题一、选择题(每题 5 分,共 30 分)1、以下哪个不是人工智能的应用领域?()A 医疗诊断B 金融投资C 艺术创作D 传统手工制造业2、神经网络中的神经元通过什么方式进行连接?()A 随机连接B 全连接C 部分连接D 以上都不对3、在训练神经网络时,常用的优化算法是()A 随机梯度下降B 牛顿法C 二分法D 以上都是4、下列关于人工智能和神经网络的说法,错误的是()A 人工智能包括神经网络B 神经网络是实现人工智能的一种方法C 人工智能就是神经网络D 神经网络具有学习能力5、下面哪种激活函数常用于神经网络?()A 线性函数B 阶跃函数C Sigmoid 函数D 以上都是6、神经网络的层数越多,其性能一定越好吗?()A 一定B 不一定C 肯定不好D 以上都不对二、填空题(每题 5 分,共 30 分)1、人工智能的英文缩写是_____。

2、神经网络中的“学习”是指通过调整_____来优化模型性能。

3、常见的神经网络架构有_____、_____等。

4、训练神经网络时,为了防止过拟合,可以采用_____、_____等方法。

5、深度学习是基于_____的一种机器学习方法。

6、神经网络中的损失函数用于衡量_____与_____之间的差异。

三、简答题(每题 10 分,共 20 分)1、请简要说明人工智能和机器学习的关系。

答:人工智能是一个广泛的概念,旨在让计算机能够像人类一样思考和行动,实现智能的表现。

机器学习则是实现人工智能的重要手段之一。

机器学习专注于让计算机通过数据和算法进行学习,自动发现数据中的模式和规律,从而能够对新的数据进行预测和决策。

机器学习为人工智能提供了技术支持,使计算机能够从大量数据中获取知识和技能,不断提升智能水平。

可以说机器学习是人工智能的核心组成部分,但人工智能不仅仅局限于机器学习,还包括其他技术和方法,如知识表示、推理、规划等。

2、简述神经网络中反向传播算法的原理。

《神经网络》试题

《神经网络》试题

《神经网络》试题(2004年5月9日)张翼王利伟一、填空1.人工神经元网络(ANN)是由大量神经元通过极其丰富和完善的连接而构成的自适应非线形动力学系统。

2.神经元(即神经细胞)是由细胞体、树突、轴突和突触四部分构成。

3.大量神经元相互连接组成的ANN将显示出人脑的分布存储和容错性、大规模并行处理、自学习、自组织和自适应性、复杂的非线形动态系统、处理复杂、不确定问题。

4.ANN发展大体可为早期阶段、过度期、新高潮、热潮。

5.神经元的动作特征主要包括空间性相加,时间性相加,阈值作用,不应期,疲劳和可塑性。

6.神经元与输入信号结合的两种有代表的结合方式是粗结合和密结合。

7.1943年由美国心理学家McCulloch和数学家Pitts提出的形式神经元数学模型简称为MP 模型,它规定了神经元之间的联系方式只有兴奋、抑制联系两种。

8.目前,神经网络模型按照网络的结构可分为前馈型和反馈型,按照学习方式可分为有导师和无导师学习。

9.神经网络工作过程主要由学习期和工作期两个阶段组成。

10.反馈网络历经状态转移,直到它可能找到一个平衡状态,这个平衡状态称为 吸引子 。

二、问答题1.简述Hebb 学习规则。

Hebb 学习规则假定:当两个细胞同时兴奋时,它们之间的连接强度应该增强,这条规则与“条件反射”学说一致。

在ANN 中Hebb 算法最简单可描述为:如果一个处理单元从另一处理单元接受输入激励信号,而且如果两者都处于高激励电平,那么处理单元间加权就应当增强。

用数学来表示,就是两节点的连接权将根据两节点的激励电平的乘积来改变,即()()i i n ij n ij ij x y ηωωω=-=∆+1其中()n ij ω表示第(n+1)是第(n+1)次调节后,从节点j 到节点i 的连接权值;η为学习速率参数;x j 为节点j 的输出,并输入到节点i ;i y 为节点i 的输出。

2、简述自组织特征映射网络的算法。

自组织特征映射网络的算法分以下几步:(1) 权连接初始化就是说开始时,对所有从输入节点到输出节点的连接权值都赋以随机的小数。

人工神经网络复习题

人工神经网络复习题

《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的H适应、非线性、动力学系统。

2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。

3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。

4、神经网络研究的发展大致经过了四个阶段。

5、网络稳定性指从t=0时刻初态开始,至Ut时刻后v(t+^ t)=v (t),(t>0),称网络稳定。

6、联想的形式有两种,它们分是自联想和异联想。

7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。

8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。

9、神经元分兴奋性神经元和抑制性神经元。

10、汉明距离指两个向量中对应元素不同的个数。

二、简答题1、人工神经元网络的特点答:(1)、信息分布存储和容错性。

(2)、大规模并行协同处理。

(3)、自学习、自组织和自适应。

(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。

(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。

2、单个神经元的动作特征有哪些答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。

3、怎样描述动力学系统答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。

4、F(x)与x的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态答:在图(1)中,有两个平衡状态a、b,其中,在a点曲线斜率下凶|>1,为非稳定平稳状态;在b点曲线斜率下凶|<1, 为稳定平稳状态。

在图(2)中,有一个平稳状态a,且在该点曲线斜率|F'(X)|>1,为非稳定平稳状态。

人工神经网络单选练习题

人工神经网络单选练习题

人工神经网络单选练习题一、基本概念1. 下列关于人工神经网络的描述,正确的是:A. 人工神经网络是一种静态的计算模型B. 人工神经网络可以模拟人脑的神经元连接方式C. 人工神经网络只能处理线性问题D. 人工神经网络的学习过程是监督式的2. 下列哪种算法不属于人工神经网络?A. 感知机算法B. 支持向量机算法C. BP算法D. Hopfield网络3. 人工神经网络的基本组成单元是:A. 神经元B. 节点C. 权重D. 阈值二、前向传播与反向传播4. 在前向传播过程中,下列哪个参数是固定的?A. 输入值B. 权重C. 阈值D. 输出值5. 反向传播算法的主要目的是:A. 更新输入值B. 更新权重和阈值C. 计算输出值D. 初始化网络参数6. 下列关于BP算法的描述,错误的是:A. BP算法是一种监督学习算法B. BP算法可以用于多层前馈神经网络C. BP算法的目标是最小化输出误差D. BP算法只能用于解决分类问题三、激活函数7. 下列哪种激活函数是非线性的?A. 步进函数B. Sigmoid函数C. 线性函数D. 常数函数8. ReLU激活函数的优点不包括:A. 计算简单B. 避免梯度消失C. 提高训练速度D. 减少过拟合9. 下列哪种激活函数会出现梯度饱和现象?A. Sigmoid函数B. ReLU函数C. Tanh函数D. Leaky ReLU函数四、网络结构与优化10. 关于深层神经网络,下列描述正确的是:A. 深层神经网络一定比浅层神经网络效果好B. 深层神经网络更容易过拟合C. 深层神经网络可以减少参数数量D. 深层神经网络训练速度更快11. 下列哪种方法可以降低神经网络的过拟合?A. 增加训练数据B. 减少网络层数C. 增加网络参数D. 使用固定的学习率12. 关于卷积神经网络(CNN),下列描述错误的是:A. CNN具有局部感知能力B. CNN具有参数共享特点C. CNN可以用于图像识别D. CNN无法处理序列数据五、应用场景13. 下列哪种问题不适合使用人工神经网络解决?A. 图像识别B. 自然语言处理C. 股票预测D. 线性规划14. 下列哪个领域不属于人工神经网络的应用范畴?A. 医学诊断B. 金融预测C. 智能家居D. 数值计算15. 关于循环神经网络(RNN),下列描述正确的是:A. RNN无法处理长距离依赖问题B. RNN具有短期记忆能力C. RNN训练过程中容易出现梯度消失D. RNN只能处理序列长度相同的数据六、训练技巧与正则化16. 下列哪种方法可以用来防止神经网络训练过程中的过拟合?A. 提前停止B. 增加更多神经元C. 减少训练数据D. 使用更大的学习率17. 关于Dropout正则化,下列描述错误的是:A. Dropout可以减少神经网络中的参数数量B. Dropout在训练过程中随机丢弃一些神经元C. Dropout可以提高模型的泛化能力D. Dropout在测试阶段不使用18. L1正则化和L2正则化的主要区别是:A. L1正则化倾向于产生稀疏解,L2正则化倾向于产生平滑解B. L1正则化比L2正则化更容易计算C. L2正则化可以防止过拟合,L1正则化不能D. L1正则化适用于大规模数据集,L2正则化适用于小规模数据集七、优化算法19. 关于梯度下降法,下列描述正确的是:A. 梯度下降法一定会找到全局最小值B. 梯度下降法在鞍点处无法继续优化C. 梯度下降法包括批量梯度下降、随机梯度下降和小批量梯度下降D. 梯度下降法的学习率在整个训练过程中保持不变20. 下列哪种优化算法可以自动调整学习率?A. 随机梯度下降(SGD)B. Adam优化算法C. Momentum优化算法D. 牛顿法21. 关于Adam优化算法,下列描述错误的是:A. Adam结合了Momentum和RMSprop算法的优点B. Adam算法可以自动调整学习率C. Adam算法对每个参数都使用相同的学习率D. Adam算法在训练初期可能会不稳定八、损失函数22. 在分类问题中,下列哪种损失函数适用于二分类问题?A. 均方误差(MSE)B. 交叉熵损失函数C. Hinge损失函数D. 对数损失函数23. 关于均方误差(MSE)损失函数,下列描述错误的是:A. MSE适用于回归问题B. MSE对异常值敏感C. MSE的输出范围是[0, +∞)D. MSE损失函数的梯度在接近最小值时趋近于024. 下列哪种损失函数适用于多分类问题?A. 交叉熵损失函数B. Hinge损失函数C. 对数损失函数D. 均方误差(MSE)九、模型评估与超参数调优25. 下列哪种方法可以用来评估神经网络的性能?A. 训练误差B. 测试误差C. 学习率D. 隐层神经元数量26. 关于超参数,下列描述正确的是:A. 超参数是在模型训练过程中自动学习的B. 超参数的值通常由经验丰富的专家设定C. 超参数的调整对模型性能没有影响D. 超参数包括学习率、批量大小和损失函数27. 关于交叉验证,下列描述错误的是:A. 交叉验证可以减少过拟合的风险B. 交叉验证可以提高模型的泛化能力C. 交叉验证会降低模型的训练速度D. 交叉验证适用于小规模数据集十、发展趋势与挑战28. 下列哪种技术是近年来人工神经网络的一个重要发展方向?A. 深度学习B. 线性回归C. 决策树D. K最近邻29. 关于深度学习,下列描述错误的是:A. 深度学习需要大量标注数据B. 深度学习模型通常包含多层神经网络C. 深度学习可以处理复杂的非线性问题D. 深度学习不适用于小规模数据集30. 下列哪种现象是训练深度神经网络时可能遇到的挑战?A. 梯度消失B. 参数过多C. 数据不平衡D. 所有上述选项都是挑战答案一、基本概念1. B2. B二、前向传播与反向传播4. B5. B6. D三、激活函数7. B8. D9. A四、网络结构与优化10. B11. A12. D五、应用场景13. D14. D15. C六、训练技巧与正则化16. A17. A18. A七、优化算法19. C20. B八、损失函数22. B23. D24. A九、模型评估与超参数调优25. B26. B27. D十、发展趋势与挑战28. A29. D30. D。

《人工神经网络:模型、算法及应用》习题参考答案

《人工神经网络:模型、算法及应用》习题参考答案

习题2.1什么是感知机?感知机的基本结构是什么样的?解答:感知机是Frank Rosenblatt在1957年就职于Cornell航空实验室时发明的一种人工神经网络。

它可以被视为一种最简单形式的前馈人工神经网络,是一种二元线性分类器。

感知机结构:2.2单层感知机与多层感知机之间的差异是什么?请举例说明。

解答:单层感知机与多层感知机的区别:1. 单层感知机只有输入层和输出层,多层感知机在输入与输出层之间还有若干隐藏层;2. 单层感知机只能解决线性可分问题,多层感知机还可以解决非线性可分问题。

2.3证明定理:样本集线性可分的充分必要条件是正实例点集所构成的凸壳与负实例点集构成的凸壳互不相交.解答:首先给出凸壳与线性可分的定义凸壳定义1:设集合S⊂R n,是由R n中的k个点所组成的集合,即S={x1,x2,⋯,x k}。

定义S的凸壳为conv(S)为:conv(S)={x=∑λi x iki=1|∑λi=1,λi≥0,i=1,2,⋯,k ki=1}线性可分定义2:给定一个数据集T={(x1,y1),(x2,y2),⋯,(x n,y n)}其中x i∈X=R n , y i∈Y={+1,−1} , i=1,2,⋯,n ,如果存在在某个超平面S:w∙x+b=0能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有的正例点即y i=+1的实例i,有w∙x+b>0,对所有负实例点即y i=−1的实例i,有w∙x+b<0,则称数据集T为线性可分数据集;否则,称数据集T线性不可分。

必要性:线性可分→凸壳不相交设数据集T中的正例点集为S+,S+的凸壳为conv(S+),负实例点集为S−,S−的凸壳为conv(S−),若T是线性可分的,则存在一个超平面:w ∙x +b =0能够将S +和S −完全分离。

假设对于所有的正例点x i ,有:w ∙x i +b =εi易知εi >0,i =1,2,⋯,|S +|。

人工神经网络原理第7章习题参考答案

人工神经网络原理第7章习题参考答案

1.试述自组织神经网络中“自组织”的含义。

自组织神经网络采用类似于人类大脑生物神经网络的无指导学习方式,能够对外界未知环境进行学习或模拟,并对自身的网络结构进行调整,实现对输入模式的自动分类。

在调整网络结构时,网络按照预定的规则和输入模式,不断调整网络连接权值直至形成一种全局有序的结构,而这种全局有序的结构是通过网络中许多相邻神经元的局部相互作用形成的,这些相邻神经元之间的相互作用最终会使网络在空间模式或时间节奏上达成一致,这也是自组织的本质。

2. 若某一基本竞争神经网络的输入层有5个节点,竞争层有3个节点。

网络的6个学习模式为X 1=(1,0,0,0,0)T ,X 2=(1,0,0,0,1)T ,X 3=(1,1,0,1,0)T ,X 4=(1,1,0,1,1)T ,X 5=(0,0,1,1,0)T ,X 6=(0,0,1,1,1)T ,试计算这6个学习模式的汉明距离。

6个学习模式的汉明距离X 1 X 2 X 3 X 4 X 5 X 6 X 1 0 1 2 3 3 4 X 2 1 0 3 2 4 3 X 3 2 3 0 1 3 4 X 4 3 2 1 0 4 3 X 5 3 4 3 4 0 1 X 6434313. 采用竞争学习规则,通过训练将第2题中的6个学习模式进行分类,试比较训练后的分类结果和通过汉明距离得到分类结果。

按照前面描述的竞争学习规则对第2题的6个学习模式进行记忆训练,假定学习速率为0.5,网络的初始连接权值如下:⎪⎪⎪⎪⎪⎪⎭⎫⎝⎛=2.03.02.02.02.03.01.02.02.02.01.02.03.02.01.0W网络的学习过程如下:t =1 X 1=(1,0,0,0,0)T 竞争层各个神经元的净输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*0+0.2*0+0.3*0+0.2*0=0.1 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*0+0.2*0+0.2*0+0.3*0=0.2 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.3*1+0.2*0+0.1*0+0.2*0+0.2*0=0.3因此,竞争层各个神经元的输出为 y 1=0 y 2=0 y 3=1调整后的连接权如下 w 13=0.3+0.5*(1/1-0.3)=0.65 w 23=0.2+0.5*(0/1-0.2)=0.1 w 33=0.1+0.5*(0/1-0.1)=0.05 w 43=0.2+0.5*(0/1-0.2)=0.1 w 53=0.2+0.5*(0/1-0.2)=0.1t =2 X 2=(1,0,0,0,1)T 竞争层各个神经元的净输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*0+0.2*0+0.3*0+0.2*1=0.3 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*0+0.2*0+0.2*0+0.3*1=0.5 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.65*1+0.1*0+0.05*0+0.1*0+0.1*1=0.75因此,竞争层各个神经元的输出为 y 1=0 y 2=0 y 3=1 调整后的连接权如下w 13=0.65+0.5*(1/2-0.65)=0.575 w 23=0.1+0.5*(0/2-0.1)=0.05 w 33=0.05+0.5*(0/2-0.05)=0.025 w 43=0.1+0.5*(0/2-0.1)=0.05 w 53=0.1+0.5*(1/2-0.1)=0.3 t =3 X 3=(1,1,0,1,0)T 竞争层各个神经元的输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*1+0.2*0+0.3*1+0.2*0=0.6 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*1+0.2*0+0.2*1+0.3*0=0.5 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.575*1+0.05*1+0.025*0+0.05*1+0.3*0=0.675 因此,竞争层各个神经元的输出为y 1=0 y 2=0 y 3=1 调整后的连接权如下w 13=0.575+0.5*(1/3-0.575)=0.4542 w 23=0.05+0.5*(1/3-0.05)=0.1917 w 33=0.025+0.5*(0/3-0.025)=0.0125 w 43=0.05+0.5*(1/3-0.05)=0.1917 w 53=0.3+0.5*(0/3-0.3)=0.15 ……按照上述过程经过多次学习后,网络会得到如下分类结果,与通过汉明距离分析的结果完全一致。

《人工神经网络原理与应用》试题

《人工神经网络原理与应用》试题

《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。

2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。

以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。

要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。

利用BP 网络对以下非线性系统进行辨识。

非线性系统 )(5.1)1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 1)首先利用[-1,1]区间的随机信号u(k),样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;2)网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。

4、试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。

5、试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。

6、谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。

《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。

2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。

以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。

要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。

机器学习与人工智能(人工神经网络)习题与答案

机器学习与人工智能(人工神经网络)习题与答案

1.非线性机器学习算法具有以下的什么特性?A.针对难以用准则来描述的复杂模型B.能够达到更深层次的抽象C.能够进行广泛使用的分类算法D.以上都是正确答案:D2.神经网络的学习步骤包括:1、求得权重等参数,2、定义代价函数,3、对测试数据进行预测,4、根据样本数据和标签采用梯度下降法进行学习,步骤的正确顺序为:A.4213B.2413C.2143D.4123正确答案:B二、判断题1.单层感知器能对线形可分的数据集进行分类,能解决逻辑问题异或。

正确答案:×2.前馈神经网络中偏置单元可以有输入。

正确答案:×3.在某种意思上,小批量梯度下降算法是以迭代次数换取算法的运行速度。

正确答案:√4.神经网络中的神经元有两个状态:兴奋、抑制。

这两个状态由阈值决定。

正确答案:√5.前馈式神经网络层间有反馈。

6.小批量梯度下降法在迭代的每一步中,参数的更新只用了小批量样本的信息。

正确答案:√7.小批量梯度下降法和随机梯度下降算法收敛可能需要更多的迭代次数正确答案:√三、多选题1.使用均方误差作为代价函数,有什么特点?( )A.形式简单B.通俗易懂C.容易出现饱和现象D.容易陷入局部最优解正确答案:A、B、C、D2.感知器可以解决一下哪些问题?( )A.实现逻辑关系中的与B.实现逻辑关系中的或C.实现逻辑关系中的非D.线性分类和线性回归问题正确答案:A、B、C、D3.神经网络具有下面哪几个特点?( )A.能充分逼近复杂的非线性关系B.具有高度的容错能力C.具有自组织能力D.可以并行分布处理正确答案:A、B、C、D4.以下会造成梯度消失的激活函数有( )。

A.sigmoid函数B.tanh函数C.ReLU函数D.softplus函数正确答案:A、B四、填空1.在()模型中,每个神经元同时将自身的输出作为输入信号反馈给其他神经元。

正确答案:反馈神经网络。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

人工神经网络系别:计算机工程系班级: 1120543 班学号: 13 号姓名:日期:2014年10月23日人工神经网络摘要:人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。

在工程与学术界也常直接简称为神经网络或类神经网络。

神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成,由大量处理单元互联组成的非线性、自适应信息处理系统。

它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。

关键词:神经元;神经网络;人工神经网络;智能;引言人工神经网络的构筑理念是受到生物(人或其他动物)神经网络功能的运作启发而产生的。

人工神经网络通常是通过一个基于数学统计学类型的学习方法(Learning Method )得以优化,所以人工神经网络也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间,另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题(也就是说通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和简单的判断能力),这种方法比起正式的逻辑学推理演算更具有优势。

一、人工神经网络的基本原理1-1神经细胞以及人工神经元的组成神经系统的基本构造单元是神经细胞,也称神经元。

它和人体中其他细胞的关键区别在于具有产生、处理和传递信号的功能。

每个神经元都包括三个主要部分:细胞体、树突和轴突。

树突的作用是向四方收集由其他神经细胞传来的信息,轴突的功能是传出从细胞体送来的信息。

每个神经细胞所产生和传递的基本信息是兴奋或抑制。

在两个神经细胞之间的相互接触点称为突触。

简单神经元网络及其简化结构如图2-2所示。

从信息的传递过程来看,一个神经细胞的树突,在突触处从其他神经细胞接受信号。

这些信号可能是兴奋性的,也可能是抑制性的。

所有树突接受到的信号都传到细胞体进行综合处理,如果在一个时间间隔内,某一细胞接受到的兴奋性信号量足够大,以致于使该细胞被激活,而产生一个脉冲信号。

这个信号将沿着该细胞的轴突传送出去,并通过突触传给其他神经细胞.神经细胞通过突触的联接形成神经网络。

图1-1简单神经元网络及其简化结构图(1)细胞体(2)树突(3)轴突(4)突触人们正是通过对人脑神经系统的初步认识,尝试构造出人工神经元以组成人工神经网络系统来对人的智能,甚至是思维行为进行研究:尝试从理性角度阐明大脑的高级机能。

经过几十年的努力与发展,己涌现出上百种人工神经网络模型,它们的网络结构、性能、算法及应用领域各异,但均是根据生物学事实衍生出来的。

由于其基本处理单元是对生物神经元的近似仿真,因而被称之为人工神经元。

它用于仿效生物神经细胞最基本的特性,与生物原型相对应。

人工神经元的主要结构单元是信号的输入、综合处理和输出,其输出信号的强度大小反映了该单元对相邻单元影响的强弱。

人工神经元之间通过互相联接形成网络,称为人工神经网络。

神经元之间相互联接的方式称为联接模式,相互之间的联接度由联接权值体现在人工神经网络中,改变信息处理过程及其能力,就是修改网络权值的过程。

目前多数人工神经网络的构造大体上都采用如下的一些原则:1、由一定数量的基本单元分层联接构成;2、每个单元的输入、输出信号以及综合处理内容都比较简单;3、网络的学习和知识存储体现在各单元之间的联接强度上。

1-2人工神经元的模型神经元是人工神经网络的基本处理单元,它一般是一个多输入/单输出的非线性元件。

神经元输出除受输入信号的影响外,同时也受到神经元内部其它因素的影响,所以在人工神经元的建模中,常常还加有一个额外输入信号、称为偏差(bais),有时也称为阈值或门限值。

一个具有r 个输入分量的神经元如图2-2所示。

其中,输入分量()r j p j ,...,2,1=通过与和它相乘的权值分量()r j w j ,..,2,1=相连,以∑=rj j j p w 1的形式求和后,形成激活函数f()的输入。

激活函数的另一个输入是神经元的偏差b,权值Wj 和输入分量的矩阵形式可以由W 的行矢量以及P 的列矢量来表示:[]r w w w W ...21=[]tr p p p P ...21= (1.1) 1-3神经网络的联接形式人脑中大量的神经细胞都不是孤立的,而是通过突触形式相互联系着,构成结构与功能十分复杂的神经网络系统。

为了便于从结构出发模拟智能,因此必须将一定数量的神经元适当地联接成网络,从而形成多种神经网络模型。

通常所说的神经网络的结构,主要指它的联接方式。

神经网络按照拓扑结构属于以神经元为节点,以及节点间有向连接为边的一种图,其结构大体上可分为层状和网状两大类。

层状结构的神经网络是由若干层组成,每层中有一定数量的神经元,相邻层中神经元单向联接,一般地同层内的神经元不能联接,网状结构的神经网络中,任何两个神经元之间都可能双向联接。

二、人工神经网络模型人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。

目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等。

具体的模式识别是多种多样的,如果从识别的基本方法上划分,传统的模式识别大体分为统计模式识别和句法模式识别,在识别系统中引入神经网络是一种近年来发展起来的新的模式识别方法。

尽管引入神经网络的方法和引入网络的结构可以各不相同,但都可称为神经网络模式识别。

而且这些识别方法在解决传统方法较难处理的某些问题上带来了新的进展和突破,因而得到了人们越来越多的重视和研究。

人工神经元网络(Artificial Neural Network)简称神经网络,是基于日前人们对自然神经系统的认识而提出的一些神经系统的模型,一般是由一系列被称为神经元的具有某种简单计算功能的节点经过广泛连接构成的一定网络结构,而其网络连接的权值根据某种学习规则在外界输入的作用下不断调节,最后使网络具有某种期望的输出特性。

神经网络的这种可以根据输入样本学习的功能使得它非常适合于用来解决模式识别问题,这也是神经网络目前最成功的应用领域之一。

神经网络模式识别的基本方法是,首先用己知样本训练神经网络,使之对不同类别的己知样本给出所希望的不同输出,然后用该网络识别未知的样本,根据各样本所对应的网络输出情况来划分未知样本的类别。

神经网络进行模式识别的一般步骤如图2-1所示,分为如下几个部分。

预处理样本获取常规处理特征变换神经网络识别图 2-1 神经网络模式识别基本构成1、样本获取这一步骤主要是为了得到一定数量的用于训练和识别的样本。

2、常规处理其作用相当于传统模式识别中的数据获取和常规处理两步的功能。

即通过对识别对象的有效观测、进行采样量化,获得一系列数据,再经过去除噪声、加强有用信息等工作获得尽量逼真的原始数据。

通过这一步骤,得到了样本的原始表达。

3、特征变换在原始样本表达的基础上,进行适当的变换,得到适合神经网络进行识别的样本的特征表达。

以上两步构成了神经网络模式识别中的预处理过程。

这一步骤与传统模式识别的特征提取选择的位置很相似,不同的是,神经网络可以对原始样本直接进行处理,因此这种变换在神经网络模式识别中不象传统模式识别的特征提取选择那样必不可少,神经网络对预处理的要求与传统模式识别对特征提取选择的要求也有所不同。

4、神经网络识别根据识别对象和研究问题的不同,选用不同的网络结构并采用适当的学习算法,用已知样本作为训练集对神经网络进行训练,使其网络连接的权值不断调整,直到网络的输出特性与期望的相符合。

训练过程结束以后,网络相当于一个固定的映射器,新的输入样木(测试样本)通过网络映射到不同的类别。

神经网络能够应用于模式识别,关键在于它具有一般数学模型所不具有的诸多优点。

1、分布存储和容错性一个信息不是存储在一个地方,而是按内容而分布在整个网络上,网络某一处不是只存储一个外部信息,而每个神经元存储多种信息的部分内容。

网络的每部分对信息的存储有等势作用。

这种分布式存储算法是存储区与运算区合为一体的。

在神经网络中,要获得存储的知识则采用“联想”的办法,即当一个神经网络输入一个激励时,它要在己存的知识中寻找与该输入匹配最好的存储知识为其解。

当然在信息输出时也还要经过一种处理。

而不是直接从记忆中取出。

这种存储方式的优点在于若部分信息不完全,就是说或者丢失或者损坏甚至有错误的信息,它仍能恢复出原来正确的完整的信息,系统仍能运行。

这就是网络具有容错性和联想记忆功能,自然是表现出较强的鲁莽性。

人的大脑的容错性是它的一种重要的智慧形式。

2、大规模并行处理人工神经元网络在结构上是并行的,而且网络的各个单元可以同时进行类似的处理过程。

因此,网络中的信息处理是在大量单元中平行而又有层次地进行,运算速度高,大大超过传统的序列式运算的数字机。

虽然每个神经元的信息传递(神经脉冲)速度是以毫秒计算的,比普通序列式计算机要慢很多,但是人通常能在1秒内即可作出对外界事物的判断和决策、这就是能神奇地完成所谓“百步”决策。

这按照现有传统的计算机及人工智能技术目前还是做不到的。

3、自学习、自组织和自适应性学习和适应要求在时间过程中系统内部结构和联系方式有改变,神经元网络是一种变结构系统,恰好能完成对环境的活应和对外界事物的学习能力。

神经元之间的连接有多种多样,各神经元之间连接强度具有一定的可塑性,相当于突触传递信息能力的变化,这样,网络可以通过学习和训练进行自组织以适应不同信息处理的要求。

神经元网络是大量神经元的集体行为,并不是各单元行为的简单的相加,而表现出一般复杂非线性动态系统的特性。

如不可预测性、不可逆性、有各种类型的吸引子(信息正是“存储”在定点吸引子)和出现混沌现象等。

正是由于神经网络具有这些特点,所以可以处理一些环境信息十分复杂、知识背景不清楚和推理规则不明确的问题。

例如语音识别和识别、医学诊断以及市场估计等,都是具有复杂非线性和不确定性对象的控制。

在那里,信源提供的模式丰富多彩,有的互相间存在矛盾,而判定决策原则又无条理可循。

通过神经元网络学习(按照学习法则),从典型事例中学会处理具体事例,给出比较满意的解答。

三、神经网络在数字识别中的应用神经网络模型用于模拟人脑神经元活动的过程。

其中包括对信息的加工、处理、存储和搜索等过程,它具有如下基本特点:1、神经网络具有分布式存储信息的特点。

它存储信息的方式与传统的计算机的思维方式是不同的,一个信息不是存在一个地方,而是分布在不同的位置。

网络的某一部分也不只存储一个信息,它的信息是分布式存储的。

神经网络是用大量神经元之间的连接及对各连接权值的分布来表示特定的信息。

因此,这种分布式存储方式即使当局部网络受损时,仍具有能够恢复原来信息的优点。

相关文档
最新文档