《神经网络》试题
2023年秋江苏开放大学神经网络与深度学习形考二作业
2023年秋江苏开放大学神经网络与深度学习形考二作业试题列表单选题题型:单选题客观题分值5分难度:简单得分:51以下卷积运算的输出结果为A11 12<br>10 1115 16<br> 6 15C10 11<br>11 12D11 12<br>10 11学生答案:B老师点评:题型:单选题客观题分值5分难度:中等得分:52以下关于神经⽹络的训练过程,描述错误的是?A【mini-batch】从训练数据中随机选出⼀部分数据,这部分数据称为mini-batch,我们的⽬标是减少mini-batch损失函数的值。
【随机梯度下降】stochastic gradient descent:“随机”代表在梯度下降中随机初始⼀个学习率,并不断尝试多个值,寻求最好的结果C【计算梯度】为了减⼩mini-batch的损失函数,需要求出各个权重参数的梯度D【更新参数】梯度反⽅向表示损失函数的值减⼩最多的⽅向,将权重参数沿梯度反⽅向进⾏微⼩更新学生答案:B老师点评:题型:单选题客观题分值5分难度:一般得分:53多义现象可以被定义为在⽂本对象中⼀个单词或短语的多种含义共存。
下列哪⼀种⽅法可能是解决此问题的最好选择?A随机森林B以上所有⽅法卷积神经⽹络D强化学习学生答案:C老师点评:题型:单选题客观题分值5分难度:中等得分:54在⼀个神经⽹络⾥,知道每⼀个神经元的权重和偏差是最重要的⼀步。
如果以某种⽅法知道了神经元准确的权重和偏差,你就可以近似任何函数。
实现这个最佳的办法是什么?A以上都不正确B搜索所有权重和偏差的组合,直到得到最优值C随机赋值,祈祷它们是正确的赋予⼀个初始值,检查与最优值的差值,然后迭代更新权重学生答案:D题型:单选题客观题分值5分难度:一般得分:55以下场景中适合采⽤⼀对多结构RNN的是?A基于帧粒度的视频分类B⽣成图⽚说明C情感分析D机器翻译学生答案:B题型:单选题客观题分值5分难度:一般得分:56在典型CNN⽹络AlexNet中,原始图⽚是⼤⼩为227*227的三通道数据,经过96个⼤⼩为11*11的卷积核卷积后得到96个⼤⼩为55*55的特征图,若padding = 0 ,则卷积核的步⻓为多少?4B1C2D3学生答案:A老师点评:题型:单选题客观题分值5分难度:一般得分:57】在神经⽹络的学习中,权重的初始值特别重要,设定什么样的权重初始值,经常关系到神经⽹络的学习能否成功。
人工智能与神经网络考试试题
人工智能与神经网络考试试题一、选择题(每题 5 分,共 30 分)1、以下哪个不是人工智能的应用领域?()A 医疗诊断B 金融投资C 艺术创作D 传统手工制造业2、神经网络中的神经元通过什么方式进行连接?()A 随机连接B 全连接C 部分连接D 以上都不对3、在训练神经网络时,常用的优化算法是()A 随机梯度下降B 牛顿法C 二分法D 以上都是4、下列关于人工智能和神经网络的说法,错误的是()A 人工智能包括神经网络B 神经网络是实现人工智能的一种方法C 人工智能就是神经网络D 神经网络具有学习能力5、下面哪种激活函数常用于神经网络?()A 线性函数B 阶跃函数C Sigmoid 函数D 以上都是6、神经网络的层数越多,其性能一定越好吗?()A 一定B 不一定C 肯定不好D 以上都不对二、填空题(每题 5 分,共 30 分)1、人工智能的英文缩写是_____。
2、神经网络中的“学习”是指通过调整_____来优化模型性能。
3、常见的神经网络架构有_____、_____等。
4、训练神经网络时,为了防止过拟合,可以采用_____、_____等方法。
5、深度学习是基于_____的一种机器学习方法。
6、神经网络中的损失函数用于衡量_____与_____之间的差异。
三、简答题(每题 10 分,共 20 分)1、请简要说明人工智能和机器学习的关系。
答:人工智能是一个广泛的概念,旨在让计算机能够像人类一样思考和行动,实现智能的表现。
机器学习则是实现人工智能的重要手段之一。
机器学习专注于让计算机通过数据和算法进行学习,自动发现数据中的模式和规律,从而能够对新的数据进行预测和决策。
机器学习为人工智能提供了技术支持,使计算机能够从大量数据中获取知识和技能,不断提升智能水平。
可以说机器学习是人工智能的核心组成部分,但人工智能不仅仅局限于机器学习,还包括其他技术和方法,如知识表示、推理、规划等。
2、简述神经网络中反向传播算法的原理。
《神经网络》试题
《神经网络》试题(2004年5月9日)张翼王利伟一、填空1.人工神经元网络(ANN)是由大量神经元通过极其丰富和完善的连接而构成的自适应非线形动力学系统。
2.神经元(即神经细胞)是由细胞体、树突、轴突和突触四部分构成。
3.大量神经元相互连接组成的ANN将显示出人脑的分布存储和容错性、大规模并行处理、自学习、自组织和自适应性、复杂的非线形动态系统、处理复杂、不确定问题。
4.ANN发展大体可为早期阶段、过度期、新高潮、热潮。
5.神经元的动作特征主要包括空间性相加,时间性相加,阈值作用,不应期,疲劳和可塑性。
6.神经元与输入信号结合的两种有代表的结合方式是粗结合和密结合。
7.1943年由美国心理学家McCulloch和数学家Pitts提出的形式神经元数学模型简称为MP 模型,它规定了神经元之间的联系方式只有兴奋、抑制联系两种。
8.目前,神经网络模型按照网络的结构可分为前馈型和反馈型,按照学习方式可分为有导师和无导师学习。
9.神经网络工作过程主要由学习期和工作期两个阶段组成。
10.反馈网络历经状态转移,直到它可能找到一个平衡状态,这个平衡状态称为 吸引子 。
二、问答题1.简述Hebb 学习规则。
Hebb 学习规则假定:当两个细胞同时兴奋时,它们之间的连接强度应该增强,这条规则与“条件反射”学说一致。
在ANN 中Hebb 算法最简单可描述为:如果一个处理单元从另一处理单元接受输入激励信号,而且如果两者都处于高激励电平,那么处理单元间加权就应当增强。
用数学来表示,就是两节点的连接权将根据两节点的激励电平的乘积来改变,即()()i i n ij n ij ij x y ηωωω=-=∆+1其中()n ij ω表示第(n+1)是第(n+1)次调节后,从节点j 到节点i 的连接权值;η为学习速率参数;x j 为节点j 的输出,并输入到节点i ;i y 为节点i 的输出。
2、简述自组织特征映射网络的算法。
自组织特征映射网络的算法分以下几步:(1) 权连接初始化就是说开始时,对所有从输入节点到输出节点的连接权值都赋以随机的小数。
研究生神经网络试题A卷参考答案
研究生神经网络试题A卷参考答案一、简答题1. 神经网络的基本原理是什么?神经网络是一种模仿人脑神经元网络结构和工作方式的计算模型。
它由大量的节点(神经元)和连接它们的边(突触)构成。
每个神经元接收多个输入信号,并通过激活函数进行处理后,将输出信号传递给其他神经元。
通过多层的神经元连接,神经网络能够对复杂的非线性问题进行建模和求解。
2. 神经网络训练的过程及原理是什么?神经网络的训练过程分为前向传播和反向传播两个阶段。
在前向传播过程中,将输入信号通过网络的各层神经元传递,并经过激活函数的作用,最终得到输出结果。
在反向传播过程中,通过与真实输出值的比较,计算网络输出的误差,然后将误差逆向传播回网络,根据误差进行权重和偏置的调整,以减小误差。
反复进行前向传播和反向传播的迭代训练,直到达到预定的训练精度或收敛条件。
3. 神经网络的主要应用领域有哪些?神经网络广泛应用于各个领域,包括图像识别、语音识别、自然语言处理、机器翻译、推荐系统等。
在图像识别领域,卷积神经网络(CNN)被广泛应用于图像分类、目标检测和图像分割等任务。
在自然语言处理领域,循环神经网络(RNN)和长短时记忆网络(LSTM)在语言模型、机器翻译和文本生成等方面表现出色。
此外,神经网络还可以用于金融预测、智能控制和模式识别等其他领域。
4. 神经网络中的激活函数有哪些常用的?它们的作用是什么?常用的激活函数包括sigmoid函数、ReLU函数和tanh函数。
它们的作用是在神经网络中引入非线性,增加网络的表达能力。
sigmoid函数将输入映射到0和1之间,主要用于二分类问题。
ReLU函数在输入大于0时返回该值,否则返回0,可以有效地缓解梯度消失问题,目前在深度学习中得到广泛应用。
tanh函数将输入映射到-1和1之间,具有对称性,使得网络的输出更加均匀。
5. 神经网络中的损失函数有哪些常用的?它们的作用是什么?常用的损失函数包括均方误差损失函数(MSE)、交叉熵损失函数和对数损失函数。
《人工神经网络原理与应用》试题
《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。
2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。
以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。
要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。
利用BP 网络对以下非线性系统进行辨识。
非线性系统 )(5.1)1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 1)首先利用[-1,1]区间的随机信号u(k),样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;2)网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。
4、试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。
5、试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。
6、谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。
《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。
2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。
以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。
要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。
神经网络与模糊控制考试题及答案
一、填空题1、模糊控制器由模糊化接口、解模糊接口、知识库和模糊推理机组成2、一个单神经元的输入是 1.0 ,其权值是 1.5,阀值是-2,则其激活函数的净输入是-0.5 ,当激活函数是阶跃函数,则神经元的输出是 13、神经网络的学习方式有导师监督学习、无导师监督学习和灌输式学习4、清晰化化的方法有三种:平均最大隶属度法、最大隶属度取最小/最大值法和中位数法,加权平均法5、模糊控制规则的建立有多种方法,是:基于专家经验和控制知识、基于操作人员的实际控制过程和基于过程的模糊模型,基于学习6、神经网络控制的结构归结为神经网络监督控制、神经网络直接逆动态控制、神网自适应控制、神网自适应评判控制、神网内模控制、神网预测控制六类7.傅京逊首次提出智能控制的概念,并归纳出的3种类型智能控制系统是、和。
7、人作为控制器的控制系统、人机结合作为控制器的控制系统、无人参与的自主控制系统8、智能控制主要解决传统控制难以解决的复杂系统的控制问题,其研究的对象具备的3个特点为、和。
8、不确定性、高度的非线性、复杂的任务要求9.智能控制系统的主要类型有、、、、和。
9、分级递阶控制系统,专家控制系统,神经控制系统,模糊控制系统,学习控制系统,集成或者(复合)混合控制系统10.智能控制的不确定性的模型包括两类:(1) ;(2) 。
10、(1)模型未知或知之甚少;(2)模型的结构和参数可能在很大范围内变化。
11.控制论的三要素是:信息、反馈和控制。
12.建立一个实用的专家系统的步骤包括三个方面的设计,它们分别是、和。
知识库的设计推理机的设计人机接口的设计13.专家系统的核心组成部分为和。
知识库、推理机14.专家系统中的知识库包括了3类知识,它们分别为、、和。
判断性规则控制性规则数据15.专家系统的推理机可采用的3种推理方式为 推理、 和 推理。
15、正向推理、反向推理和双向推理16.根据专家控制器在控制系统中的功能,其可分为 和 。
人工神经网络复习题
《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。
2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。
3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。
4、神经网络研究的发展大致经过了四个阶段。
5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。
6、联想的形式有两种,它们分是自联想和异联想。
7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。
8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。
9、神经元分兴奋性神经元和抑制性神经元。
10、汉明距离指两个向量中对应元素不同的个数。
二、简答题1、人工神经元网络的特点?答:(1)、信息分布存储和容错性。
(2)、大规模并行协同处理。
(3)、自学习、自组织和自适应。
(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
2、单个神经元的动作特征有哪些?答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。
3、怎样描述动力学系统?答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。
4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。
在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。
计算智能期末考试试题
计算智能期末考试试题一、单项选择题(每题2分,共20分)1. 在神经网络中,感知机是一种:- A. 学习算法- B. 神经网络结构- C. 激活函数- D. 优化算法2. 遗传算法是模拟了生物进化中的哪种机制?- A. 基因突变- B. 物种灭绝- C. 物种进化- D. 物种退化3. 以下哪个算法是解决组合优化问题常用的启发式算法? - A. 梯度下降法- B. 牛顿法- C. 粒子群优化算法- D. 牛顿-拉夫森方法4. 模糊逻辑的创始人是:- A. 洛特菲·扎德- B. 阿兰·图灵- C. 约翰·冯·诺伊曼- D. 克劳德·香农5. 以下哪个不是计算智能的领域?- A. 机器学习- B. 专家系统- C. 计算机图形学- D. 模式识别二、简答题(每题10分,共30分)1. 请简述神经网络的基本原理。
2. 描述遗传算法的基本流程。
3. 解释模糊逻辑在决策支持系统中的作用。
三、计算题(每题15分,共30分)1. 假设有一个简单的三层前馈神经网络,输入层有3个神经元,隐藏层有2个神经元,输出层有1个神经元。
如果输入向量为 [0.5, 0.2, 0.7],隐藏层的激活函数为Sigmoid函数,输出层的激活函数为线性函数。
请计算输出层的输出值。
2. 给定一个简单的遗传算法问题,其中初始种群由5个个体组成,每个个体由5个基因组成,每个基因的取值范围为0到1。
假设选择操作使用了轮盘赌选择,交叉操作使用了单点交叉,变异操作使用了随机变异。
请描述如何初始化种群,并说明选择、交叉和变异操作的执行过程。
四、论述题(每题20分,共20分)1. 论述计算智能在现代人工智能领域中的重要性,并举例说明其在实际应用中的作用。
注意事项:- 请在规定时间内完成所有题目。
- 确保答题卡填写清晰,字迹工整。
- 答题时请遵循考试规则,诚信考试。
祝各位考生考试顺利!。
深度学习考试试题
深度学习考试试题一、选择题(每题 5 分,共 40 分)1、以下哪个不是深度学习中常见的神经网络类型?()A 卷积神经网络B 循环神经网络C 决策树D 生成对抗网络2、在深度学习中,用于防止过拟合的技术不包括()A 增加数据量B 正则化C 减少网络层数D Dropout3、以下关于深度学习中优化算法的说法,错误的是()A 随机梯度下降算法是常用的优化算法之一B 动量优化算法可以加速收敛C Adagrad 算法对所有参数使用相同的学习率D Adam 算法结合了动量和自适应学习率的优点4、对于图像识别任务,以下哪种数据增强方法通常不被使用?()A 翻转图像B 旋转图像C 改变图像的颜色通道D 增加图像的分辨率5、在深度学习中,以下哪个指标常用于评估分类模型的性能?()A 均方误差B 准确率C 召回率D 以上都是6、以下哪种激活函数在深度学习中使用较少?()A ReLU 函数B Sigmoid 函数C Tanh 函数D Linear 函数7、关于深度学习中的模型融合,以下说法正确的是()A 可以通过平均多个模型的预测结果来提高性能B 模型融合一定能提高性能C 只能对相同结构的模型进行融合D 模型融合只适用于分类任务8、以下关于深度学习中自动编码器的描述,错误的是()A 可以用于数据压缩B 可以用于特征提取C 由编码器和解码器组成D 输出与输入必须完全相同二、填空题(每题 5 分,共 30 分)1、深度学习中的反向传播算法用于计算______,以更新网络参数。
2、常见的深度学习框架有 TensorFlow、PyTorch、______等。
3、卷积神经网络中的卷积核大小通常为______的整数。
4、循环神经网络在处理______数据时具有优势。
5、在深度学习中,批量归一化的主要作用是______。
6、生成对抗网络由______和判别器两部分组成。
三、简答题(每题 15 分,共 30 分)1、请简要描述卷积神经网络的工作原理,并举例说明其在图像识别中的应用。
人工智能与神经网络 试题3
2-4 试说明怎样把一棵与或解树用来表达图2.28所示的电网络阻抗的计算。
单独的R 、L 或C 可分别用R 、j ωL 或1/j ωC 来计算,这个事实用作本原问题。
后继算符应以复合并联和串联阻抗的规则为基础。
图 2.28My RoomRoomISAMy BedMy Desk My chairBedDeskChairLength Width Height 4 m3 m3 mININ IN ISA ISA ISA BookON YelloCOLOURZR 1Z 2Z 3Z 21Z 22Z 211C 1R 2C 3L 1R 3 C 2 L 2Z 32Z 31C 4L 3R 4L 42-5 试用四元数列结构表示四圆盘梵塔问题,并画出求解该问题的与或图。
用四元数列(nA, nB, nC, nD) 来表示状态,其中nA表示A盘落在第nA号柱子上,nB表示B盘落在第nB号柱子上,nC表示C盘落在第nC号柱子上,nD表示D盘落在第nD号柱子上。
初始状态为1111,目标状态为33333-3 化为子句形有哪些步骤?请结合例子说明之。
任一谓词演算公式可以化成一个子句集。
其变换过程由下列九个步骤组成:(1)消去蕴涵符号将蕴涵符号化为析取和否定符号(2)减少否定符号的辖域每个否定符号最多只用到一个谓词符号上,并反复应用狄·摩根定律(3)对变量标准化对哑元改名以保证每个量词有其自己唯一的哑元(4)消去存在量词引入Skolem函数,消去存在量词如果要消去的存在量词不在任何一个全称量词的辖域内,那么我们就用不含变量的Skolem函数即常量。
(5)化为前束形把所有全称量词移到公式的左边,并使每个量词的辖域包括这个量词后面公式的整个部分。
前束形= (前缀) (母式)前缀= 全称量词串母式= 无量词公式(6)把母式化为合取范式反复应用分配律,将母式写成许多合取项的合取的形式,而每一个合取项是一些谓词公式和(或)谓词公式的否定的析取(7)消去全称量词消去前缀,即消去明显出现的全称量词(8)消去连词符号(合取)用{合取项1,合取项2}替换明显出现的合取符号(9)更换变量名称更换变量符号的名称,使一个变量符号不出现在一个以上的子句中3-4 如何通过消解反演求取问题的答案?给出一个公式集S和目标公式L,通过反证或反演来求证目标公式L,其证明步骤如下:(1)否定L,得~L;(2)把~L添加到S中去;(3)把新产生的集合{~L,S}化成子句集;(4)应用消解原理,力图推导出一个表示矛盾的空子句NIL。
深度学习与神经网络考试试题
深度学习与神经网络考试试题一、选择题(每题 3 分,共 30 分)1、以下哪个不是深度学习常用的框架?()A TensorFlowB PyTorchC ScikitlearnD Keras2、神经网络中的激活函数的作用是?()A 增加模型的复杂度B 引入非线性C 加速模型的训练D 减少过拟合3、在卷积神经网络中,池化层的主要作用是?()A 特征提取B 减少参数数量C 增加模型的鲁棒性D 以上都是4、以下哪种情况可能导致神经网络过拟合?()A 训练数据过少B 模型过于简单C 正则化参数过大D 学习率过高5、反向传播算法用于计算?()A 输入层的误差B 输出层的误差C 各层神经元的误差D 损失函数的值6、以下哪个不是神经网络的优化算法?()A 随机梯度下降B 牛顿法C 模拟退火D 蚁群算法7、在循环神经网络中,用于解决长期依赖问题的机制是?()A 门控机制B 注意力机制C 池化机制D 卷积机制8、对于图像识别任务,以下哪种神经网络结构表现较好?()A 多层感知机B 卷积神经网络C 循环神经网络D 自编码器9、深度学习中的“深度”通常指的是?()A 数据的规模B 模型的复杂度C 网络的层数D 训练的时间10、以下哪个指标常用于评估分类模型的性能?()A 均方误差B 准确率C 召回率D 以上都是二、填空题(每题 3 分,共 30 分)1、神经网络中的神经元通过_____接收输入信号,并通过_____产生输出信号。
2、常见的激活函数有_____、_____、_____等。
3、卷积神经网络中的卷积核的大小通常为_____。
4、深度学习中的正则化方法包括_____、_____、_____等。
5、循环神经网络中的长短期记忆单元(LSTM)包含_____、_____、_____三个门。
6、图像分类任务中,数据增强的常见方法有_____、_____、_____等。
7、神经网络的训练过程包括_____和_____两个阶段。
2023年秋江苏开放大学神经网络与深度学习形考三作业
2023年秋江苏开放大学神经网络与深度学习形考三作业试题列表单选题题型:单选题客观题分值2分难度:一般得分:21深度学习中的卷积神经网络属于机器学习中的那哪种模型A深度无监督学习深度监督学习C深度半监督学习D深度强化学习学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:22对于非连续目标在深度神经网络的优化过程中,下面哪种梯度下降方法是最好的?A1-BFGS拉格朗日松弛Subgradont methodCSGDDAdaGrad学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:23深度学习中,不经常使用的初始化参数W(权重矩阵)的方法是哪种?常量初始化BMSRA初始化C高斯分布初始化DXavier初始化学生答案:A老师点评:题型:单选题客观题分值2分难度:一般得分:24请问以下和神经网络中的dropout作用机制类似的是?ABoostingBaggingCStackingD都不是学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:25关于CNN,以下说法错议的是ACNN用于解决图像的分类及回归问题CNN最初是由Hinton教授提出的CCNN是一种判别模型D第一个经典CNN模型是LeNet学生答案:B老师点评:题型:单选题客观题分值2分难度:一般得分:26关于神经网络中经典使用的优化器,以下说法正确的是A对于轻量级神经网络,使用Adam比使用RMSprop更合适BAdam的收数速度比RMSprop相比于Adam或RMSprop等优化器,SGD的收效效果是最好的D相比于SGD或RMSprop等优化器,Adam9收做效果是最好的学生答案:C老师点评:题型:单选题客观题分值2分难度:一般得分:27反向传播算法一开始计算什么内容的梯度,之后将其反向传播?A都不对B各个输入样本的平方差之和预测结果与样本标签之间的误差D各个网络权重的平方差之和学生答案:C老师点评:题型:单选题客观题分值2分难度:一般得分:28神经网络,非线性激活函数包括sigmoid/tanh/ReLU等其他说法都不正确B总是输出0/1C只在最后输出层才会用到D加速反向传播时的梯度计算学生答案:A老师点评:题型:单选题客观题分值2分难度:一般得分:29声明1:可以通过将所有权重初始化为0来训练网络。
华为HCIA人工智能试题
华为HCIA人工智能试题1. 神经网络研究属于下列哪个学派 [单选题] *符号主义连接主义(正确答案)行为主义以上都不是2. 以下哪个不是ModelArts开发类型 [单选题] *零基础建模敏捷开发(正确答案)快速建模标准模型开发3. HUWEI HIAI Engine无法提供以下哪个引擎 [单选题] * NLU引擎CV引擎ASR引擎DSP引擎(正确答案)4. 关于L1正则化与L2正则化以下表述正确的是? [单选题] * L2正则化比L1正则化产生更加稀疏的模型L1正则项有利于增强模型的泛化能力(正确答案)加上L2正则项后,无法使用梯度下降算法迭代参数值L1,L2正则项不能作用在损失函数之上。
5. 池化层一般接在哪种网络层之后。
[单选题] *输入层输出层卷积层(正确答案)全连接层6. 下列关于随机变量的分布函数,分布律,密度函数的理解描述不正确的是? [单选题] *离散型随机变量没有分布函数(正确答案)密度函数只能描述连续型随机变量的取值规律。
分布函数描述随机变量的取值规律分布律只能描述离散型随机变量的取值规律7. 感知器在空间中可以展现为? [单选题] *点(正确答案)线平面超平面8. 常见的聚类算法有哪些? [单选题] *K-means(正确答案)谱聚类密度聚类层次聚类9. 下列选项中对泊松分布与二项分布的关系描述正确的是? [单选题] *泊松分布可以代替二项分布泊松分布是二项分布当n很大p很小时的近似计算(正确答案)泊松分布与二项分布的数学模型都是拉格朗日概型泊松分布与二项分布没有关系10. Python3中5/2的结果是? [单选题] *322.5(正确答案)111. 人工智能现在的技术应用方向主要有 *控制系统语音识别(正确答案)计算机视觉(正确答案)自然语言处理(正确答案)12. 以下哪些是ModelsArts开发模式 *自定义开发(正确答案)迭代学习数据标注(正确答案)自动学习(正确答案)13. tf.keras.preprocessing的作用是? [单选题] *keras模型部署工具keras数据处理工具(正确答案)Keras生成模型工具Keras内置优化器14. Python具备以下哪些特性 *面向对象(正确答案)开源(正确答案)简单(正确答案)解释性(正确答案)15. 以下哪些选项是决策树用于划分节点的依据。
人工神经网络及应用期末测试题
“人工神经网络及应用”课程期末试题1、什么是BP网络的泛化能力?如何保证BP网络有较好的泛化能力?答:BP神经网络在经过训练后,将所提取的样本中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络中输入训练时未曾见过的非样本数据时,网络也能完成由输入空间到输出空间的正确映射,这种能力称为BP神经网络的泛化能力,它是衡量网络性能优劣的一个重要指标。
提高网络泛化能力的方法:①较多的输入样本可以提高泛化能力但不要太多,过多的样本导致过度拟合,泛化能力不佳,样本包括至少一次的转折点数据。
②隐含层神经元数量的选择,不影响性能的前提下,尽量选择小一点的神经元数量;隐含层节点太多,造成泛化能力下降。
③误差小,则泛化能力好;误差太小,则会过度拟合,泛化能力反而不佳。
④学习率的选择,特别是权值学习率,对网络性能有很大影响,太小则收敛速度很慢,且容易陷入局部极小化;太大则收敛速度快,但易出现摆动,误差难以缩小;一般权值学习率比要求误差稍微稍大一点点;另外可以使用变动的学习率,在误差大的时候增大学习率,等误差小了再减小学习率,这样可以收敛更快,学习效果更好,不易陷入局部极小化。
⑤训练时可以采用随时终止法,即是误差达到要求即终止训练,以免过度拟合;可以调整局部权值,使局部未收敛的加快收敛。
⑥在训练样本时采用周期训练的方法,把整个样本集送完之后,再调整权值;在训练样本时采用交叉验证的方法也能提高网络的泛化能力。
2、什么是LVQ网络?它与SOM网络有什么区别和联系?答:LVQ网络为学习向量量化神经网络,它是将学习竞争的思想和有监督学习的算法相结合,以减少运算量和存储量,其特点是网络的输出采用的是有监督的学习算法,其隐层采用的是学习竞争的策略。
其结构为:LVQ神经网络由三层组成,即输入层、隐含层和输出层,网络在输入层与隐含层间为完全连接,而在隐含层与输出层间为部分连接,每个输出层神经元与隐含层神经元的不同组相连接。
隐含层和输出层神经元之间的连接权值固定为1。
神经网络与模糊控制考试题及答案
神经网络与模糊控制考试题及答案work Information Technology Company.2020YEAR一、填空题1、模糊控制器由模糊化接口、解模糊接口、知识库和模糊推理机组成2、一个单神经元的输入是1.0 ,其权值是1.5,阀值是-2,则其激活函数的净输入是 -0.5 ,当激活函数是阶跃函数,则神经元的输出是 13、神经网络的学习方式有导师监督学习、无导师监督学习和灌输式学习4、清晰化化的方法有三种:平均最大隶属度法、最大隶属度取最小/最大值法和中位数法,加权平均法5、模糊控制规则的建立有多种方法,是:基于专家经验和控制知识、基于操作人员的实际控制过程和基于过程的模糊模型,基于学习6、神经网络控制的结构归结为神经网络监督控制、神经网络直接逆动态控制、神网自适应控制、神网自适应评判控制、神网内模控制、神网预测控制六类7.傅京逊首次提出智能控制的概念,并归纳出的3种类型智能控制系统是、和。
7、人作为控制器的控制系统、人机结合作为控制器的控制系统、无人参与的自主控制系统8、智能控制主要解决传统控制难以解决的复杂系统的控制问题,其研究的对象具备的3个特点为、和。
8、不确定性、高度的非线性、复杂的任务要求9.智能控制系统的主要类型有、、、、和。
9、分级递阶控制系统,专家控制系统,神经控制系统,模糊控制系统,学习控制系统,集成或者(复合)混合控制系统10.智能控制的不确定性的模型包括两类:(1) ;(2) 。
10、(1)模型未知或知之甚少;(2)模型的结构和参数可能在很大范围内变化。
11.控制论的三要素是:信息、反馈和控制。
12.建立一个实用的专家系统的步骤包括三个方面的设计,它们分别是、和。
知识库的设计推理机的设计人机接口的设计13.专家系统的核心组成部分为 和 。
知识库、推理机14.专家系统中的知识库包括了3类知识,它们分别为 、 、 和 。
判断性规则 控制性规则 数据15.专家系统的推理机可采用的3种推理方式为 推理、 和 推理。
2004级硕士生“神经网络及应用”试卷05-03-29
《神经网络及应用》试题2003级“电路与系统”、“通信与信息系统”、“信号与信息处理”专业研究生用2005年4月专业班级姓名学号一、结合本人硕士论文课题,论述神经网络理论及其应用的现状和展望,可从以下几个专题中选择其一。
(1)人工神经网络理论综述(2)人工神经网络算法综述(3)针对某种人工神经网络结构和算法的综述(4)人工神经网络与计算智能(5)人工神经网络与模糊集理论(6)人工神经网络建模(7)人工神经网络控制(8)人工神经网络的硬件实现(9)人工神经网络的应用(10)其它有关人工神经网络的内容要求:(1)不少于2500字;(2)100字左右中英文摘要及3—5个关键词;(3)参考文献15篇以上,其中2000年以后的8篇以上,国外文献不少于8篇;(4)按学术论文格式撰写;(5)“展望”部分中应有作者的观点和看法。
二、按学号尾数完成附录中相同题号的试题。
三、开卷考试。
每人交答卷1份(A4打印),软盘1张(含程序及注释),2005年9月5日前交卷。
附录0. 设计一个能完成图11-29中的分类问题的分层网络。
只要输入向量在阴影区域(或边界上),网络应输出1,否则输出-1。
图11-29 模式分类区域1. 求一个与图11-30中的网络有相同输入/输出特性的单层网络。
图11-30 两层线性网络2. 选择图11-4中1-2-1网络协议的权值和偏置值,使得网络响应曲线通过图11-31中圆圈所指示的点。
图11-31 函数逼近习题3. 图11-34中网络没有使用我们所用的标准神经元格式。
网络输出是网络输入的乘积:a++=w+ppbwpw112,1222用近似最速下降法,求和的象BP 算法中所用的那样的学习规则。
图11-34 交叉积(Cross-Produt )网络4. 对图11-6中的1-2-1网络,写一个实现BP 算法的MA TLAB 程序。
初始权值和偏置值设为均匀分布于-0.5和0.5之间的随机数(使用MATLAB 函数rand ),并训练网络使之逼近函数)8sin(1)(p p g π+=,-2≤≤p 2使用几个不同的初始条件,试验几个不同的学习速率α。
计算机视觉卷积试题
计算机视觉卷积试题
卷积神经网络(CNN)是一种在计算机视觉领域应用广泛的深度学习模型。
以下是一些关于计算机视觉卷积的试题:
1. 什么是卷积神经网络(CNN)?请解释其基本原理和工作方式。
2. 请说明卷积操作在CNN中的作用以及它是如何应用在图像处理中的。
3. 请解释卷积核在卷积神经网络中的作用是什么,以及它是如何帮助提取图像特征的。
4. 请描述CNN中常用的池化操作是什么,它的作用是什么,以及它在图像处理中的应用。
5. 请解释卷积神经网络中的步长(stride)是什么,以及它在卷积操作中的作用。
6. 请说明卷积神经网络中的填充(padding)是什么,以及它
在卷积操作中的作用。
7. 请列举一些常用的卷积神经网络的结构,例如LeNet、AlexNet、VGG、ResNet等,并简要描述它们的特点和应用领域。
以上问题涉及了卷积神经网络的基本原理、卷积操作、池化操作、步长、填充以及常见的CNN结构,希望这些回答能够帮助你更全面地了解计算机视觉中的卷积神经网络。
神经网络模拟试题
神经网络模拟试题叶伟、朱宇涛、双银锋一.填空:1.神经元(即神经细胞)是由细胞体、树突、轴突和突触四部分构成。
2.按网络结构分,人工神经元细胞可分为前馈型和反馈型,按照学习方式分可分为:有导师和无导师学习。
3.前馈型网络可分为可见层和隐含层,节点有输入结点、输出节点、计算单元。
4.反馈网络历经状态转移,直到它可能找到一个平衡状态,这个平衡状态称为吸引子。
5.神经网络工作过程主要由工作期和学习期两个阶段组成。
6.在ANN中HEBB算法最简单可描述为:如果一个处理单元从另一处理单元接收输入激励信号,而且两者都处于高激励电平,那么处理单元间的加权就应当增强。
HEBB网络代表了一种纯前向式无导师学习。
7.δ学习规则又称最小均方规则,它利用目标激活值与所得激活值之差进行学习。
其方法是:调整联系强度,使其差最小。
8.常见的七种学习规则中,无导师学习的规则是指HEB学习和胜者为王学习规则。
9.误差反传训练算法的主要思想是学习过程分为两个阶段:正向传播过程和反向过程。
10.网络吸引子分为稳定和非稳定两种,非稳定吸引子又有两种情况:有限状态指网络状态有规律地在某些状态之间振荡;而混沌状态是指网络无规律地某些状态之间振荡。
二、判断题:1.对反馈网络而言,稳定点越多,网络的联想与识别能力越强,因此,稳定点的数据目越多联想功能越好。
(╳)2.简单感知器仅能解决一阶谓词逻辑和线性分类问题,不能解决高阶谓词和非线分类问题。
(∨)3.BP算法是在无导师作用下,适用于多层神经元的一种学习,它是建立在相关规则的基础上的。
(╳)(╳)4.在误差反传训练算法中,周期性函数已被证明收敛速度比S型函数慢。
5.基于BP算法的网络的误差曲面有且仅有一个全局最优解。
(╳)6.对于前馈网络而言,一旦网络的用途确定了,那么隐含层的数目也就确定了。
(╳)7.对离散型HOPFIELD网络而言,如权矩阵为对称阵,而且对角线元素非负,那么网络在异步方式下必收敛于下一个稳定状态。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《神经网络》试题
(2004年5月9日)
张翼王利伟
一、填空
1.人工神经元网络(ANN)是由大量神经元通过极其丰富和完善
的连接而构成的自适应非线形动力学系统。
2.神经元(即神经细胞)是由细胞体、树突、轴突和突触四
部分构成。
3.大量神经元相互连接组成的ANN将显示出人脑的分布存储和容
错性、大规模并行处理、自学习、自组织和自适应性、复杂的非线形动态系统、处理复杂、不确定问题。
4.ANN发展大体可为早期阶段、过度期、新高潮、热潮。
5.神经元的动作特征主要包括空间性相加,时间性相加,阈值
作用,不应期,疲劳和可塑性。
6.神经元与输入信号结合的两种有代表的结合方式是粗结合和
密结合。
7.1943年由美国心理学家McCulloch和数学家Pitts提出的形式神经
元数学模型简称为MP 模型,它规定了神经元之间的联系方式只
有兴奋、抑制联系两种。
8.目前,神经网络模型按照网络的结构可分为前馈型和反馈型,
按照学习方式可分为有导师和无导师学习。
9.神经网络工作过程主要由学习期和工作期两个阶段组成。
10.反馈网络历经状态转移,直到它可能找到一个平衡状态,这个平
衡状态称为 吸引子 。
二、问答题
1.简述Hebb 学习规则。
Hebb 学习规则假定:当两个细胞同时兴奋时,它们之间的连接强度应该增强,这条规则与“条件反射”学说一致。
在ANN 中Hebb 算法最简单可描述为:如果一个处理单元从另一处理单元接受输入激励信号,而且如果两者都处于高激励电平,那么处理单元间加权就应当增强。
用数学来表示,就是两节点的连接权将根据两节点的激励电平的乘积来改变,即
()()i i n ij n ij ij x y ηωωω=-=∆+1
其中()n ij ω表示第(n+1)是第(n+1)次调节后,从节点j 到节点i 的连接权值;η为学习速率参数;x j 为节点j 的输出,并输入到节点i ;i y 为节点i 的输出。
2、简述自组织特征映射网络的算法。
自组织特征映射网络的算法分以下几步:
(1) 权连接初始化
就是说开始时,对所有从输入节点到输出节点的连接权值都赋以随机的小数。
时间设置t=0。
(2) 网络输入模式为
),,,(21n b
x x x =X (3) 对X k 计算X k 与全部输出节点所连接权向量T j W 的距离
},,2,1{},,,2,1{,)(21m j n i x d ij n
i k i
j ∈∈-=∑=ω (4) 具有最小距离的节点N j*竞争获胜
}{min },,2,1{*j m j j d d ∈=
(5) 在每一步学习中,N c 内的神经元自适应变化,而N c 外的神经元
保持不变。
调整输出节点N j*所连接的权值以及N j*几何邻域NE j*(t)内节点所连接权值为
),,2,1{),(),)((*n i t NE N x t j j ij k i ij ∈∈-=∆ωηω
(6) 若还有输入样本数据,那么t=t+1,转到步骤(2)。
3.假设变换23:R R →A 相对于标准基集的矩阵表示为
⎥⎦
⎤⎢⎣⎡-=100013A 求该变换相对于如下基集的矩阵:
⎭⎬⎫⎩⎨⎧⎥⎦⎤⎢⎣⎡-⎥⎦⎤⎢⎣⎡=⎪⎭
⎪⎬⎫⎪⎩⎪⎨⎧⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡-⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡-⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=20,01,320,010,102W T 解:第一步是构造如下的两个矩阵:
⎥⎦⎤⎢⎣⎡-=⎥⎥⎥⎦
⎤⎢⎢⎢⎣⎡--=2001,301110002w t B B 现在,转换形成新的矩阵表示:
[]t AB B A 1'-=ω
⎥⎥⎦⎤⎢⎢⎣⎡--=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡--⎥⎦⎤⎢⎣⎡-⎥⎥⎦⎤⎢⎢⎣⎡-=2302
121630121000210001321001'A 所以上面的矩阵就是该变换相对于基集T 和W 的矩阵表示。
4.假设有二进制原型向量
⎥⎥⎥⎥
⎦
⎤⎢⎢⎢⎢⎣⎡--=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡--=1111,111121P P
(1) 定义一个连续型的Hopfield 网络(指定连接权值)来识别这些
模式,使用Hebb 规则。
(2) 假设网络增益很大,Hopfield 网络的平衡点是什么?
解:(1)首先使用有监督的Hebb 规则,从参考向量中计算权值矩阵。
⎥⎥⎥⎥
⎦⎤⎢⎢⎢⎢⎣⎡--------+⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡--------=+=11111111111111111111111111111111)()(2211T T P P P P W 化简得
⎥⎥⎥⎥⎦
⎤⎢⎢⎢⎢⎣⎡---=2002022002202002W (2)稳定点分别是P 1,P 2,- P 1,- P 2,因为原型模式的负值也是平衡点。
也可能还有其他平衡点,如果超立方体其他的角
{}
2
,1
P
P
span中。
超立
方体共有24=16个角,四个角落入X中,四个角落入⊥
X中。