人工神经网络第2章

合集下载

人工神经网络1(第1,2章)

人工神经网络1(第1,2章)
逼近 调整目的 :使yi d i
13
b、Hebb规则(无监督学习规则)
• 神经心理学家D.O.Hebb于1949年提出生物神经元学习的假设:“当 某一突触(连接)两端的神经元的激活同步时(同时兴奋或同时抑 制时),他们间的连接强度应增加,反之则减弱。” 0 S M 1 • 假设:具有代表性的、反映环境的一组样本M个: X X X • 每个样本由N个元素构成——X s x s x s x s 反映该样本的 0 1 N 1 s s xi xj 0 X 色的分布 特征 形状的分布 的· 质感的分布 0 1 i j N 1 s s xi s xj 等。 X
w x 可以由一个(n-1)维超平面S:
j 0 j
j
0
分开两类样本。
y

ω0 ω
1
ω j ω N-
x0 x1


1
使得训练后的权值满足: X R1 N 1 时: I w j x j 0
j 0
x j xN 1
X R2
I w j x j 0
一个静态的神经元模型
4
3、常用的功能函数
• (1)线性函数
f(u) 1
0、5
(3) s函数(又称sigmoid函数)
fs(u)
0
u 0
f (u ) u
f s (u )
1 1 e u
u
• (2)硬限幅函数(包括符号函数)
fh(u)
f (u ) sgn(u )
+1
0 -1 u
1
0 u




X M 1
xi
s
xj

第2章 单层前向网络及LMS学习算法

第2章 单层前向网络及LMS学习算法
x1 x2
xj
wi1 wi 2 wij
ui
bi
i
vi
f ()
yi
wiN
xN
单层感知器模型
感知器模型与MP模型的不同之处是假定神经元 的突触权值是可变的,这样就可以进行学习。
1,若 ( wij x j b) 0 y Sgn ( wij x j b) j1 j1 y m 1,若 ( w x b) 0 ij j j1
判决边界
类 l1
类 l1
类l2
类l2
x1 0
x2 0
x1 x2 Y=w1· x1+w2· x2-b=0 0 Y=w1· 0+w2· 0-b<0
条件 b>0
“与”
0
1 1
1
0 1
0
0 1
Y=w1· 0+w2· 1-b<0
Y=w1· 1+w2· 0-b<0 Y=w1· 1+w2· 1 - b ≥0
b>w2 b>w1


单层感知器对权值向量的学习算法是基于迭代的思 想,通常是采用纠错学习规则的学习算法。 为方便起见,将偏差b作为神经元突触权值向量的第 一个分量加到权值向量中去,那么对应的输入向量 也应增加一项,可设输入向量的第一个分量固定为 +1,这样输入向量和权值向量可分别写成如下的形 式: T
X (n) 1, x1(n), x 2(n),, x m (n)
I X (n) X T (n) W (n) X (n)d (n)
LMS算法


第一步:设置变量和参量: X(n)= [1, x1(n), x2(n), …, xm(n)]为输入向量,或称 训练样本; W(n)= [b(n), w1(n), w2(n), …, wm(n)]为权值向量; b(n) 为偏差;y(n)为实际输出;d(n)为期望输出; η为学习速率;n为迭代次数。 第二步:初始化,赋给Wj(0)各一个较小的随机非零 值, n = 0;

北京交通大学研究生课程(神经网络、模糊控制及专家系统)第二章教材

北京交通大学研究生课程(神经网络、模糊控制及专家系统)第二章教材

Байду номын сангаасA e1 , A (e1 ) , e2 , A (e2 ) ,, en , A (en )
3.矢量表示法


单纯将 E 中元素 ei 与其对应的隶属度值 A (ei ) 按序写成矢量形式
A A(e1 ), A(e2 ),, A(en )
2.2 模糊集合——模糊数学的基础
集合的直积(笛卡儿积)
A B { x, y | ( x A) ( y B)} , x, y 是一个“序偶” B A { y, x | ( y B) ( x A)}
例: A {a, b}, B {1,2,3}
A B { a,1 , a,2 , a,3 , b,1 , b,2 , b,3 } B A { 1, a , 2, a , 3, a , 1, b , 2, b , 3, b } A A { a, a , a, b , b, a , b, b } B B { 1,1 , 1,2 , 1,3 , 2,1 , 2,2 , 2,3 , 3,1 , 3,2 , 3,3 }
设论域 E , E 到闭区间 [0, 1] 的任一映射 A
A : E [0, 1]
e A (e)
它确定了 E 的一个模糊子集, 简称模糊集 (或 F 集) ,记为 A 。 A 称为模糊集 A 的隶 属函数, A (e) 叫元素 e 隶属于 A 的程度,简 称隶属度。
特例
清晰集合
f :AB
称A为映射 f 的定义域, f ( A) { f ( x) | x A, f ( x) y, y B}为 f 的值域, 记 f ( A) B
几类映射:
满射

53476《计算智能》第2章PPT

53476《计算智能》第2章PPT

1, 1,
x≥0 x0
f(x)
1
0
x
-1
阶跃函数
符号函数
人工神经元--激励函数—饱和型函数
1, f (x) kx, 1,
x≥ 1 k
1≤x 1
k
k
x1 k
f(x) 1
0
x
-1
饱和型函数
人工神经元-激励函数-双曲正切函数
f
(x)
tanh(x)
ex ex
ex ex
f(x) 1
0
x
-1
双曲正切函数
参数 逻辑与 逻辑或
表 2.1 逻辑与和逻辑或神经网络结构中参数的选取
1
2
f(x)
f (x) 1 x≥0
0.5
0.5
0.75
f (x) 0 x 0
f (x) 1 x≥0
0.5
0.5
0.25
f (x) 0 x 0
逻辑与和逻辑或的实现
人工神经元-激励函数-S型函数
f (x)
1
, 0
1 exp(1 x)
f(x)
β=5.0
1
0.5 β=1
0
x
S型函数
人工神经元-激励函数-高斯函数
f (x) ex2 /2
f(x) 1
-1
0 1x
高斯函数
2、人工神经元网络结构
1 前馈型网络结构 2 反馈型网络结构
人工神经元网络结构---前馈型网络结构
学习规则是修正神经元之间连接强度或加权系数的算法, 使获得的网络结构能够适应实际需要的变化。具体说, 学习规则就是人工神经网络学习过程的一系列规定,包 括调整加权系数的规则、输出误差判定规则等。

人工神经网络 Artificial Neural Networks(1).ppt

人工神经网络 Artificial Neural Networks(1).ppt

2020/10/10
9
主要内容
第三章 感知器 感知器与人工神经网络的早期发展;单层 网能解决线性可分问题,而无法解决线形 不可分问题,要想解决这一问题,必须引 入多层网;Hebb学习律,Delta规则,感知 器的训练算法。 • 实验:实现一个感知器。
2020/10/10
10
主要内容
第四章 向后传播 •BP(Backpropagation)网络的构成及其训 练过程;隐藏层权调整方法的直观分析,BP 训练算法中使用的Delta规则(最速下降法) 的理论推导;算法的收敛速度及其改进讨论; BP网络中的几个重要问题。 •实验:实现BP算法。
第七章 循环网络
• 循环网络的组织,稳定性分析;相联存储; 统计Hopfield网与Boltzmann机;Hopfield 网用于解决TSP问题。
• BAM(Bidirectional Associative Memory) 用于实现双联存储;基本双联存储网络的 结构及训练;其他的几种相联存储网络。
2020/10/10
32
1.2.1 人工神经网络的概念
•1、定义
•1)Hecht—Nielsen(1988年)
人工神经网络是一个并行、分布处理结构,它由 处理单元及其称为联接的无向讯号通道互连而成。 这些处理单元(PE—Processing Element)具有 局部内存,并可以完成局部操作。每个处理单元 有一个单一的输出联接,这个输出可以根据需要 被分枝成希望个数的许多并行联接,且这些并行 联接都输出相同的信号,即相应处理单元的信号, 信号的大小不因分支的多少而变化。
2020/10/10
12
主要内容
第六章 统计方法 • 统计方法是为了解决局部极小点问题而引

第二章 神经网络控制系统

第二章 神经网络控制系统

2.1 神经网络发展历程
(5) 新发展阶段 90年代初,Edelman提出了Darwinism模型。 Miller基于小脑模型关节控制器(CMAC),研究了非 线性动态系统控制问题。 进化计算成为研究热点。 1990年Takagi综述性地讨论了神经网络与模糊逻辑 的结合,模糊神经网络迅速发展。
主要内容
2.5 人工神经网络的典型模型
(4)单层感知器的实例分析
单层感知器不能解决线性不可分函数,相关研究表明,线性不 可分函数的数量随着输入变量个数的增加而快速增加,甚至远远超 过了线性可分函数的个数。也就是说,单层感知器不能表达的问题 的数量远远超过了它所能表达的问题的数量。这也难怪当Minsky给 出单层感知器的这一致命缺陷时,会使人工神经网络的研究跌入漫 长的黑暗期。
2.1 神经网络发展历程 2.2 人工神经元模型 2.3 人工神经网络的结构类型 2.4 人工神经网络的学习算法 2.5 人工神经网络的典型模型 2.6 神经网络在系统建模中的应用 2.7 基于神经网络的控制方案
2.2 人工神经元模型
人工神经元模型是生物神经元的抽象和模拟,是神经网 络的最基本组成部分,一般是多输入-单输出的非线性 器件。如下图:
输 入
输 出
2.3 人工神经网络的结构类型
前馈式内层互连网络:在这种网络结构中,同一层之间存在着相互关 联,神经元之间有相互制约的关系,但从层与层之间的关系看还是前 馈式的网络结构,许多自组织神经网络大多具有这样的结构,如ART 网络等。
输 入
输 出
2.3 人工神经网络的结构类型
反馈型全互连网络:每个神经元的输出都和其他神经元相连,从而形 成了动态的反馈关系,如Hopfield网络。这种网络结构具有关于能量 函数的自寻优能力。 反馈型局部互连网络:每个神经元只和他周围若干层的神经元发生互 连关系,形成局部反馈,从整体上看,是一种网格状结构,如Elman 网络和Jordan网络。 这种网络结构因为引入了反馈,又称为动态递归神经网络 (DRNN——Dynamical Recurrent Neural Network)。动态网络由 于其内部的反馈作用,可以用较小的网络结构来实现系统的复杂行 为,所以比较适合非线性动态系统的辨识与控制。

第2、3章 神经网络与深度学习课后题参考答案

第2、3章  神经网络与深度学习课后题参考答案

2-1 分析为什么平方损失函数不适用于分类问题?损失函数是一个非负实数,用来量化模型预测和真实标签之间的差异。

我们一般会用损失函数来进行参数的优化,当构建了不连续离散导数为0的函数时,这对模型不能很好地评估。

直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。

从本质上看,平方差的意义和交叉熵的意义不一样。

概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预测分布下真实值的似然度,softmax 损失意味着真实标签的似然度。

在二分类问题中y = { + 1 , − 1 }在C 分类问题中y = { 1 , 2 , 3 , ⋅ ⋅ ⋅ , C }。

可以看出分类问题输出的结果为离散的值。

分类问题中的标签,是没有连续的概念的。

每个标签之间的距离也是没有实际意义的,所以预测值和标签两个向量之间的平方差这个值不能反应分类这个问题的优化程度。

比如分类 1,2,3, 真实分类是1, 而被分类到2和3错误程度应该是一样的,但是明显当我们预测到2的时候是损失函数的值为1/2而预测到3的时候损失函数为2,这里再相同的结果下却给出了不同的值,这对我们优化参数产生了误导。

至于分类问题我们一般采取交叉熵损失函数(Cross-Entropy Loss Function )来进行评估。

2-2 在线性回归中,如果我们给每个样本()()(,)n n x y 赋予一个权重()n r ,经验风险函数为()()()211()()2N n n T n n R w r y w x ==−∑,计算其最优参数*w ,并分析权重()n r 的作用.答:其实就是求一下最优参数*w ,即导数为0,具体如下:首先,取权重的对角矩阵:()(),,,n P diag r x y w =均以向量(矩阵)表示,则原式为:21()||||2T R P Y X Ω=−Ω ,进行求导:()0T R XP Y X ∂=−−Ω=∂Ω,解得:*1()T XPX XPY −Ω=,相比于没有P 时的Ω:1()T withoutP XX XY −Ω=,可以简单理解为()n r 的存在为每个样本增加了权重,权重大的对最优值ω的影响也更大。

D人工神经网络复习习题

D人工神经网络复习习题
1、是一个多输入单输出的信息处理单元; 2、突触分兴奋性和抑制性两种类型; 3、神经元具有空间整合特性和阀值特性; 4、输入与输出间有固定的时滞,取决于突触延搁; 5、忽略时间整合作用和不应期; 6、神经元本身是非时变的,即其突触时延和突触强度均 为常数。
2.2.1 神经元的建摸 (2/6)
上述假定,可用图2.5中的神经元模型示意图进行图解表 示。
i 1

(2 .1 )
式中 τij —— 输入i输出j间的突触延时; Tj —— 神经元j的阈值; wij —— 神经元i到j的突触连接系数值; f( ) —— 神经元转移函数。
2.2.2 神经元的数学模型(2/6)
为简单起见,将上式中的突触延时取为单位时
间,则式(2.1)可写为
n
第3章 监督学习神经网络 §3.1 单层感知器
§ 3.1.1 感知器模型 § 3.1.2 单节点感知器的功能分析 § 3.1.3 感知器的学习算法 § 3.1.4 感知器的局限性及解决途径 §3.2 基于误差反传的多层感知器—BP神经网络 § 3.2.1 BP网络模型 § 3.2.2 BP学习算法 § 3.2.3 BP算法的程序实现 § 3.2.4 BP网络的主要能力 § 3.2.5 误差曲面与BP算法的局限性 §3.3 BP算法的改进 §3.4 BP网络设计基础 §3.5 BP网络应用与设计实例 本章小结
§1.2.1 启蒙时期 …低潮时期…复兴时期…高潮时期(新高潮)………
本章小结
第2章 神经网络基础知识 §2.1 人工神经网络的生物学基础 §2.2 人工神经元模型
§ 2.2.1 神经元的建摸 § 2.2.2 神经元的数学模型 § 2.2.3 神经元的转移函数 §2.3 人工神经网络模型 § 2.3.1 网络拓扑结构类型

计算智能基础教学大纲

计算智能基础教学大纲

计算智能基础教学大纲计算智能基础教学大纲人工智能已经成为国际竞争的新焦点,其在图像识别、语音翻译、行为分析等方面得到广泛应用,智能机器人、无人商店、机器翻译、共享汽车、自动驾驶等新产品备受瞩目,在城市规划、智能交通等领域的应用也颇具特色。

本课程目的是使学生了解计算智能基础知识,掌握神经网络、模糊计算、进化算法等算法。

课程概述人工智能已经成为国际竞争的新焦点,其在图像识别、语音翻译、行为分析等方面得到广泛应用,智能机器人、无人商店、机器翻译、共享汽车、自动驾驶等新产品备受瞩目,在城市规划、智能交通等领域的应用也颇具特色。

随着新一轮科技革命和产业变革应运兴起,网络设施的演进、大数据的形成、理论算法的革新、计算能力的提升,新一代人工智能正在创造新市场、新机会,全面重塑传统行业发展模式和格局。

本课程目的是使学生了解计算智能基础知识,掌握神经网络、模糊计算、进化算法等主要计算智能算法。

通过学习本课程,学生可以学习和应用最新的深度学习等方面的最新知识和技术。

神经网络部分主要包括各种不同的神经网络结构、神经网络权值的确定和学习算法,重点介绍以多层感知器为代表的神经网络及其BP 学习算法,径向基神经网络以及神经网络在分类和函数拟合中的应用等;模糊逻辑及模糊控制部分主要包括模糊集合、隶属度函数、模糊逻辑和模糊推理以及模糊控制等方面的一些基础知识;进化计算部分主要包括遗传算法、蚁群算法、粒子群算法等。

授课目标使学生了解计算智能基础知识,掌握神经网络、模糊计算、进化算法等主要计算智能算法,并为学习后继课程打下良好的知识基础。

1、掌握计算智能基本理论、方法、技术等基础知识,包括人工神经网络基础、BP神经网络及设计、自组织神经网络及设计、反馈神经网络、模糊逻辑及其应用简介、模糊集合与隶属度函数、模糊模式识别、模糊聚类分析、模糊推理、模糊控制理论、进化算法的基本概念、进化算法中的遗传算法和粒子群算法。

2、获得计算智能在现代交通工程领域分析问题、开展研究、设计解决方案的基本训练,获得一定的使用现代工具的锻炼。

第2章 人工智能基础知识——知识表示与搜索

第2章 人工智能基础知识——知识表示与搜索

搜索原理及方法
知识的表示是为了机器人大脑能进一步解决问题,从问题表示到问 题的解决,有个求解的过程,也就是数据搜索过程。采用适当的搜 索技术,包括各种规则、过程和算法等推理技术,力求找到问题的 解答。
搜索原理及方法
搜索原理及方法
搜索原理及方法搜索Fra bibliotek理及方法搜索原理及方法
Google DeepMind团队在2016年3月 份发布的一个叫做Alpha Go算法,以41的成绩击败了韩国世界冠军李世石,这 推翻了之前否定机器不可能战胜人类的科 幻电影和怀疑论者。大约一年后,新发布 的Alpha Zero以100-0的成绩战胜了它 的前代Alpha Go,这是人类一个很难达 到的高度。
• 基本语义关系——属性关系
知识表示简介
• 基本语义关系——时间关系
声音信号
信号处理及 特征提取
发音词典
解码器 统计声学模型
识别结果 语言模型
声学资料
文本资料
知识表示简介
• 基本语义关系——位置关系/相似关系/推论关系
智能系统 困难问题
是一种 能解决
能模拟
专家系统
具有
专家思维 专家知识
专家系统语义网络及推论
搜索原理及方法
蒙特卡罗树搜索的主要概念是搜索。搜索是一组沿着游戏树的遍历,单次遍历 是从根节点(当前游戏状态)到未完全展开的节点的路径。未完全展开的节点 意味着至少有一个子节点未被访问,而没有被探索。遇到未完全展开的节点 时,其子节点不会选择成为一个根节点。然后将模拟结果反向传播到当前游戏 树节点以统计数据。一旦搜索(受时间或计算能力限制)终止,则根据收集的 统计信息选择移动。
人工神经网络应用
经济领域的应用 市场价格预测 风险评估

神经网络第二章

神经网络第二章

0 0
0.2
0.4
0.6
0.8
1
Hr=abs(H);
5
Hphase=angle(H);
0
Hphaseu=unwrap(Hphase); subplot(311),plot(Hr)
-5
0
0.2
0.4
0.6
0.8
1
0
subplot(312),plot(Hphase) subplot(313),plot(Hphaseu)
显示离散系统的极零图函数:zplane.m
本文件可用来显示离散系统的极-零图。 其调用格式是:
zplane(z,p), 或 zplane(b,a), 前者是在已知系统零点的列向量z和极点的 列向量p的情况下画出极-零图,后者是在 仅已知A(z)、B(z) 的情况下画出极-零图。
例1: 系统 y ( n ) x ( n ) 4 x ( n 1 ) 4 x ( n 2 )
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
5
subplot(312),
plot(Hphase) 0
subplot(313),
plot(Hphaseu)
-5 0
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
1
0
-10
-20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
[r,p,k]= residuez(b,a) 0
2
2
[b,a]= residuez(r,p,k) -0.5
r =[]; p=[]; k=[1 -4 4];
-1
-1
-0.5

第2章前向多层人工神经网络01

第2章前向多层人工神经网络01
硬限幅函数001huuufueuf1ss函数sigmoid20060914第8页前项人工神经网络的拓扑结构前层的输出作为后层的输入各层的神经元个数可以不同层数两层以上目前大多为3层同层神经元不能连接后层不能向前层反向连接连接强度即权值大小可以为0强度为0实际上就是没有连接输入矢量x代表从客观对象观测得到的特征输出层包含一个或多个神经元用于表达更为复杂的运算结果20060914第9页22采用硬限幅函数时单个神经元的分类功能线性可分性linearseparable设有c0和c1两类模式r0c0类模式的样本集r1c1类模式的样本集分类的第一步在两类样本分布区域之间寻找一个分类函数分类线面使得两类样本各处在一边实现这一目标的过程称为学习或训练所用到的计算策略称为学习算法样本集合r0和r1称为学习样本集合
2019/4/7
神经元模型
神经元的输入:
第 6 页
X x0 x1 xN 1
所完成的运算为:
N -1 T Net W X wi xi i 0 y f Net
式中: W w0 w1 wN 1
称为神经元的“权值矢量”;
2019/4/7
第 8 页
§2.2 采用硬限幅函数时单个神经元的分类功能
线性可分性( Linear Separable )
设有C0和C1两类模式
第 9 页
R0:C0类模式的样本集; R1:C1类模式的样本集;
分类的第一步:在两类样本分布区域
之间寻找一个分类函数(分类线、面)
给定两类 C0 和 C1 的学习样本集合
第二章 前向多层人工神经网络
§ 2.1 概 述
ANN的主要功能之一 —— 模式识别 ( Pattern Recognition ) 模式识别是人类的一项基本智能行为,在日常生活中,我们几乎 时刻在进行着“模式识别”。

人工神经网络模型及仿真

人工神经网络模型及仿真

机器学习论文题目:人工神经网络模型及仿真学院:电子工程学院专业:电路与系统姓名:学号:摘要人工神经网络(artificial neural network,ANN)通常被认为是基于生物学产生的很复杂的分析技术,能够拟合极其复杂的非线性函数。

它是一项发展十分迅速、应用领域十分广泛的技术,已在人工智能、自动控制、模式识别等许多应用领域中取得广泛成功。

ANN是一种重要的机器学习工具。

本文首先简要讲述了一些相关的生物神经网络知识,在此基础上,引出了人工神经网络。

然后概述了ANN的发展历史及现状并总结了ANN的特点。

在第二部分,对ANN发展过程中具有标志性的几种ANN的模型及其结构进行了讲解,如:感知器、线性神经网络、BP网络、反馈网络等,并给出了相应的简单应用事例,而且使用功能强大的仿真软件——MATLAB对它们的性能进行了仿真分析。

在论文最后,给出了本文的总结以及作者的一些体会。

ABSTRACTArtificial neural network(ANN) is commonly known as biologically inspired, highly sophisticated analytical technique, capable of capturing highly complex non-linear functions. ANN is a kind of widely applied technique developed highly,and it has been applied sucessfully in the domains, such as artificial intelligence, autocontrol, pattern recognition and so on. In addition, ANN is a significant means of machine learning.In this paper,the author firstly show some basic biological neural networks, on which the introduction of artificial neural network is based. Then, the author dispicts simplily the history of ANN and the present condition of ANN, and concludes the characters of ANN. In the second part of the paper, the models and structures of ANNs which representive the ANN’s development are emphasized, such as perceptron,linear neural network,BP neural network,recurrent network and so on, and some examples based on those networks are illustrated. In addition, the author simulate the performance of the ANNs by a powerful software, MATLAB. At last, the author puts forward the conclutions of this paper and his thoughts.目录第一章神经网络 (1)1.1 生物学神经网络 (1)1.2 人工神经网络 (2)1.2.1 人工神经网络的产生 (2)1.2.2 人工神经网络的发展 (3)1.2.3 人工神经网络的现状 (5)1.3 人工神经网络的特点 (5)第二章人工神经网络模型及仿真 (6)2.1 人工神经元建模 (6)2.1.1 人工神经元的基本构成 (6)2.1.2 激活函数 (7)2.2 感知器 (8)2.2.1 感知器模型 (8)2.2.2 感知器网络设计实例 (9)2.3 线性神经网络 (10)2.3.1线性神经网络模型 (10)2.3.2线性神经网络设计实例 (10)2.4 BP网络 (11)2.4.1 BP网络模型 (11)2.4.2 BP网络设计实例 (12)2.5 径向基函数网络 (15)2.5.1径向基函数网络模型 (15)2.5.2径向基函数网络设计实例 (16)2.6 竞争型网络 (18)2.6.1竞争型网络模型 (18)2.6.2竞争型网络设计实例 (18)2.7 反馈型网络 (20)2.7.1 Elman网络 (20)2.7.2 Hopfield网络 (23)第三章本文总结 (26)参考文献 (28)第一章神经网络人工神经网络(artificial neural network,ANN)是通过对生物神经网络进行抽象,并综合运用信息处理技术、数学手段等建立简化模型而发展起来的一门交叉学科。

在线网课《人工神经网络及应用(长安大学)》课后章节测试答案

在线网课《人工神经网络及应用(长安大学)》课后章节测试答案

第一章测试1【判断题】(1分)Synapseistheplacewhereneuronsconnectinfunction.Itiscomposedofpresynapticmembra ne,synapticspaceandpostsynapticmembrane.()A.对B.错2【单选题】(1分)Biologicalneuronscanbedividedintosensoryneurons,motorneuronsand()accordingtoth eirfunctions.A.multipolarneuronsB.interneuronsC.PseudounipolarneuralnetworksD.bipolarneurons3【判断题】(1分)Neuronsandglialcellsarethetwomajorpartsofthenervoussystem.()A.错B.对4【判断题】(1分)Neuronsarehighlypolarizedcells,whicharemainlycomposedoftwoparts:thecellbodyandth esynapse.()A.对B.错5【判断题】(1分)Thehumanbrainisanimportantpartofthenervoussystem,whichcontainsmorethan86billion neurons.Itisthecentralinformationprocessingorganizationofhumanbeings.()A.对B.错第二章测试1【单选题】(1分)In1989,Mead,thefatherofVLSI,publishedhismonograph"()",inwhichageneticneuralnetwo rkmodelbasedonevolutionarysystemtheorywasproposed.A.AnalogVLSIandNeuralSystemsB.JournalNeuralNetworksC.LearningMachinesD.Perceptrons:AnIntroductiontoComputationalGeometry2【判断题】(1分)In1989,YannLecunproposedconvolutionalneuralnetworkandappliedittoimageprocessin g,whichshouldbetheearliestapplicationfieldofdeeplearningalgorithm.()A.对B.错3【判断题】(1分)In1954,Eccles,aneurophysiologistattheUniversityofMelbourne,summarizedtheprinciple ofDale,aBritishphysiologist,that"eachneuronsecretesonlyonekindoftransmitter".()A.错B.对4【判断题】(1分)In1972,ProfessorKohonenofFinlandproposedaself-organizingfeaturemap(SOFM)neural networkmodel.()A.对B.错5【判断题】(1分)Predictionandevaluationisanactivityofscientificcalculationandevaluationofsomecharacte risticsanddevelopmentstatusofthingsoreventsinthefutureaccordingtotheknowninformati onofobjectiveobjects.()A.对B.错第三章测试1【判断题】(1分) Thefunctionoftransferfunctioninneuronsistogetanewmappingoutputofsummeraccordingt othespecifiedfunctionrelationship,andthencompletesthetrainingofartificialneuralnetwork.()A.对B.错2【判断题】(1分)Thedeterminantchangessignwhentworows(ortwocolumns)areexchanged.Thevalueofdet erminantiszerowhentworows(ortwocolumns)aresame.()A.错B.对3【判断题】(1分)Therearetwokindsofphenomenaintheobjectiveworld.Thefirstisthephenomenonthatwillha ppenundercertainconditions,whichiscalledinevitablephenomenon.Thesecondkindisthep henomenonthatmayormaynothappenundercertainconditions,whichiscalledrandomphen omenon.()A.错B.对4【判断题】(1分)LogarithmicS-typetransferfunction,namelySigmoidfunction,isalsocalledS-shapedgrowth curveinbiology.()A.对B.错5【判断题】(1分)Rectifiedlinearunit(ReLU),similartotheslopefunctioninmathematics,isthemostcommonly usedtransferfunctionofartificialneuralnetwork.()A.对B.错第四章测试1【单选题】(1分) Theperceptronlearningalgorithmisdrivenbymisclassification,sothestochasticgradientdes centmethodisusedtooptimizethelossfunction.()A.misclassificationB.maximumC.minimumD.correct2【判断题】(1分)Perceptronisasingle-layerneuralnetwork,orneuron,whichisthesmallestunitofneuralnetwo rk.()A.对B.错3【判断题】(1分)Whentheperceptronislearning,eachsamplewillbeinputintotheneuronasastimulus.Theinp utsignalisthefeatureofeachsample,andtheexpectedoutputisthecategoryofthesample.Wh entheoutputisdifferentfromthecategory,wecanadjustthesynapticweightandbiasvalueuntil theoutputofeachsampleisthesameasthecategory.()A.对B.错4【判断题】(1分) Ifthesymmetrichardlimitfunctionisselectedforthetransferfunction,theoutputcanbeexpressedas.Iftheinnerproductoftherowvectorandtheinputvectorin theweightmatrixisgreaterthanorequalto-b,theoutputis1,otherwisetheoutputis-1.()A.错B.对5【判断题】(1分) Thebasicideaofperceptronlearningalgorithmistoinputsamplesintothenetworkstepbystep, andadjusttheweightmatrixofthenetworkaccordingtothedifferencebetweentheoutputresul tandtheidealoutput,thatistosolvetheoptimizationproblemoflossfunctionL(w,b).()A.对B.错第五章测试1【单选题】(1分)TheoutputofBPneuralnetworkis()ofneuralnetwork.A.theinputofthelastlayerB.theoutputofthesecondlayerC.theoutputofthelastlayerD.theinputofthesecondlayer2【判断题】(1分) BPneuralnetworkhasbecomeoneofthemostrepresentativealgorithmsinthefieldofartificiali ntelligence.Ithasbeenwidelyusedinsignalprocessing,patternrecognition,machinecontrol (expertsystem,datacompression)andotherfields.()A.错B.对3【判断题】(1分)In1974,PaulWerbosofthenaturalsciencefoundationoftheUnitedStatesfirstproposedtheus eoferrorbackpropagationalgorithmtotrainartificialneuralnetworksinhisdoctoraldissertatio nofHarvardUniversity,anddeeplyanalyzedthepossibilityofapplyingittoneuralnetworks,eff ectivelysolvingtheXORloopproblemthatsinglesensorcannothandle.()A.错B.对4【判断题】(1分) InthestandardBPneuralnetworkalgorithmandmomentumBPalgorithm,thelearningrateisa constantthatremainsconstantthroughoutthetrainingprocess,andtheperformanceofthelea rningalgorithmisverysensitivetotheselectionofthelearningrate.()A.对B.错5【判断题】(1分)L-Malgorithmismainlyproposedforsuperlargescaleneuralnetwork,anditisveryeffectiveinp racticalapplication.()A.对B.错第六章测试1【判断题】(1分) RBFneuralnetworkisanovelandeffectivefeedforwardneuralnetwork,whichhasthebestloc alapproximationandglobaloptimalperformance.()A.对B.错2【判断题】(1分)Atpresent,RBFneuralnetworkhasbeensuccessfullyappliedinnonlinearfunctionapproxima tion,timeseriesanalysis,dataclassification,patternrecognition,informationprocessing,ima geprocessing,systemmodeling,controlandfaultdiagnosis.()A.对B.错3【判断题】(1分) ThebasicideaofRBFneuralnetworkistouseradialbasisfunctionasthe"basis"ofhiddenlayer hiddenunittoformhiddenlayerspace,andhiddenlayertransformsinputvector.Theinputdata transformationoflowdimensionalspaceismappedintohigh-dimensionalspace,sothatthepr oblemoflinearseparabilityinlow-dimensionalspacecanberealizedinhigh-dimensionalspac e.()A.对B.错4【判断题】(1分)ForthelearningalgorithmofRBFneuralnetwork,thekeyproblemistodeterminethecenterpar ametersoftheoutputlayernodereasonably.()A.对B.错5【判断题】(1分) ThemethodofselectingthecenterofRBFneuralnetworkbyself-organizinglearningistoselec tthecenterofRBFneuralnetworkbyk-meansclusteringmethod,whichbelongstosupervisedl earningmethod.()A.对B.错第七章测试1【判断题】(1分)Intermsofalgorithm,ADALINEneuralnetworkadoptsW-Hlearningrule,alsoknownasthelea stmeansquare(LMS)algorithm.Itisdevelopedfromtheperceptronalgorithm,anditsconverg encespeedandaccuracyhavebeengreatlyimproved.()A.对B.错2【判断题】(1分)ADALINEneuralnetworkhassimplestructureandmulti-layerstructure.Itisflexibleinpractical applicationandwidelyusedinsignalprocessing,systemidentification,patternrecognitionan dintelligentcontrol.()A.错B.对3【判断题】(1分)WhentherearemultipleADALINEinthenetwork,theadaptivelinearneuralnetworkisalsocall edMadalinewhichmeansmanyAdalineneuralnetworks.()A.对B.错4【判断题】(1分)Thealgorithmusedinsingle-layerADALINEnetworkisLMSalgorithm,whichissimilartotheal gorithmofperceptron,andalsobelongstosupervisedlearningalgorithm.()A.对B.错5【判断题】(1分)Inpracticalapplication,theinverseofthecorrelationmatrixandthecorrelationcoefficientaren oteasytoobtain,sotheapproximatesteepestdescentmethodisneededinthealgorithmdesig n.Thecoreideaisthattheactualmeansquareerrorofthenetworkisreplacedbythemeansquar eerrorofthek-thiteration.()A.错B.对第八章测试1【单选题】(1分) Hopfieldneuralnetworkisakindofneuralnetworkwhichcombinesstoragesystemandbinarys ystem.Itnotonlyprovidesamodeltosimulatehumanmemory,butalsoguaranteestheconver genceto().A.localminimumB.minimumC.localmaximumD.maximum2【判断题】(1分)Atpresent,researchershavesuccessfullyappliedHopfieldneuralnetworktosolvethetravelin gsalesmanproblem(TSP),whichisthemostrepresentativeofoptimizationcombinatorialpro blems.()A.错B.对3【判断题】(1分)In1982,AmericanscientistJohnJosephHopfieldputforwardakindoffeedbackneuralnetwor k"Hopfieldneuralnetwork"inhispaperNeuralNetworksandPhysicalSystemswithEmergent CollectiveComputationalAbilities.()A.错B.对4【判断题】(1分)Undertheexcitationofinputx,DHNNentersadynamicchangeprocess,untilthestateofeachn euronisnolongerchanged,itreachesastablestate.Thisprocessisequivalenttotheprocessof networklearningandmemory,andthefinaloutputofthenetworkisthevalueofeachneuroninth establestate.()A.对B.错5【判断题】(1分)Theorderinwhichneuronsadjusttheirstatesisnotunique.Itcanbeconsideredthatacertainor dercanbespecifiedorselectedrandomly.Theprocessofneuronstateadjustmentincludesthr eesituations:from0to1,and1to0andunchanged.()A.对B.错第九章测试1【判断题】(1分)ComparedwithGPU,CPUhashigherprocessingspeed,andhassignificantadvantagesinpro cessingrepetitivetasks.()A.错B.对2【判断题】(1分)Atpresent,DCNNhasbecomeoneofthecorealgorithmsinthefieldofimagerecognition,butiti sunstablewhenthereisasmallamountoflearningdata.()A.对B.错3【判断题】(1分)Inthefieldoftargetdetectionandclassification,thetaskofthelastlayerofneuralnetworkistocla ssify.()A.错B.对4【判断题】(1分)InAlexNet,thereare650000neuronswithmorethan600000parametersdistributedinfivecon volutionlayersandthreefullyconnectedlayersandSoftmaxlayerswith1000categories.()A.错B.对5【判断题】(1分)VGGNetiscomposedoftwoparts:theconvolutionlayerandthefullconnectionlayer,whichca nberegardedasthedeepenedversionofAlexNet.()A.错B.对第十章测试1【单选题】(1分)TheessenceoftheoptimizationprocessofDandGistofindthe().A.maximumB.localmaximaC.minimaxD.minimum2【判断题】(1分)Intheartificialneuralnetwork,thequalityofmodelingwilldirectlyaffecttheperformanceoftheg enerativemodel,butasmallamountofpriorknowledgeisneededfortheactualcasemodeling.()A.对B.错3【判断题】(1分)AGANmainlyincludesageneratorGandadiscriminatorD.()A.对B.错4【判断题】(1分) Becausethegenerativeadversarialnetworkdoesnotneedtodistinguishthelowerboundand approximateinference,itavoidsthepartitionfunctioncalculationproblemcausedbythetraditi onalrepeatedapplicationofMarkovchainlearningmechanism,andimprovesthenetworkeffi ciency.()A.对B.错5【判断题】(1分)Fromtheperspectiveofartificialintelligence,GANusesneuralnetworktoguideneuralnetwor k,andtheideaisverystrange.()A.对B.错第十一章测试1【判断题】(1分) ThecharacteristicofElmanneuralnetworkisthattheoutputofthehiddenlayerisdelayedandst oredbythefeedbacklayer,andthefeedbackisconnectedtotheinputofthehiddenlayer,which hasthefunctionofinformationstorage.()A.错B.对2【判断题】(1分)InElmannetwork,thetransferfunctionoffeedbacklayerisnonlinearfunction,andthetransferf unctionofoutputlayerislinearfunction.()A.对B.错3【判断题】(1分) Thefeedbacklayerisusedtomemorizetheoutputvalueoftheprevioustimeofthehiddenlayer unitandreturnittotheinput.Therefore,Elmanneuralnetworkhasdynamicmemoryfunction.()A.对B.错4【判断题】(1分) TheneuronsinthehiddenlayerofElmannetworkadoptthetangentS-typetransferfunction,w hiletheoutputlayeradoptsthelineartransferfunction.Ifthereareenoughneuronsinthefeedb acklayer,thecombinationofthesetransferfunctionscanmakeElmanneuralnetworkapproac hanyfunctionwitharbitraryprecisioninfinitetime.()A.错B.对5【判断题】(1分)Elmanneuralnetworkisakindofdynamicrecurrentnetwork,whichcanbedividedintofullfeed backandpartialfeedback.Inthepartialrecurrentnetwork,thefeedforwardconnectionweight canbemodified,andthefeedbackconnectioniscomposedofagroupoffeedbackunits,andthe connectionweightcannotbemodified.()A.对B.错第十二章测试1【单选题】(1分)ThelossfunctionofAdaBoostalgorithmis().A.exponentialfunctionB.linearfunctionC.logarithmicfunctionD.nonlinearfunction2【判断题】(1分)Boostingalgorithmisthegeneralnameofaclassofalgorithms.Theircommongroundistocons tructastrongclassifierbyusingagroupofweakclassifiers.Weakclassifiermainlyreferstothec lassifierwhosepredictionaccuracyisnothighandfarbelowtheidealclassificationeffect.Stro ngclassifiermainlyreferstotheclassifierwithhighpredictionaccuracy.()A.对B.错3【判断题】(1分)Amongthemanyimprovedboostingalgorithms,themostsuccessfuloneistheAdaBoost(ada ptiveboosting)algorithmproposedbyYoavFreundofUniversityofCaliforniaSanDiegoandR obertSchapireofPrincetonUniversityin1996.()A.错B.对4【判断题】(1分) ThemostbasicpropertyofAdaBoostisthatitreducesthetrainingerrorcontinuouslyinthelearn ingprocess,thatis,theclassificationerrorrateonthetrainingdatasetuntileachweakclassifieri scombinedintothefinalidealclassifier.()A.错B.对5【判断题】(1分) Themainpurposeofaddingregularizationtermintotheformulaofcalculatingstrongclassifieri stopreventtheoverfittingofAdaBoostalgorithm,whichisusuallycalledstepsizeinalgorithm.()A.错B.对第十三章测试1【单选题】(1分)ThecorelayerofSOFMneuralnetworkis().A.hiddenlayerB.inputlayerC.competitionlayerD.outputlayer2【单选题】(1分)Inordertodividetheinputpatternsintoseveralclasses,thedistancebetweeninputpatternvect orsshouldbemeasuredaccordingtothesimilarity.()areusuallyused.A.SinemethodB.CosinemethodC.EuclideandistancemethodD.Euclideandistancemethodandcosinemethod3【判断题】(1分) SOFMneuralnetworksaredifferentfromotherartificialneuralnetworksinthattheyadoptcom petitivelearningratherthanbackwardpropagationerrorcorrectionlearningmethodsimilarto gradientdescent,andinasense,theyuseneighborhoodfunctionstopreservetopologicalpro pertiesofinputspace.()A.对B.错4【判断题】(1分)ForSOFMneuralnetwork,thecompetitivetransferfunction(CTF)responseis0forthewinning neurons,and1forotherneurons.()A.错B.对5【判断题】(1分) Whentheinputpatterntothenetworkdoesnotbelongtoanypatterninthenetworktrainingsam ples,SOFMneuralnetworkcanonlyclassifyitintotheclosestmode.()A.错B.对第十四章测试1【单选题】(1分)Theneuralnetworktoolboxcontains()modulelibraries.A.fiveB.threeC.sixD.four2【单选题】(1分) The"netprod"inthenetworkinputmodulecanbeusedfor().A.dotdivisionB.additionorsubtractionC.dotmultiplicationordotdivisionD.dotmultiplication3【判断题】(1分)The"dotrod"intheweightsettingmoduleisanormaldotproductweightfunction.()A.错B.对4【判断题】(1分)Themathematicalmodelofsingleneuronisy=f(wx+b).()A.错B.对5【判断题】(1分)Theneuronmodelcanbedividedintothreeparts:inputmodule,transferfunctionandoutputmo dule.()A.错B.对第十五章测试1【判断题】(1分)Inlarge-scalesystemsoftwaredesign,weneedtoconsiderthelogicalstructureandphysicalst ructureofsoftwarearchitecture.()A.错B.对2【判断题】(1分)Themenupropertybarhas"label"and"tag".Thelabelisequivalenttothetagvalueofthemenuit em,andthetagisthenameofthemenudisplay.()A.错B.对3【判断题】(1分)Itisnecessarytodeterminethestructureandparametersoftheneuralnetwork,includingthenu mberofhiddenlayers,thenumberofneuronsinthehiddenlayerandthetrainingfunction.()A.错B.对4【判断题】(1分) Thedescriptionoftheproperty"tooltipstring"isthepromptthatappearswhenthemouseisover theobject.()A.对B.错5【判断题】(1分)Thedescriptionoftheproperty"string"is:thetextdisplayedontheobject.()A.错B.对第十六章测试1【单选题】(1分) Thedescriptionoftheparameter"validator"ofthewx.TextCtrlclassis:the().A.styleofcontrolB.validatorofcontrolC.sizeofcontrolD.positionofcontrol2【单选题】(1分) Thedescriptionoftheparameter"defaultDir"ofclasswx.FileDialogis:().A.savethefileB.defaultpathC.openthefileD.defaultfilename3【判断题】(1分) InthedesignofartificialneuralnetworksoftwarebasedonwxPython,creatingGUImeansbuild ingaframeworkinwhichvariouscontrolscanbeaddedtocompletethedesignofsoftwarefuncti ons.()A.错B.对4【判断题】(1分)Whenthewindoweventoccurs,themaineventloopwillrespondandassigntheappropriateev enthandlertothewindowevent.()A.错B.对5【判断题】(1分)Fromtheuser'spointofview,thewxPythonprogramisidleforalargepartofthetime,butwhenth euserortheinternalactionofthesystemcausestheevent,andthentheeventwilldrivethewxPy thonprogramtoproducethecorrespondingaction.()A.对B.错。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
部分纠错学习规则存在“局部极小值”问 题,不能保证一定收敛于全局最小点
相关学习规则
仅根据相互连接的神经元的激活水平调整 连接权
经常应用在能够实现自联想记忆的人工神 经网络模型中,用于实现执行特殊记忆状 态的死记硬背式学习
随机学习规则
随机学习规则利用了随机过程、概率和能 量的关系调整连接权
2.3 M-P模型
对n个互连神经元中的第j个神经元,其输入
向量为
,其中xi表示神经元的
状态,其取值为0或1,分别代表神经元的
抑制和兴奋状态
各个输入神经元节点i到神经元节点j的加权
向量为
,其中wij表示输入
神经元节点i与神经元节点j之间的连接权
神经元j的阈值为θj, 神经元j的输入加权和sj为 神经元j的转移函数为
Hebb学习规则与“条件反射”学说一致, 已经得到了神经细胞学说的证实
纠错学习规则
应用在采用有指导的学习方式的人工神经 网络模型中
根据来自输出节点的外部反馈(期望输出)调 整连接权,使得网络输出节点的实际输出 与外部的期望输出一致
学习训练时需要大量的训练样本,因此训 练时的收敛速度较慢
网络并不基于某种确定性算法调整连接权 值,而是按照某种概率分布进行处理
可能使网络避免陷入局部极小点而到达全 局最小点
胜者为王学习规则
一种竞争学习规则,应用在采用无指导的 学习方式的人工神经网络模型中
在神经网络的竞争层,对一个特定输入模 式X,只有具有最大加权和的神经元j才能够 获胜
◦ eg: Hopfield网络, Boltzmann机
2.4 人工神经网络的互连结构(2)
2.5 人工神经网络的学习
2.5.1 人工神经网络的学习方式 2.5.2 基本的神经网络学习规则
2.5.1 ANN的学习方式
人工神经网络的学习过程 ◦ 网络连接权值的调整过程
人工神经网络的学习方式 (评价标准) ◦ 有指导的学习 评价标准由外部提供 (期望输出) ◦ 无指导的学习 评价标准由网络自身提供 ◦ 灌输式的学习:通过设计得到网络连接权
阶跃函数,输出状态为
2.4 人工神经网络的互连结构(1)
无反馈的层内无互连层次结构 ◦ 单纯型层次结构:输入层/隐含层/输出层 ◦ eg:BP模型
有反馈的层内无互连层次结构 无反馈的层内互连层次结构
◦ eg:自组织神经网络 有反馈的互连非层次结构
◦ 相互结合型结构,网络中的任意两个神经 元之间都可能存在连接
神经元j的输出为
2.2.2 转移函数(1)
2.2.2 转移函数(2)
线性函数 ◦ 线性函数 ◦ 非线性分段函数
阈值函数 ◦ 阶跃函数
◦ 符号函数
2.2.2 转移函数(2)
非线性函数(S型函数) ◦ Sigmoid函数
◦ 双曲正切函数
概率型函数 ◦ 神经元的输入与输出之间的关系不确定, 使用随机函数描述输出状态为0或1的概率
轴突:细胞的输出端 树突:细胞的输入端 突触:轴突与树突的接口
2.1.2 生物神经元的功能
时空整合功能 兴奋与抑制状态 脉冲与电位转换 神经纤维传导速度 突触延时和不应期 学习、遗忘和疲劳
2.2 人工神经元模型
2.2.1 人工神经元的形式化描述 2.2.2 转移函数
2.5.2 基本的ANN学习规则
Hebb学习规则 纠错学习规则 相关学习规则 随机学习规则 胜者为王学习规则 内星和外星学习规则
Hebb学习规则
调整神经元i到神经元j之间的连接权值wij的 方法是:若第i个神经元与第j个神经元同时 处于兴奋状态,则它们之间的连接应当加 强
胜者为王学习规则调整获胜神经元输入连 接权值的结果就是使其进一步接近当前的 输入模式X
内星和外星学习规则
内星学习规则用于训练内星节点响应一个 特定的输入模式X
外星学习规则用于调整与外星节点j相连的 外星输出连接权Tj,使其接近期望的输出模 式Y
Байду номын сангаас
第2章 人工神经网络基础
目录
2.1 生物神经系统 2.2 人工神经元模型 2.3 M-P模型 2.4 人工神经网络的互连结构 2.5 人工神经网络的学习
2.1 生物神经系统
2.1.1 生物神经元的结构 2.1.2 生物神经元的功能
2.1.1 生物神经元的结构
细胞体:生物神经元的主体 ◦ 细胞核 ◦ 细胞质 ◦ 细胞膜 膜电位:细胞膜内外 电位差
输入神经元节点连接到神经元节点j的加
权向量为
,其中wij表示从
第i个输入神经元节点到节点j的加权值。
神经元j的阈值为θj,如果用x0=1的固定偏 置输入节点表示阈值节点,则它与神经元j之
间的连接强度为w0j=-θj。
2.2.1 人工神经元的形式化描述(3)
神经元j的输入加权和为: 神经元j的输出状态为: 如果向量Xj和Wj分别包含了x0和w0j,则
2.2.1 人工神经元的形式化描述(1)
人工神经元的功能
◦ 加权:对每个输入信号进行处理以确定 其强度
◦ 求和:确定所有输入信号的组合效果 ◦ 转移特性:确定其输出
2.2.1 人工神经元的形式化描述(2)
人工神经元模型
设神经元j的输入向量为

其中xi表示第i个神经元的输出,n表示输入 神经元的个数。
相关文档
最新文档