2章 基础知识 (续)人工神经网络常用学习规则PPT课件

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

因此,Widrow-Hoff学习规则可以看成是学 习规则的一个特殊情况。该学习规则与神 经元采用的转移函数无关,因而不需要对 转移函数求导数,不仅学习速度较快,而 且具有较高的精度。权值可初始化为任意 值。
2021Байду номын сангаас
式中,当实际输出与期望值相同时,权值不需要 调整;在有误差存在情况下,由
于 、d j , sg W n j T X 1 , 1
权值调整公式简化为
Wj 2X
感器学习规则只适用于二进制神经元,初始权值 可取任意值。
感知器学习规则代表一种有导师学习。由于感知 器理论是研究其他神经网络的基础,该规则对于 神经网络的有导师学习具有极为重要的意义。
i j d j o jfn jx ie i 0 , 1 t , ,n
学习规则可推广到多层前馈网络中,权值 可初始化为任意值。
2021
4)Widrow-Hoff学习规则 1962年,Bernard Widrow和Marcian Hoff
提出了Widrow-Hoff学习规则,又称为最小 均方规则(LMS)。Widrow-Hoff学习规则的 学习信号为
2021
rf W jTX
式中 W为权向量,X为输入向量。权向量的 调整公式为
W j fW jTXX
2021
权向量中,每个分量的调整由下式确定
ij fW j T X x i o j x i
上式表明,权值调整量与输入输出的乘积成正比。 显然,经常出现的输入模式将对权向量有最大的 影响。在这种情况下,Hebbian学习规则需预先 设置权饱和值,以防止输入和输出正负始终一致 时出现权值无约束增长。此外,要求权值初始化, 即在学习开始前 (t=0),先对Wj(0)赋予零附近的 小随机数。Hebbian学习规则代表一种纯前馈、 无导师学习。该规则至今仍在各种神经网络模型 中起着重要作用。
2021
上式定义的学习信号称为。式中是转移函 数的导数。显然,规则要求转移函数可导, 因此只适用于有导师学习中定义的连续转 移函数,如Sigmoid函数。
事实上,规则很容易由输出值与期望值的 最小平方误差条件推导出来。定义神经元 输出与期望输出之间的平方误差为
2021
E 1 2d j o j 2 1 2d j fW jT X2
2021
图5-6 MP神经元模型
F(x)
i
f (xi )
1
0
(x)
2021
人类具有学习能力,人类的知识和智慧是 在不断的学习与实践中逐渐形成和发展起 来的。关于人工神经网络的学习机制,涉 及到神经元如何分布、处理和存储信息。 常用的人工神经网络学习规则如下,图5-8 是权值调整的一般情况,其中:Wj为联接 到神经元j的权值向量,X为输入向量,r为 学习信号,d为导师信号。权向量的调整准 则为
信号生成器
2021
1)Hebbian学习规则
1949年,心理学家D.O.Hebb最早提出了关于神 经网络学习机理的“突触修正”的假设。该假设 指出,当神经元的突触前膜电位与后膜电位同时 为正时,突触传导增强,当前膜电位与后膜电位 正负相反时,突触传导减弱,也就是说,当神经 元i与神经元j同时处于兴奋状态时,两者之间的连 接强度应增强。根据该假设定义的权值调整方法, 称为Hebbian学习规则。在Hebbian学习规则中, 学习信号简单地等于神经元的输出
式中,误差E是权向量Wj的函数。欲使误差 E最小,Wj应与误差的负梯度成正比,即
Wj E
式中,比例系数η是一个正常数。由式(512),误差梯度为
E d j o jfejn Xt
2021
可以看出,上式中η与X之间的部分正是式 (5-11)中定义的学习信号δ。ΔWj中每个分 量的调整由下式计算
2021
3)δ(Delta)学习规则 1986年,认知心理学家McClelland和
Rumelhart在神经网络训练中引入了δ规则, 该规则亦可称为连续感知器学习规则,与 上述离散感知器学习规则并行。δ规则的学 习信号规定为
r d j fW j T W fW j T W d j o jfn j e
器采用了与阈值转移函数类似的符号转移 函数,其表达为
fW jTXsgW njTX 11 ,W ,W jTjT X X 00 因此,权值调整公式应为 W j[ d j sg W j T X n ] X
i j [ d j sW g j T X ] x n ii 0 , 1 , ,n
人工神经网络常用的学习规则
MP模型是于1943年由美国心理学家 McCulloch和数学家Pitts建立的第一个神经 元模型,也可以称为处理单元(Processing Element),它是一个多输入-多输出的非 线性信息处理单元。如图5-6所示,图5-7为 MP模型的作用函数。MP神经元是人工神 经元模型的基础,也是人工神经网络模型 的基础。
r dWjTX
2021
权向量调整量为..
W jd W jTXX
的各分量为
i j d j W j T X x i i 0 ,1 , ,n
实际上,如果在学习规则中假定社会元转
移函数为 fW jTXW jTX ,则有, fWjTX1 此时
式(5-11)与式(5-17)相同。
2021
2021
2)Perceptron(感知器)学习规则
1958年,美国学者Frank Rosenblatt首次定 义了一个具有单层计算单元的神经网络结 构,称为感知器(Perceptron)。感知器的学 习规则规定,学习信号等于神经元期望输 出(教师信号)与实际输出之差
r dj oj
2021
式中d j 为期望的输出 oj fWjTW ,。 感知
2021
W j(t)r [W j(t)X ,(t)d ,j(t)X ] (t)
式中 为学习速率。权值调整的迭代格式为
W j( t 1 ) W j( t ) r ( W j( t )X ( ,t )d j, ( t )X ( ] t )
2021
权值调整的一般情况
w
Oj
X
j
wj X
r(w,x,d) dj
相关文档
最新文档