BP神经网络训练函数概述——有动量的梯度下降法traingdm
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
在神经网络工具箱中,traingdm函数采用了有动量的梯度下降法,提高了学习速度并增加了算法的可靠性。动量法降低了网络对于误差曲面局部细节的敏感性。梯度下降法在修正权值时,只是按照k时刻的负梯度方向修正,并没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。为此,有人提出了如下的改进算法:
其中,D(k)表示k时刻的负梯度,D(k-1)表示k-1时刻的负梯度,为学习率,是动量因子,范围是[0,1]。当=0时,权值修正只与当前负梯度有关系,当=1时,权值修正就完全取决于上一次循环的负梯度了。这种方法所加入的动量项实质上相当于阻尼项,它减少了学习过程的振荡趋势,从而改善了收敛性。
动量因子可以通过net.trainParam.mc设定,若不设定,缺省值为0.9。