神经网络预测编码器的设计及应用
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
神经网络预测编码器的设计及应用
1 BP 网络结构及其算法反向传播算法又称误差后向传播算法(Error Back Propagation Algorithm),它是用来训练多层前馈网络的一种学习算法。是一种有监督的学习算法。通常称用误差反向传播算法训练的网络叫BP 网络。如图
1 所示,该BP 网络具有一个输入层,两个隐含层(也称中间层)和一个输出层组成,各层之间实行全连接。BP 神经网络的隐含层通常具有多个,其传输函数
常常采用sigmoid 函数,而输入输出层则采用线性传输函数。
误差反向传播算法的主要思想是把学习过程分为两个阶段:第一阶段(正向传播过程),给出输入信息通过输入层经隐含层逐层处理并计算每个单元的实际输出值;第二阶段(反向传播过程),若在输出层未能得到期望的输出值,则逐层
递归地计算实际输出与期望输出之差值(即误差),以便根据此误差调节权值。
误差反向传播算法的性能函数是均方误差。其算法流程如图2 所示。
2 神经网络预测编码器的设计及应用2.1 预测器层数kolmogorov 定理(即映射网络存在定理),一个隐含层的网络,如果隐含层的功能函数是连续函数,则网络输出可以逼近一个连续函数。具体的说,设网络有p 个输入,q 个输出,则其作用可以看作是由p 维欧式空间到q 维欧式空间的一个非线性映射。Kolmogorov 定理表明含一个隐含层的BP 前馈网络是一种通用的函数逼近器,为逼近一个连续函数,一个隐含层是足够的。当要学习不连续函数时,则需要
两个隐含层,即隐含层数最多两层即可,Lippmann 等也给出了同样的结论。通过参考以上定理、规则,并结合试验最终确定本文实现的神经网络预测器采用
两个隐含层,一个输入层和一个输出层的BP 网络。2.2 节点数网络的输入与输出节点数是由实际问题的本质决定的,与网络性能无关。而当像素间距离
超过5 时,像素之间的相关性就很小,并且在图像的某一个区域内,色度信息