基于神经网络的话务量预测
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
文章编号:1671-1742(2008)05-0518-04
基于神经网络的话务量预测
邓 波, 李 健, 孙 涛, 张金生, 王惠东
(四川大学电子信息学院,四川成都610064)
摘要:话务量具有高度的非线性和时变特性,由于神经网络具有较强的非线性映射等特性,将其运用于非线性
的话务量短期预测是非常合适的。以青白江2005年10月的话务量作为预测对象,提出基于BP 神经网络和基于
Elman 神经网络的话务量预测模型,仿真实验表明两种模型对于话务量的短期预测均是可行有效的。经过比较,
Elman 神经网络训练速度比BP 神经网络快很多,更适用于实际应用。
关 键 词:BP 神经网络;Elman 神经网络;话务量预测;预测模型
中图分类号:T P183 文献标识码:A 收稿日期:2008-06-12;修订日期:2008-07-04
1 引言
近年来移动通信在我国迅速发展,已经成为当今个人通信的主要方式。随着移动通信话务量迅速增长及网络容量的不断扩大,对话务量预测技术的需求就更加急迫,但实际当中,话务量预测技术发展并不理想,对移动通信运营商的网络建设及调整没有起到更为有效的指导作用。目前实际应用到话务预测的算法主要是回归分析、移动平均、指数平滑等一些传统算法,对话务量发展趋势的预测比较准确,但对于短期话务量的周期性变化,预测较为粗糙,对负荷的调整不能起到更好的指导作用。
话务量具有高度的非线性和时变特性,它的变化受多方面影响,一方面,话务量变化存在着由未知不确定因素引起的随机波动;另一方面,又具有周期变化的规律性,同时由于受节假日、收费政策等情况影响,又使话务量变化出现差异。而神经网络是由大量简单的基本元件———神经元相互连接,通过模拟人的大脑神经处理信息的方式,进行信息并行处理和非线性转换的复杂网络系统。其具有通过学习逼近任意非线性映射的能力,将其运用于非线性的话务量短期预测是非常合适的。
在神经网络算法中,基于BP 算法的前馈网络是至今为止应用最为广泛的神经网络,能够以任意精度逼近任何非线性函数。Elm an 神经网络是一种典型的回归神经网络,比前向神经网络具有更强的计算能力,具有适应时变特性的能力,因此二者都非常适合于话务量预测。
2 BP 神经网络、Elman 神经网络的网络模型
2.1 BP 神经网络的构造及算法
BP 网络的全称为Back -Propagation Netwo rk ,即反向传播网络,它在结构上类似于多层感知器,是一种多层前馈神经网络。它利用误差反向传播算法对网络进行训练。BP 网络是一种具有3层或3层以上神经元的神经网络,包括输入层、中间层(隐层)和输出层。上下层之间实现全连接,而每层神经元之间无连接。当一对学习样本提供给网络后,神经元的激活值从输入层经各中间层向输出层传播,在输出层的各神经元获得网络的输入响应。接下来,按照减少目标输出与实际输出之间误差的方向,从输出层反向经过各中间层回到输入层,从而逐层修正各连接权值,即BP 算法。随着这种误差逆向的传播修正不断进行,网络对输入模式响应的正确率也不断上升。BP 网络的传递函数要求必须是可微的,常用的函数有Sigmoid 型对数、正切函数或线型函数。由于传递函数处处可微,所以对于BP 网络来说,一方面,所划分的区域不再是一个线性划分,而是由一个非线性超平面组成的区域,它是比较平滑的曲面,因而它的分类比线性划分更加精确,容错性也比线性划分更好;另一方面,网络可以严格采用梯度下降法进行学习,权值修正的解析式十分明确[1]。
一个具有r 个输入和一个隐含层的神经网络结构如图1所示。
第23卷第5期
2008年10月成 都 信 息 工 程 学 院 学 报JOURNAL OF CHENGDU UNIVERS ITY OF INFORM ATION TECHNOLOGY Vol .23No .5Dct .2008
设其输入为P ,输入神经元有r 个,隐含层内有s 1个神经元,激活函数为f 1,输出层内有s 2个神经元,对应的激活函数为f 2,输出为A ,目标矢量为T 。
信息正向的传递如下:隐含层中第i 个神经元的输出为:
图1 具有一个隐含层的神经网络模型结构图 d i =f 1(∑r j =1
w 1ij p j +b 1i ) i =1,2,…,s 1
输出层第k 个神经元的输出为:
d k =f 2(∑s 1i =1
w 2ki d i +b 2k ) i =1,2,…,s 2
定义误差函数为: E (W ,B )=12
∑(t k -a k )2利用梯度下降法求权值变化及误差的反向传
播,其有以下输出层的权值变化,对从第i 个输入到第k 个输出的权值有:
Δw 2k i =-η E w 2ki =-η E a k a k w 2ki
=η·(t k -a k )f 2′d i 同理得:
Δb 2ki =η·(t k -a k )f 2′
那么就有以下的隐含层的权值变化,对从第j 个输入到第i 个输出的权值有:
Δw 1ij =η∑s 2k =1
(t k -a k )·f 2′·w 2ki ·f 1′·p i 同理得:
Δb 1i =η∑s 2k =1
(t k -a k )f 2′w 2ki 由上可知,BP 神经网络首先是对每一种输入模式设定一个期望输出值,然后对网络输入实际的学习记忆模式,并由输入层经隐层向输出层传播,此过程称为“模式顺传播”。实际输出与期望输出的差即是误差。按照误差平方最小这一规则,由输出层往隐层逐层修正连接权值和阈值,此过程称为“误差逆传播”。随着“模式顺传播”和“误差逆传播”过程的交替反复进行,不断调整网络的权值和阈值,使得误差信号最小,最终使网络的实际输出逐渐向各自所对应的期望输出逼近[2]。
图2 El man 神经网络的结构
2.2 Elman 神经网络的构造及学习过程
Elman 神经网络是在前馈网络的隐含层中增加一个承
接层,作为一步延时算子,以达到记忆的目的,从而使系统
具有适应时变特性的能力,能直接反映动态过程系统的特
性。
Elman 型回归神经元网络一般分为4层:输入层、中间层、承接层和输出层,如图2所示。输入层,隐含层和输出
层的连接类似于前馈网络,输入层的单元仅起信号传输作
用,输出层单元起线性加权作用。隐含单元的传递函数可
采用线性或非线性函数,承接层用来记忆隐含层单元前一时刻的输出值并返回给输入,就象一个一步延时算子。
Elman 型回归神经网络的特点是隐含层的输出通过承接层的延迟与存储,自联到隐含层的输入。这种自联方式使其对历史状态的数据具有敏感性,内部反馈网络的加入增加了网络本身处理动态信息的能力,从而达到了动态建模的目的。
Elman 神经网络的学习过程以图2为例,Elman 网络的非线性状态空间表达式为:
y (k )=g (w 3x (k ))
x (k )=f (w 1x c (k )+w 2(u (k -1))) x c (k )=x (k -1)519第5期 邓波等:基于神经网络的话务量预测