RBF神经网络的结构动态优化设计_乔俊飞

合集下载

持向量机的RBF神经网络优化算法及应用

持向量机的RBF神经网络优化算法及应用

RBF Neural Networks Optimization Algorithm Based on Support Vector Machine and Its ApplicationREN Jin-xia,YANG Sai(College of Mechanical and Electronic Engineering, JiangXi University of Science and Technology, Ganzhou 341000,China) Abstract: Support vector machine (SVM) resembles RBF neural networks in structure. Considering their resemblance , a new optimization algorithm based on support vector machine and genetic algorithm for RBF neural network is presented,in which GA is used to choose the SVM model parameter and SVM is used to help constructing the RBF. The network based on this algorithm is applied on nonlinear system identification.Simulation results show that the network based on this algorithm has higher precision and better generalization ability.Key words : support vector machines (SVM) ; neural networks ; genetic algorithm; system identificationRadial basis function (RBF) networks is one of new and effective feed-forward neural networks, which can approximate any continuous function with arbitrary precision. RBF networks are always with simple architecture, and trained fast. In RBF networks, the number and place of hidden center vector are key points concerned to the performance of the RBF networks. There exits obvious defectiveness to certain the parameters of RBF networks by the traditional ways.Based on statistical learning theory, support vector machines (SVM) algorithm has a solid mathematical theoretical foundation and rigorous theoretical analysis, which has the advantage of theoretical completeness, global optimization, adaptability, and good generalization ability. It is largely solved the past problems of choosing machine learning model, over-fitting, non-linear, the curse of dimensionality, local minimum points and so on. It uses the structural risk minimization principle, which minimizes the empirical risk; at the same time effectively improve generalization ability of the algorithm.SVM has the structure similarities with RBF network, in this paper, we study the intrinsic link between these two algorithms, and propose RBF optimization algorithm based on SVM and genetic algorithm, which use GA to choose the parameters for SVM, then to be used for structuring RBF networks. This algorithm effectively improves generalization and don’t need a large number of experiments or empirical experiences to pre-specify network structure.1.SVM providing theoretical foundation for structure and parameters of RBFRadial basis function (RBF) networks typically have three layers: an input layer, a hidden layer with a non-linear RBF activation function and a linear output layer. RBF network from input to output mapping is non-linear, but in terms of the weights of network output is linear. The k th hidden unit’s output is:22()exp2kkkx cxφσ⎛⎫-= -⎪⎪⎝⎭(1) Where ⋅is Euclidean norm, i x is the i th inputvector,kc is the center vector of hidden units,kσis the width of hidden units. N denotes thenumber of the hidden units,kw is the weights between the hidden units and the outputs, thenthe outputs of RBF networks is :()1221()exp 2Nk k k N kk k k f x w x x c w φσ===⎛⎫-=⨯ -⎪ ⎪⎝⎭∑∑ (2)According to Mercer Conditions, SVM adopts kernel function to map a sample vector from the original space to feature space. Gaussian kernel function used here is :()22,exp 2ii i x v K x v σ⎛⎫-= -⎪ ⎪⎝⎭(.3) SVM in regression form is the linear combination ofthe hidden units, then:1221()(,)exp 2gi i i gii i i f x w K x v bx v w b σ===+⎛⎫-=⨯ -⎪+ ⎪⎝⎭∑∑ (4)SVM network architecture can be indicated as shown in Figure1,which is similar to a RBF network.Figure 1 the structure of SVMSVM has a similarity in structure with the RBF network, so the number g of support vector which is gotten from the training of SVM can be the number of the hidden units in RBF networks, support vector can be the center vector of radius function, the width selected by SVM can be the width of RBF.2. GA providing SVM modelsparametersIn designing SVM, the parameterσ, penaltyfactor C, insensitive loss function εare the important factors to affect the performance of SVM, especiallyin small samples learning condition, so selectingproperσ、C and εwill be very important to thelearning machine performances. We will use the most widely used genetic algorithm to select those three parameters.The algorithm is to use genetic algorithm to optimize the SVM model parameters, the basic steps of it are as follows:(1)Choose the initial population of individuals randomly;(2)Evaluate the fitness of each individual in that population;(3)Select a new generation of population from the previous generation by using selection operator; (4)Take the crossover and mutation operation on the current population, then take the evaluation, selection, crossover and mutation operation on the new breed, and continue.(5)If the fitness function value of optimal individual is large enough or the algorithm have run many generations, and the optimal fitness value of theindividual can ’t be changed obviously, then we get the optimal value of kernel function parameter σ, penalty factor C , and insensitive loss function ε,and we can also get the optimal classifier by the training datum. How to construct fitness function is the key point of genetic algorithm. We use the promotion theorem of SVM in high-dimensional space to construct fitness function. We set()1/0.01fit T =+ (5) Where 221R T l γ=is the testing error boundary ,R is the radius of super-sphere which contain allthe datum,1/w γ=is the interval value ,l isthe number of the samples.3 SVM providing networks structure and parameters for RBFFor support vector regression machine, its learningprocess can be concluded to be a quadratic programming problem under the linear constrains, then we can use the regression machine which have been trained well to certain the structure and parameters of RBF networks.First considering the linear regression conditions, the sample are 1122(,),(,),...,(,)n n n x y x y x y R R ∈⨯, the linear function is set to be ()f x w x b =⋅+,then the optimization problem will be a minimization problem.11(,,)()2ni i i R w w w C ξξξξ**==⋅++∑(6)The conditions are :(),1,...,(),1,...,,0,1,...,i i i i i i i i f x y i n y f x i ni nξεξεξξ**-≤+=-≤+=≥= (7)Introducing Lagrange function, we can get: 1111(,,,,,,,)1()()[()]2[()]()n ni i i i i i i i n niii i i i i i i i L w b w w C w x b y w x b y ξξααηηξξαεξαεξηξηξ****==****===⋅++-++⋅+--+-⋅-+-+∑∑∑∑ (8) Where,0,,0,1,...,i i i i i n ααηη**≥≥=.Solving this quadratic optimization problem, we can get ,i i αα*, then 1()ni i i i w x αα*==-∑,we can also get bbyi i i i b y w x b y w x εε=-⋅-⎧⎨=-⋅+⎩(9) So the regression function is1()()()()ni i i i f x w x b x x b αα*==⋅+=-⋅+∑ (10)Non-linear regression use kernel function (,)K x y , if the kernel function is turned to be Gaussian function, then the regression function will be1()()(,)ni i i i f x K x v b αα*==-+∑ (11)Wheni i αα*-is not equal to zero, the accordingsamples will be support vectors, we assume thenumber of the support vectors which are gotten after SVM training is g ()g n ≤, support vector are ,1,...,i v i g =, the weight factorsare i i i w αα*=- ,the bias is b,then we use these to construct RBF networks.4 Application and simulation researchWe use RBF networks optimized by SVM insystem identification to test the learning performances and generalization abilities of this algorithm, we also compare it with generalized regression neural network Consuming the identification system denoted by the non-linear discrete function:22(1)()()1(1)y k y k u k y k -=++- (12) To this system, we use cascade- parallel models, the RBF network has two inputs and one output. The twenty samples ((1),(2),...,(20))u u u are selected from [0,2], started from zero, the interval value is 0.1, andtherespondingoutputsare((1),(2),...,(20))y y y ,when the identification isfinished, we use the follow stimulus signal to test the generalization abilities of the networks.(1)Generalized regression neural network select Gaussian function as the kernel function, the distribution density Spread is 0.7, the identification results is shown in figure2 , the mean squares error between identification results and output matrix is 0.0842.And the testing results is shown in figure 3, the mean squares error between testing results and expected output matrix is 0.0282.(2)In optimizing neural networks by SVM, we set the maximum genetic generations is 20, we get the maximum value of fitness by genetic algorithm searching, so we get the model parameters x =[379.9678 1.0221 0.0426],that penalty factor C is 379.9678, the width of Gaussian function σ is 1.0221, the insensitive loss function εis 0.0426, furthermore we get the number of support vectors is 4 by the learning of input and output datum, so we set the number of hidden units in RBF network is 4, the()0.15sin(2/25)0.22sin(2/35)0.2,1,2,...,100u k k k k ππ=++=Gaussian function center vector are the support vectors, the width of Gaussian function is thewith the regression machine.toi i iwαα*=-, we know the respondingweights [-1.7610 1.0219 -1.0406 1.7797]w=,and bias value of RBF networks, then the RBFconstructed, just as shown in figure 4.Accordingidentification results shown in figure 5, thematrix is 0.0036.And the testing results is shownfigure 6, the mean squares error betweenresults and expected output matrix is 0.0134.In terms of identification accuracy andgeneralization abilities, the simulation results showthat RBF networks optimized by SVM algorithm issuperior to generalized regression neural network, alsoneedn’t pre-specify the structure by a lot ofexperiments.Figure 2 The identification results of generalized regressionneural networkFigure3 the testing results of generalized regression neuralnetworkFigure4 RBF network structure based on SVMFigure5 the identification results of RBF optimized by SVMFigure6 the testing results of RBF optimized by SVMConclusionThe algorithm we proposed in this paper first usegenetic algorithm to optimize SVM model parameters,then to make certain the structure and parameters ofRBF networks by SVM, which is applied in system identification. The simulation results show this algorithm is more efficient in learning and training, with good identification accuracy and generalization capacity in term of system identificationReferences[1] PETER Andras. The equivalence of support vector machineandregularization neural networks [ J ] . Neural Processing Letters ,2002 , 15 (2) : 97 - 104[2]Yuan Xiao-fang, Wang Yaonan, Sun Wei, Yang Huiqian. A Hybrid Learning Algorithm for RBF Neural Network Based on Support Vector Machines and BP Algorithm[J].Journal of Hunan university,2005,32(3):88-92.[3]Zhang Gup-yun. Support Vector Machine and its application Research[D],Hunan: Hunan University,2006.[4] Zhu Ming-xing,Zhang De-long. Study on the Algorithms of Selecting the Radial Basis Function Cente[J].Journal of Anhui university,2003,24(1):72~78[5] Yang Xu,Ji Y u-bo,Tian Xue.Parameters Selection of SVM Based on Genetic Algorithm[J]Journal of Liaoning University of Petroleum &Chemical Technology.,2004,24(1):54~58[6] Zheng Chun-hong,Jiao Li-cheng,Ding Ai-ling.Automatic model selection for support vector machines using heuristic genetic algorithm [J].Control Theory & Applications,2006,23(2):187~192[7]Chai Jie,Jiang Qing-yin,Cao Zhi-kai.FunctionApproximation Capability and Algorithms of RBF Neural Net Works[J].Pattern Recognition and Artificial Intelligence,2002,15(3):310~316[8]Shan Xiao-hong. RBF Neural Networks based on Genetic Algorithm and its Applications in System identification[D].Shandong:Qingdao University,2006.。

径向基神经网络RBF介绍

径向基神经网络RBF介绍

径向基神经网络RBF介绍径向基神经网络(Radial Basis Function Neural Network,以下简称RBF神经网络)是一种人工神经网络模型。

它以径向基函数为激活函数,具有快速学习速度和较高的逼近能力,被广泛应用于函数逼近、模式识别、时间序列预测等领域。

下面将详细介绍RBF神经网络的基本原理、结构和学习算法。

1.基本原理:RBF神经网络由输入层、隐藏层和输出层组成。

输入层接收外部输入数据,隐藏层由一组径向基函数组成,输出层计算输出值。

其基本原理是通过适当的权值与径向基函数的线性组合,将输入空间映射到高维特征空间,并在该空间中进行线性回归或分类。

RBF神经网络的关键在于选择合适的径向基函数和隐藏层节点的中心点。

2.网络结构:隐藏层是RBF神经网络的核心,它由一组径向基函数组成。

每个径向基函数具有一个中心点和一个半径。

典型的径向基函数有高斯函数和多项式函数。

高斯函数的形式为:φ(x) = exp(-β*,x-c,^2)其中,β为控制函数衰减速度的参数,c为径向基函数的中心点,x为输入向量。

隐藏层的输出由输入向量与每个径向基函数的权值进行加权求和后经过激活函数得到。

输出层通常采用线性激活函数,用于输出预测值。

3.学习算法:RBF神经网络的学习算法包括两个步骤:网络初始化和权值训练。

网络初始化时需要确定隐藏层节点的中心点和半径。

常用的方法有K-means 聚类和最大极大算法。

权值训练阶段的目标是通过输入样本和对应的目标值来调整权值,使得网络的输出尽可能接近目标值。

常用的方法有最小均方误差算法(Least Mean Square,LMS)和最小二乘法。

最小均方误差算法通过梯度下降法修改权值,使网络输出的均方误差最小化。

最小二乘法则通过求解线性方程组得到最优权值。

在训练过程中,需要进行误差反向传播,根据输出误差调整权值。

4.特点与应用:RBF神经网络具有以下特点:-输入输出非线性映射能力强,可以逼近复杂的非线性函数关系;-学习速度较快,只需通过非线性映射学习输出函数,避免了反向传播算法的迭代计算;-具有较好的泛化能力,对噪声和异常数据有一定的鲁棒性。

高超声速飞行器 RBF 神经网络滑模变结构控制

高超声速飞行器 RBF 神经网络滑模变结构控制

高超声速飞行器 RBF 神经网络滑模变结构控制王建敏;董小萌;吴云洁【摘要】针对高超声速飞行器高度非线性及强耦合的特点,提出了一种基于RBF神经网络调参的滑模变结构控制器。

滑模变结构控制器能够使高超声速飞行器稳定飞行,但在系统状态到达滑模面后会产生剧烈的抖振现象,不利于工程应用。

RBF神经网络在一定条件下可以任意精度逼近非线性函数,且具有较强的自学习、自适应和自组织能力。

将RBF神经网络与滑模变结构控制相结合,一定程度上能够消除滑模控制的抖振问题。

在高超声速飞行器的巡航状态下,分别加入高度阶跃指令和速度阶跃指令进行了仿真。

仿真结果表明,所设计的RBF神经网络滑模变结构控制器使高超声速飞行器在保证快速性、鲁棒性和抗干扰性的同时,克服了执行机构的抖振问题。

%According to hypersonic flight vehicle of highly nonlinear and strong coupling characteristics, sliding mode variable structure control based on RBF neural network regulating parameters was proposed. Sliding mode variable structure controller makes the hypersonic flight vehicle stably fly,but when the sys-tem states arrived at the sliding mode surface,it will emerge severe chattering,which would influence en-gineering applications.RBF neural networks can approximate nonlinear functions in arbitrary precision un-der certain conditions,in addition it has capacity of strong self-learning,adaptive and self-organizing.The controller that together RBF neural network with sliding mode variable structure can eliminate chattering problem generated by sliding mode variable structure control to a certain extent.Simulation was conducted by giving altitudeand velocity command on the cruise condition of hypersonic flightvehicles.Simulation results show that RBF neural network based sliding mode variable structure controller designed here en-suresrapidity,robustness and immunity of the hypersonic flight vehicle,while overcoming the problems of actuator chattering.【期刊名称】《电机与控制学报》【年(卷),期】2016(020)005【总页数】8页(P103-110)【关键词】高超声速飞行器;RBF神经网络;滑模变结构;控制;抖振【作者】王建敏;董小萌;吴云洁【作者单位】北京航空航天大学自动化科学与电气工程学院,北京100191; 中国科学院空间应用工程与技术中心,北京100094;中国空间技术研究院钱学森空间技术实验室,北京100094;北京航空航天大学自动化科学与电气工程学院,北京100191; 北京航空航天大学虚拟现实技术与系统国家重点实验室,北京100191【正文语种】中文【中图分类】V448高超声速飞行器是指飞行在距地面30-70 km的近空间领域、飞行马赫数大于5的一类飞行器。

RBF神经网络

RBF神经网络

wjhj
j1
c1j x1 b2j
其中取 x1u(k)。
6 RBF网络逼近仿真实例
使用RBF网络逼近下列对象:
y(k)u(k)3 y(k1) 1y(k1)2
7 RBF网络的优点:
神经网络有很强的非线性拟合能力,可映射任意复杂的非 线性关系,而且学习规则简单,便于计算机实现。具有很 强的鲁棒性、记忆能力、非线性映射能力以及强大的自学 习能力,因此有很大的应用市场。 ① 它具有唯一最佳逼近的特性,且无局部极小问题存在。 ② RBF神经网络具有较强的输入和输出映射功能,并且理 论证明在前向网络中RBF网络是完成映射功能的最优网络。 ③ 网络连接权值与输出呈线性关系。 ④ 分类能力好。 ⑤ 学习过程收敛速度快。
w j ( k w j (- 1 k ) η ( y ) (- k y m (h k ) j ( w ) j ( k ) 1 ) w j ( k 2 ))
2
X-Cj bj (y(k-)ym(kw )j)hj bj3
b j( k b j( )- k 1 η ) b j( b j(- k 1 -b j ) (- k 2)
2 RBF网络结构
RBF网络的结构与多层前向网络类似,它是一 种三层前向网络。第一层即输入层由信号源节点组成 ;第二层为隐含层,隐单元数视所描述的问题的需要 而定,隐单元的变换函数是RBF,它是对称中心径向 对称且衰减的非线性函数;第三层为输出层,它对输 入模式的作用做出响应。由于输入到输出的映射是非 线性的,而隐含层空间到输出空间的映射是线性的, 从而可以大大加快学习速度并避免局部极小问题。
图2 RBF神经网络逼近
在RBF网络结构中,X x 1 ,x 2 ,.x n .T 为.网.络的输入向

2021年全国优秀博士学位论文提名论文名单

2021年全国优秀博士学位论文提名论文名单
谢XX繁
高自友
XXXX大学
微通道内气体流动换热的理论与实验研究
张田田
贾力
XXXX大学
神经网络结构动态优化设计方法及应用
韩红桂
乔俊飞
XX大学
多载波系统的联合收发算法设计研究
刘婷婷
杨晨阳
XX航空航天大学
离散双线性系统可控性与临近可控性研究—一种隐函数方法
铁林
蔡开园
XX航空航天大学
分数阶傅里叶域多抽样率滤波器组理论及应用
袁野
王国仁
XX北大学
车载网络XX访问控制与信息广播技术研究
毕远国
赵海
XX北大学
XXXX解释中的原旨主义理论研究
侯学宾
姚建宗
XX大学
XX下新型超硬材料的结构设计
李全
马琰铭
XX大学
多金属氧簇超分子复合物动态自组装研究
闫毅
吴立新
XX大学
刺激—响应聚合物复合一维光子晶体
王占华
杨柏
XX大学
聚电解质的构象行为及复杂流动研究
施章杰
XX大学
天然蜂窝和人工管束材料的力学研究
张凯
王建祥
XX大学
基于碳纳米管的无掺杂高性能器件和集成电路
丁力
彭练矛
XX大学
系统性红斑狼疮遗传背景研究
周绪杰
张宏
XX大学
议会主权下的XX违宪审查
李蕊佚
韩大园
XX民大学
唐代中书舍人与文学研究
鞠岩
傅璇琮
XX民大学
公允价值计量与资产价格波动
曾雪云
徐经长
XX民大学
王堃
孙润仓
XX林业大学
P14、P53和P73基因遗传多态性与头颈部鳞状细胞癌患者二次原发肿瘤易感性的相关性研究

基于RBF神经网络的结构动力响应预测

基于RBF神经网络的结构动力响应预测
we ei to u e . k n t o sd r t no h e t r h t a tp e it n o tu t r l y a cr s o s r r d c d Ta i gi oc n ie a i ft efa u et a s r dci fsr c u a n mi e p n e n n o f o d i u eu o v ro ig t et elg e fc n sr cu a ir t n c n r la damig a h xsi gp o ~ s s f lfro e c m n h i -a fe ti tu t rlvb a i o to , n i n tt ee it r b m o n
lmsi e wo k,h e nBP n t r t e RBF n t r s e l y d t rd c h ip a e n n c ee a in o h ewo k wa mpo e O p e itt e ds lc me ta d a c lr to ft e c n tu t n Th F ewo k wa lo u e O c n u t o a io n e t a in i lto e u t o sr c i . e RB n t r s as s d t o d c c mp rs n iv si t .S mu ain r s l o g o s o d t a h r r a ttann n ih a c rc t h we h tt ee we e fs r iig a d hg c u a y wi RBF n u a ewo k, O t a tc ud p o ie h e r ln t r S h ti o l r vd mo ea c r t p i lp ro ma c n e e o i l ciec n r l f tu t r l e p n eo h ul ig r c u aeo t e f r n e id x sfrt ma mey a tv o to r c u a s o s ft eb i n s o s r d

径向基(RBF)神经网络的介绍及其案例实现

径向基(RBF)神经网络的介绍及其案例实现

人 脸 识 别

Company Logo
Contents
1 2
什么是神经网络 径向基(RBF)神经网络
3
ቤተ መጻሕፍቲ ባይዱ
Matlab案例实现

Company Logo
RBF 神经网络
几 种 常 见 的 神 经 网 络

Matlab案例实现
%% 清空环境变量 clc clear % 产生训练样本(训练输入,训练输出) % ld为样本例数 ld=100; % 产生2*ld的矩阵 x=rand(2,ld); % 将x转换到[-1.5 1.5]之间 x=(x-0.5)*1.5*2; %% 建立RBF神经网络 % 采用approximate RBF神经网络。spread 为默认值 net=newrb(x,F); % 计算网络输出F值 F=20+x1.^2-10*cos(2*pi*x1)+x2.^210*cos(2*pi*x2); % x的第一列为x1,第二列为x2. x1=x(1,:); x2=x(2,:);
y w1* x1 w2 * x2 w3 * x3 w4 * x4 wi * xi
i 1
Company Logo
n
RBF 神经网络
RBF神经网络概况:
神经网络基础知识

Company Logo
RBF 神经网络
60 50 40 30 20 10 0 2 2 0 0 -2 -2

Company Logo
1000
60 50 40 30 20 10 0 2 2 0 0 -2 -2
60 50 40 30 20 10 0 2 2 0 0 -2 -2
60 50 40 30 20 10 0 2 2 0 0 -2 -2

基于快速密度聚类的RBF神经网络设计

基于快速密度聚类的RBF神经网络设计

基于快速密度聚类的RBF神经网络设计蒙西;乔俊飞;李文静【期刊名称】《智能系统学报》【年(卷),期】2018(013)003【摘要】针对径向基函数(radial basis function,RBF)神经网络隐含层结构难以确定的问题,提出一种基于快速密度聚类的网络结构设计算法.该算法将快速密度聚类算法良好的聚类特性用于RBF神经网络结构设计中,通过寻找密度最大的点并将其作为隐含层神经元,进而确定隐含层神经元个数和初始参数;同时,引入高斯函数的特性,保证了每个隐含层神经元的活性;最后,用一种改进的二阶算法对神经网络进行训练,提高了神经网络的收敛速度和泛化能力.利用典型非线性函数逼近和非线性动态系统辨识实验进行仿真验证,结果表明,基于快速密度聚类设计的RBF神经网络具有紧凑的网络结构、快速的学习能力和良好的泛化能力.%To design a hidden layer structure in radial-basis-function (RBF) neural networks,a novel algorithm based on fast density clustering is proposed.The algorithm searches for the point with the highest density and then uses it as the neuron of the hidden layer,thereby ascertaining the number of neurons in the hidden layer and the initial parameters.Moreover,the activity of each hidden neuron is ensured by introducing the Gaussian function.An improved second-order algorithm is used to train the designed network,increasing the training speed and improving the generalization performance.In addition,two benchmark simulations-the typical nonlinear function approximation and the nonlinear dynamic system identification experiment-are used to testthe effectiveness of the proposed RBF neural network.The results suggest that the proposed RBF neural network based on fast density clustering offers improved generalization performance,has a compact structure,and requires shorter training time.【总页数】8页(P331-338)【作者】蒙西;乔俊飞;李文静【作者单位】北京工业大学信息学部,北京 100124;北京工业大学计算智能与智能系统北京市重点实验室,北京 100124;北京工业大学信息学部,北京 100124;北京工业大学计算智能与智能系统北京市重点实验室,北京 100124;北京工业大学信息学部,北京 100124;北京工业大学计算智能与智能系统北京市重点实验室,北京100124【正文语种】中文【中图分类】TP273【相关文献】1.基于密度聚类的能耗数据采集网关设计 [J], 王平;于祥春2.基于快速密度聚类的电力通信网节点重要性评估 [J], 狄立;郑征;夏旻;胡凯3.基于图过滤的快速密度聚类双层网络推荐算法 [J], 陈晋音;吴洋洋;林翔4.基于引力核密度聚类算法的作物病害叶片区域的快速检测 [J], 刘哲;黄文准;王利平5.一种基于参考点的快速密度聚类算法 [J], 闫安;刘琪林因版权原因,仅展示原文概要,查看原文内容请购买。

RBF神经网络的结构动态优化设计_乔俊飞

RBF神经网络的结构动态优化设计_乔俊飞
第 36 卷 第 6 期
2010 年 6 月
自 动 化 学 报
ACTA AUTOMATICA SINICA
Vol. 36, No. 网络的结构动态优化设计
乔俊飞 1 韩红桂 1
摘 要 针对径向基函数 (Radial basis function, RBF) 神经网络的结构设计问题, 提出一种结构动态优化设计方法. 利用 敏感度法 (Sensitivity analysis, SA) 分析隐含层神经元的输出加权值对神经网络输出的影响, 以此判断增加或删除 RBF 神 经网络隐含层中的神经元, 解决了 RBF 神经网络结构过大或过小的问题, 并给出了神经网络结构动态变化过程中收敛性证 明; 利用梯度下降的参数修正算法保证了最终 RBF 网络的精度, 实现了神经网络的结构和参数自校正. 通过对非线性函数 的逼近与污水处理过程中关键参数的建模结果, 证明了该动态 RBF 具有良好的自适应能力和逼近能力, 尤其是在泛化能力、 最终网络结构等方面较之最小资源神经网络 (Minimal resource allocation networks, MRAN) 与增长和修剪 RBF 神经网络 (Generalized growing and pruning radial basis function, GGAP-RBF) 有较大提高. 关键词
化方法: 1) 进化算法[5−6] , 该算法是基于生物进化 原理的搜索算法, 具有很好的鲁棒性和全局搜索能 力, 但需要较大的计算代价. 2) 凑试法[7−8] , 该方 法主要通过训练和比较不同 RBF 神经网络结构的 途径来实现, 因此同样存在计算成本高的问题. 3) 增长删减法, 文献 [9] 提出了一种增长型 RBF 神 经网络算法, 该方法能够通过训练底层网络的方法 对神经网络隐含层的神经元进行改变. 该方法受初 始值的影响较大, 有时最终 RBF 神经网络的性能 不稳定, 会遗漏最佳神经网络, 陷入局部最优; 文 献 [10] 提出一种删减型 RBF 神经网络算法, 其删 减原理是当训练完所有的样本后对神经网络隐含层 进行删减, 删减是在训练结束时进行而不是在学习 过程中进行的. 因此, 在应用时将受到很大的限制, 不适合实时系统. 近年来, 增长法和修剪法已成为 神经网络结构动态设计的主流方向. Lu 等提出了 一种最小资源神经网络 (Minimal resource allocation networks, MRAN)[11] , MRAN 利用增长和删

基于遗传算法的RBF神经网络的优化与应用

基于遗传算法的RBF神经网络的优化与应用

主要 分为 以下几个 方面 :
() 1 编码 与解码 , 用一 个 数码 表 示一 个染 色 体 , 由染色 体代 表 一个 值 。R F神 经 网络 权 值 的 优 B
化是 一个 长期 的过程 , 在实 验 当中 一般 采用 的是二 进制 编码 , 是 二进制 编 码 存 在着 数 据 长度 大 的缺 但 点, 在很多实 际工程 应用 当 中并不适用 。在本 文 中 ,
域 的发展也提 出 了更 高的要求 。神经 网络通 过捕获
和学 习现实 当中 的知识并 能通过存储 外界 信息模拟 人脑 实现 自身认 知能 力 , 通过 合理 的设 计 与规划 , 在

要 特点是 多种 网络模 型 的确 定 与 学 习算 法 的确定 ;
到了 2 O世纪 8 O年代 , 神经 网络 发展 到 了它 的黄 金 时期 , 向基 函数 R F神 经 网络 也 在 这 个 时期 出 径 B 现 。研究神 经 网络 的爱 好者 扩 展 了它 的应 用 范 围 , 比如模式识 别 、 号处理 和一些社 会 问题 等 。 信 从神经 网络 的发 展 规 律来 看 , 发现 神 经 网络 发 展 到现在 的主要 难 题 有三 个 。首先 , 随着 控 制科 学 的发展 , 经 网络 面 临 的问题 的主 要特 点 是结 构 越 神
2 1 年第5 01 期
中 图分 类号 :P 8 T 13 文 献标 识 码 : A 文 章 编 号 :09— 52 2 1 )5— 16 0 10 2 5 ( 0 t 0 0 6 — 3
基 于遗传 算 法 的 R F神 经 网络 的优化 与 应用 B
徐 杰
( 武汉科技大学信息科学与工程学 院 , 武汉 4 0 8 ) 30 0

一种改进的RBF神经网络学习算法

一种改进的RBF神经网络学习算法

一种改进的RBF神经网络学习算法传统的RBF算法是一种三层结构的前向神经网络模型,由输入层、隐含层和输出层组成。

其中,隐含层的节点通过径向基函数计算输入样本与中心向量之间的距离,然后通过激活函数将距离转化为输出。

输出层的节点通过线性组合计算得到网络的最终输出。

改进的RBF神经网络学习算法可以通过以下几个方面的改进来提高性能:1.中心向量选择:在传统的RBF算法中,中心向量的选择通常采用随机抽取或者聚类算法。

改进的算法可以利用选择性地策略来选择中心向量,例如,可以采用遗传算法、模拟退火算法或者粒子群优化算法来进行中心向量的优化选择。

这样可以更好地逼近样本分布,提高网络的泛化能力。

2.学习速率的调整:在传统的RBF算法中,学习速率通常是固定的,但是这样可能导致网络学习过程中大幅度的参数调整,从而影响网络的收敛速度和精度。

改进的算法可以采用自适应学习速率,例如,利用梯度下降法中的动量因子或者学习速率递减策略来动态调整学习速率,从而使得网络的学习过程更加平稳。

3.正则化的引入:RBF神经网络容易出现过拟合的问题,即在训练数据上表现良好,但在测试数据上表现较差。

为了防止过拟合,可以引入正则化项来限制网络参数的数值范围,从而提高网络的泛化能力。

可以通过在代价函数中添加正则化项,如L1正则化或L2正则化来实现。

4.自适应的隐含层节点数:传统的RBF算法需要手动选择隐含层节点的数目,但这样的选择可能不是最优的。

改进的算法可以通过引入自适应的隐含层节点数策略来自动选择隐含层节点的数目,例如,可以利用贝叶斯信息准则(BIC)或者最小描述长度准则(MDL)来进行节点数目的选择。

5.多目标优化的引入:改进的算法可以采用多目标优化的策略来进行网络参数的学习,以提高网络的泛化能力和鲁棒性。

可以将网络优化问题转化为多目标优化问题,并利用多目标优化算法,如NSGA-II(非支配排序遗传算法)或者MOEA/D(分解多目标进化算法)来进行求解。

基于信息强度的RBF神经网络结构设计研究

基于信息强度的RBF神经网络结构设计研究

基于信息强度的RBF神经网络结构设计研究韩红桂;乔俊飞;薄迎春【期刊名称】《自动化学报》【年(卷),期】2012(38)7【摘要】在系统研究前馈神经网络的基础上,针对径向基函数(Radial basis function,RBF)网络的结构设计问题,提出一种弹性RBF神经网络结构优化设计方法.利用隐含层神经元的输出信息(Output-information,OI)以及隐含层神经元与输出层神经元间的交互信息(Multi-information,MI)分析网络的连接强度,以此判断增加或删除RBF神经网络隐含层神经元,同时调整神经网络的拓扑结构,有效地解决了RBF神经网络结构设计问题;利用梯度下降的参数修正算法保证了最终RBF网络的精度,实现了神经网络的结构和参数自校正.通过对典型非线性函数的逼近与污水处理过程关键水质参数建模,结果证明了该弹性RBF具有良好的动态特征响应能力和逼近能力,尤其是在训练速度、泛化能力、最终网络结构等方面较之最小资源神经网络(Minimal resource allocation net works,MRAN)、增长修剪RBF神经网络(Generalized growing and pruning RBF,GGAP-RBF)和自组织RBF神经网络(Self-organizing RBF,SORBF)有较大的提高.%Based on the systemic investigation on the feedforword neural network, for the problem of the structure design of the RBF neural network, a new flexible structure design method is used for RBF neural network in this paper. By computing the output-information (01) of the hidden neurons and the multi-information (MI) of the hidden nodes and output nodes, the hidden nodes in the RBF neural network can be inserted or pruned, thus the topology of thenetwork can be modulated. This method can effectively solve the structure design of the RBF neural network. The grad-descent method for the parameter adjusting ensures the exactitude of the flexible RBF neural network (F-RBF). The structure of the RBF neural network is self-organizing, and the parameters are self-adaptive. In the end, the proposed F-RBF is used for approximating the classical non-linear functions and modelling key parameters of the wastewater treatment process. The results show that the F-RBF obtains a favorable dynamic character response and the approximating ability. Especially, comparied with the minimal resource allocation networks (MRAN), the generalized growing and pruning RBF (GGAP-RBF) and the self-organizing RBF (SORBF), the proposed algorithm is more effective in terms of training time, generalization, and neural network structure.【总页数】8页(P1083-1090)【作者】韩红桂;乔俊飞;薄迎春【作者单位】北京工业大学电子信息与控制工程学院,北京100124;北京工业大学电子信息与控制工程学院,北京100124;北京工业大学电子信息与控制工程学院,北京100124【正文语种】中文【相关文献】1.基于仿生学的机翼结构刚度和强度设计研究 [J], 王飞;何景武2.基于应力-强度干涉理论的电子设备结构可靠性设计研究 [J], 黄诚3.基于等强度板格稳定的船体结构优化设计研究 [J], 张少雄;喻之凯;向林浩4.基于互信息的RBF神经网络结构优化设计 [J], 郭伟5.基于疲劳强度的铰链梁结构优化设计研究 [J], 秦东晨;梁颖;陈立平;钟毅方因版权原因,仅展示原文概要,查看原文内容请购买。

RBF神经网络的结构动态优化设计

RBF神经网络的结构动态优化设计

RBF神经网络的结构动态优化设计RBF神经网络的结构动态优化设计1. 前言随着人工智能技术的快速发展,神经网络在各个领域中得到了广泛应用。

RBF(Radial Basis Function)神经网络作为一种常见的神经网络模型,在模式识别、函数拟合等问题中具有广泛的应用前景。

然而,在实际应用中,如何优化RBF神经网络的结构是一个值得研究的问题。

本文旨在探讨RBF神经网络的结构动态优化设计,以提升其性能和应用效果。

2. RBF神经网络的基本原理RBF神经网络是一种三层前向神经网络,包含输入层、隐含层和输出层。

其基本原理如下:(1)输入层:接收外部输入的信号,并对其进行预处理和特征提取。

一般情况下,输入层的神经元节点数等于输入向量的维度。

(2)隐含层:由一系列径向基函数(Radial Basis Function)神经元构成,用于对输入信号进行非线性映射。

根据径向基函数的不同选择,可以得到不同的RBF神经网络模型。

(3)输出层:由线性输出神经元组成,负责将隐含层的输出映射到最终的输出空间,实现模式识别和函数拟合的功能。

3. RBF神经网络的结构优化方法为了进一步提升RBF神经网络的性能,需要对其结构进行优化设计。

以下是一些常用的RBF神经网络结构优化方法:(1)确定隐含层的神经元个数:隐含层的神经元个数决定了RBF神经网络的复杂度和拟合能力。

过多的神经元可能导致过拟合的问题,而过少的神经元可能无法充分表达数据的特征。

一种常用的方法是通过交叉验证等技术,综合考虑模型的复杂度和拟合效果,选择合适的隐含层神经元个数。

(2)确定径向基函数的类型和参数:径向基函数的类型和参数选择对RBF神经网络的性能影响较大。

常见的径向基函数包括高斯函数、多项式函数等。

通过试验和分析,选择合适的径向基函数类型和参数可以提升RBF神经网络的拟合能力和泛化性能。

(3)优化权重矩阵的学习算法:权重矩阵是RBF神经网络中非常重要的参数,直接关系到模型的拟合效果和泛化能力。

RBF神经网络设计

RBF神经网络设计

3
1756.77
1652
1514.98
3
3
RBF网络结果与原始数据对比
7 11 17 20 21 26 2 5 9 10 12 13 23 27 28 29 1803.58 1571.17 1845.59 1692.62 1680.67 1651.52 373.3 222.85 401.3 363.34 104.8 499.85 172.78 341.59 291.02 237.63 1583.12 1731.04 1918.81 1867.5 1575.78 1713.28 3087.05 3059.54 3259.94 3477.95 3389.83 3305.75 3084.49 3076.62 3095.68 3077.78 2163.05 1735.33 2226.49 2108.97 1725.1 1570.38 2429.47 2002.33 2150.98 2462.86 2421.83 2196.22 2328.65 2438.63 2088.95 2251.96 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4
第三层为输出层,它对输入模式做出响应,输出层神经元的作用函
数为线性函数,对隐含层神经元输出的信息进行线性加权后输出, 作为整个神经网络的输出结果。
三.径向基函数网络参数选择
四、RBF网络应用于模式分类
以酒瓶分类三元色数据为例,希望将数据按照颜色数据所表征的特 点,将数据按各自所属的类别归类。其中,前29组数据已确定类别, 后30组数据待确定类别。 (1)从样本数据库中获取训练数据 取前29组数据作为训练样本。为了编程方便,先对这29组数据按 类别进行升序排序。重新排序后的数据如下表所示。

RBF神经网络课程设计

RBF神经网络课程设计

RBF神经网络课程设计一、课程目标知识目标:1. 学生能理解RBF神经网络的基本概念,掌握其结构和原理。

2. 学生能掌握RBF神经网络的训练过程,了解径向基函数的选择和应用。

3. 学生能了解RBF神经网络在模式识别、函数逼近等领域的应用。

技能目标:1. 学生能运用RBF神经网络进行数据分类和拟合,解决实际问题。

2. 学生能通过编程实践,掌握RBF神经网络的实现方法。

3. 学生能通过案例分析和团队合作,提高问题解决能力和沟通能力。

情感态度价值观目标:1. 学生对神经网络及其应用产生兴趣,培养探究精神和创新意识。

2. 学生在团队合作中,学会尊重他人意见,培养协作精神和集体荣誉感。

3. 学生能认识到RBF神经网络在现实生活中的价值,增强社会责任感和使命感。

课程性质分析:本课程为高中信息技术课程,旨在让学生了解RBF神经网络的基本原理和应用,培养其信息技术素养。

学生特点分析:高中学生具备一定的数学基础和编程能力,对新技术和新知识具有较强的求知欲和探究精神。

教学要求:1. 结合课本内容,注重理论与实践相结合,提高学生的实际操作能力。

2. 创设问题情境,引导学生主动探究,培养学生的创新意识。

3. 强化团队合作,提高学生的沟通能力和协作精神。

二、教学内容1. RBF神经网络基本概念:神经网络概述,RBF神经网络的结构与特点。

2. 径向基函数:径向基函数的定义,常用径向基函数类型及其性质。

3. RBF神经网络的训练:训练算法(如最小二乘法、正则化最小二乘法等),参数调整策略。

4. RBF神经网络的实现:编程语言(如Python、MATLAB等)实现RBF神经网络,案例分析。

5. RBF神经网络的应用:模式识别、函数逼近、分类与回归等领域的应用案例。

6. 实践与拓展:实际数据集上的RBF神经网络应用,团队合作完成项目任务,拓展学生对RBF神经网络的认识。

教学内容安排与进度:1. 第一周:神经网络概述,RBF神经网络基本概念,径向基函数。

一种应用PSO优化RBF神经网络的方法

一种应用PSO优化RBF神经网络的方法

一种应用PSO优化RBF神经网络的方法
张健;刘定一
【期刊名称】《计算机仿真》
【年(卷),期】2014(31)11
【摘要】RBF神经网络算法是一种常用的数据训练方法,在该训练过程中,如何选取更合理的个体作为RBF神经网络的神经元,直接关系到该数据训练方法的性能.利用传统的RBF神经网络模型进行数据训练,由于不同的神经元之间的差异性较小,造成建立的RBF神经网络集成模型的精确度过低.为此,提出应用PSO优化RBF神经网络的方法.动态构造PSO优化RBF神经网络结构,针对不同的动态构造方法进行分类,得到网格删除法、网络构造法和综合法等不同的动态构造方法,在动态构造的基础上,建立引用PSO优化RBF神经网络模型,计算RBF神经网络中的粒子变量,获取对应的适应性值,得到RBF神经网络的输出结果,实现应用PSO优化的RBF神经网络建模.实验结果表明,利用改进算法进行RBF神经网络构建,能够降低RBF神经网络的数据训练误差,满足实际需求.
【总页数】4页(P269-272)
【作者】张健;刘定一
【作者单位】三江学院计算机科学与工程学院,江苏南京210012;三江学院计算机科学与工程学院,江苏南京210012
【正文语种】中文
【中图分类】TP181
【相关文献】
1.基于PSO优化的模糊RBF神经网络学习算法及其应用 [J], 段明秀
2.一种改进PSO优化RBF神经网络的新方法 [J], 段其昌;赵敏;王大兴
3.一种应用ARPSO优化RBF神经网络的方法 [J], 陶元芳;刘晓光
4.PSO优化RBF神经网络在变形监测中的应用 [J], 邵潮京
5.PSO-RBF神经网络优化一种标签缝隙天线 [J], 楼平;黄元君;吴志军
因版权原因,仅展示原文概要,查看原文内容请购买。

rbf神经网络 (2)

rbf神经网络 (2)

rbf神经网络
RBF(Radial Basis Function)神经网络是一种广泛应用于模式识别和函数逼近的神经网络模型。

它主要由三个层次
组成:输入层、隐藏层和输出层。

在RBF神经网络中,隐藏层神经元的激活函数是径向基函
数(Radial Basis Function),常用的径向基函数有高斯
函数、多项式函数等。

隐藏层神经元的激活函数用于计算
输入向量与该神经元的权重向量之间的距离或相似性度量。

距离越小,相似度越高。

隐藏层神经元的输出作为输入层神经元到输出层神经元的
连接权重,输出层计算输出结果。

通常情况下,输出层使
用线性激活函数。

RBF神经网络的训练过程可以通过使用最小二乘法或优化
算法进行参数优化。

其训练目标是最小化预测输出与真实
输出之间的误差。

RBF神经网络具有快速训练和良好的泛化能力的特点,由于其可解释性强,因此在模式识别、函数逼近和非线性建模等领域有着广泛的应用。

一种改进的RBF神经网络参数优化方法

一种改进的RBF神经网络参数优化方法

一种改进的RBF神经网络参数优化方法张辉;柴毅【期刊名称】《计算机工程与应用》【年(卷),期】2012(048)020【摘要】An improved method for RBF neural network parameters optimization is proposed. The number of nodes in the hidden layer is determined by using RAN (Resource Allocating Network), meanwhile strategy of pruning is introduced to remove those hidden units which make insignificant contribution to overall network output. Central position, width and weight of the neural network are optimized by the improved PSO (Particle Swarm Optimization) algorithm, so as to obtain the appropriate structure and control parameters. The new algorithm is used to predict the model of CSTR, and the result indicates that RBF neural network optimized by this algorithm has a smaller structure and high generalization ability.%提出了一种改进的RBF神经网络参数优化算法.通过资源分配网络算法确定隐含层节点个数,引入剪枝策略删除对网络贡献不大的节点,用改进的粒子群算法对RBF网络的中心、宽度、权值进行优化,使RBF网络不仅可以得到合适的结构,同时也可以得到合适的控制参数.将此算法用于连续搅拌釜反应器模型的预测,结果表明,此算法优化后的RBF网络结构小,并且具有较高的泛化能力.【总页数】5页(P146-149,157)【作者】张辉;柴毅【作者单位】重庆大学自动化学院,重庆400030;重庆大学自动化学院,重庆400030【正文语种】中文【中图分类】TP183【相关文献】1.一种改进的二级倒立摆LQR控制器参数优化方法 [J], 谭文龙2.一种改进的二级倒立摆LQR控制器参数优化方法 [J], 谭文龙3.一种改进型轴向永磁调速器及其参数优化方法的研究 [J], 邱力伟;关焕新;郭振亚;邵伟;高庆忠4.一种改进的药代动力学参数优化方法及其应用 [J], 李丹侠;刘丽;厉才康5.一种改进的支持向量机参数优化方法 [J], 赵朝贺因版权原因,仅展示原文概要,查看原文内容请购买。

相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

述为
K
y=
k=1
αk φk (x )
(1)
其中, K 是隐含层神经元数, x (x1 , · · ·, xm ) 是输入 向量, αk 是第 k 个隐含层神经元与输出层神经元的 联结权值, φk 是第 k 个隐含层神经元的输出, 即:
φk (x ) = e
− x −µk σ2 k
(2)
其中, µk 是中心, σk 是方差. 本文 不但修改神经元 的参数, 而且修改神经元的个数.
第 36 卷 第 6 期
2010 年 6 月
自 动 化 学 报
ACTA AUTOMATICA SINICA
Vol. 36, No. 6 June, 2010
RBF 神经网络的结构动态优化设计
乔俊飞 1 韩红桂 1
摘 要 针对径向基函数 (Radial basis function, RBF) 神经网络的结构设计问题, 提出一种结构动态优化设计方法. 利用 敏感度法 (Sensitivity analysis, SA) 分析隐含层神经元的输出加权值对神经网络输出的影响, 以此判断增加或删除 RBF 神 经网络隐含层中的神经元, 解决了 RBF 神经网络结构过大或过小的问题, 并给出了神经网络结构动态变化过程中收敛性证 明; 利用梯度下降的参数修正算法保证了最终 RBF 网络的精度, 实现了神经网络的结构和参数自校正. 通过对非线性函数 的逼近与污水处理过程中关键参数的建模结果, 证明了该动态 RBF 具有良好的自适应能力和逼近能力, 尤其是在泛化能力、 最终网络结构等方面较之最小资源神经网络 (Minimal resource allocation networks, MRAN) 与增长和修剪 RBF 神经网络 (Generalized growing and pruning radial basis function, GGAP-RBF) 有较大提高. 关键词
化方法: 1) 进化算法[5−6] , 该算法是基于生物进化 原理的搜索算法, 具有很好的鲁棒性和全局搜索能 力, 但需要较大的计算代价. 2) 凑试法[7−8] , 该方 法主要通过训练和比较不同 RBF 神经网络结构的 途径来实现, 因此同样存在计算成本高的问题. 3) 增长删减法, 文献 [9] 提出了一种增长型 RBF 神 经网络算法, 该方法能够通过训练底层网络的方法 对神经网络隐含层的神经元进行改变. 该方法受初 始值的影响较大, 有时最终 RBF 神经网络的性能 不稳定, 会遗漏最佳神经网络, 陷入局部最优; 文 献 [10] 提出一种删减型 RBF 神经网络算法, 其删 减原理是当训练完所有的样本后对神经网络隐含层 进行删减, 删减是在训练结束时进行而不是在学习 过程中进行的. 因此, 在应用时将受到很大的限制, 不适合实时系统. 近年来, 增长法和修剪法已成为 神经网络结构动态设计的主流方向. Lu 等提出了 一种最小资源神经网络 (Minimal resource allocation networks, MRAN)[11] , MRAN 利用增长和删
1.2 基于输出敏感度法的 RBF 神经网络
敏感度法 (Sensitivity analysis, SA)[17] 能够根 据模型或系统的输出分析模型或系统中的参数, 尤 其是输入对输出的价值, 从而根据期望值对其进行 修改, 直到达到期望值. 敏感度法虽然有不同的分析 方法[18−20] , 但是基本思想类似. 利用敏感度法的特 点对 RBF 神经网络的隐含层神经元输出对神经网 络输出的影响进行分析, 分裂对输出影响大的隐含 神经元, 剔除冗余的隐含层神经元, 达到神经网络结 构自调整的目的. RBF 神经网络可以分为两个部分, 第一部分是 输入层与隐含层连接, 第二部分是隐含层与输出层 连接, 分解结构如图 1 所示. 本文重点研究第二部分 的结构调整机制. 隐含层神经元的输出加权值作为敏感度法的输 入量, 利用下式计算隐含层神经元输出对神经网络 对输出所做的贡献: varh [E (y |Zh = αh φh (x )) (3) Sh = var(y ) 其中, Z = [Z1 , Z2 , · · · , Zk ] 是敏感度法的输入向 量, y 是神经网络输出量, y 与 Z 的关系可表示为 y = f (Z1 , Z2 , · · · , Zk ), varh [E (y |Zh = αh φh (x ))] 是 Zh 等于 αh φh 时对 y 方差的影响, var(y ) 是 y 的 方差, Sh 是 αh φh 对输出 y 的一阶灵敏度表示. 对 输入量 αh φh 进行傅里叶变换 (其中 αh φh 的范围是 [ah , bh ]):
径向基函数 (Radial basis function, RBF) 神 经网络由于其简单的拓扑结构和全局逼近能力, 在 模式识别[1] 、 信号处理[2] 、 非线性系统的建模和控制 [3−4] 等方面 得到了广泛的应用. 目前, 高斯径向基 神经网络最为常见. RBF 神经网络应用的关键问题是其结构设计 问题. 近年来, 相继提出一些 RBF 神经网络结构优
建模
10.3724/SP.J.1004.2010.00865
Optimal Structure Design for RBFNN Structure
QIAO Jun-Fei1 HAN Hong-Gui1 Abstract Due to the fact that the conventional radial basis function (RBF) neural network cannot change the structure on-line, a new dynamic structure RBF (D-RBF) neural network is designed in this paper. D-RBF is based on the sensitivity analysis (SA) method to analyze the output values of the hidden nodes for the network output, then the hidden nodes in the RBF neural network can be inserted or pruned. The final structure of D-RBF is not too large or small for the objectives, and the convergence of the dynamic process is investigated in this paper. The grad-descend method for the parameter adjusting ensures the convergence of D-RBF neural network. The structure of the RBF neural network is selforganizing, and the parameters are self-adaptive. In the end, D-RBF is used for the non-linear functions approximation and the non-linear systems modelling. The results show that this proposed D-RBF obtains favorable self-adaptive and approximating ability. Especially, comparisons with the minimal resource allocation networks (MRAN) and the generalized growing and pruning RBF (GGAP-RBF) reveal that the proposed algorithm is more effective in generalization and finally neural network structure. Key words Radial basis function (RBF) neural network, dynamic design, dynamic structure RBF (D-RBF), chemical oxygen demand (COD) modelling
866





36 卷
减策略对 RBF 神经网络拓扑结构进行调整, 最终获 得适用于研究对象的最小 RBF 结构, 该方法曾一 度成为 RBF 结构动态设计的通用方法[12] . Huang 等提出了一种增长和修剪 RBF 神经网络 (Generalized growing and pruning radial basis function, GGAP-RBF)[13] , GGAP-RBF 通过顺序学习的方 法判断隐含层神经元的重要性, 从而增减神经网络 结构, 但是, GGAP-RBF 需要根据全局样本数据设 定初始值, 而在实际应用中, 有时并不可能预先获得 全局样本数据. 文献 [14] 提出一种基于粒子群优化 (Particle swarm optimization, PSO) 的 RBF 神经 网络构优化算法, 该方法利用 PSO 同时对 RBF 神 经网络的隐含层神经元数和连接权值进行调整, 从 而提高整个神经网络的性能. 但是由于 PSO 是一种 全局优化算法, 在整个算法训练过程中需要时间较 长. Huang 等[15] 提出一种基于递归正交最小二乘 算法 (Recursive orthogonal least square algorithm, ROLSA) 和 PSO 的混杂前向 RBF 神经网络结构优 化算法 (Minimum volume covering hyperspheresrecursive orthogonal least square – particle swarm optimization, MVHC-ROLS-PSO), 该方法在学习 速度和泛化能力方面较文献 [14] 有一定的提高, 但 是该方法参数设置较复杂. Chen 等[16] 提出一种 基于前向正交选择 (Orthogonal forward selection, OFS) 的 RBF 神经网络结构优化算法, 该方法通 过留一准则 (Leave-one-out, LOO) 对 RBF 神经元 进行选择, 从而确定神经网络的结构, 但是前向正 交选择和留一准则 (OFS-LOO) 的参数修改算法 — 重复加速有利搜索 (Repeated weighted boosting search, RWBS) 算法是一种全局搜索算法, 在很大 程度上降低了其整体学习速度. 因此, RBF 神经网 络结构优化设计方法仍是一个开放的问题, 尤其是 RBF 神经网络动态结构调整过程的收敛性仍未得 到很好解决. 鉴 于 以 上 存 在 的 问 题, 本 文 提 出 了 一 种 基 于 神 经 网 络 输 出 敏 感 度 法 的 动 态 RBF 神 经 网 络 (Dynamic RBF Neural Network, D-RBF), 解决 了 RBF 神经网络结构过大或过小的问题, 并且对结 构调整过程及最终网络的收敛性进行了证明. 本文 提出的动态 RBF 神经网络能够根据实际系统需要 增长或删除神经网络隐含层神经元, 使神经网络具 有良好的自适应能力. 利用其对非线性函数逼近和 非线性系统建模, 证明了该方法的有效性.
相关文档
最新文档