限制速度粒子群优化和自适应速度粒子群优化在无约束优化问题中的应用

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

限制速度粒子群优化和自适应速度粒子群优化在无约束优化问
题中的应用
许君;鲁海燕;石桂娟
【摘要】限制速度粒子群优化(RVPSO)和自适应速度粒子群优化(SAVPSO)是近年来提出的专门求解约束优化问题(COP)的粒子群优化算法,但目前尚无两算法在无约束优化应用方面的研究.为此,研究上述算法在无约束优化中的有效性和性能特点,并针对算法保守性较强的特点,分别引入混沌因子和随机优化策略对算法进行改进,从而提高算法的全局搜索能力;另外,还研究了不同参数设置对算法性能的影响.在5个典型测试函数上的仿真实验结果表明:RVPSO改进算法的鲁棒性及全局搜索能力优于原算法,但在求解高维多峰函数时仍易于陷入局部最优;SAVPSO改进算法的全局搜索能力比RVPSO改进算法强,且在求解高维多峰函数时具有更快的收敛速度并能取得精度更高的解,表现出较好的全局优化能力,是一种切实有效的求解无约束优化问题的算法.
【期刊名称】《计算机应用》
【年(卷),期】2015(035)003
【总页数】8页(P668-674,684)
【关键词】无约束优化问题;约束优化问题;限制速度粒子群优化;自适应速度粒子群优化
【作者】许君;鲁海燕;石桂娟
【作者单位】江南大学理学院,江苏无锡214122;江南大学理学院,江苏无锡214122;江南大学理学院,江苏无锡214122
【正文语种】中文
【中图分类】TP301.6
0 引言
粒子群优化(Particle Swarm Optimization,PSO)算法是Kennedy 等[1]于1995 年提出的一种模拟鸟群觅食的智能优化算法。

由于PSO 算法具有易于实现、所需调整参数较少、收敛速度快等优点,引起研究者越来越多的关注,众多的改进算法被相继提出,并在科学研究及各类实际应用领域得到成功的运用。

粒子群算法在优化问题求解上的研究已经从早期的无约束优化问题扩展到组合优化、约束优化问题、多目标优化问题等领域。

约束优化问题具有许多线性和非线性、等式和不等式约束条件,其最优值的搜索过程将变得更加复杂。

但是,粒子群优化算法是一种无约束的搜索技术,缺乏明确的约束处理机制,需要在算法中添加额外的约束处理机制才能用于求解约束问题,因此设计具有较好性能的约束处理技术显得尤为重要。

本文中的主要研究对象——
限制速度粒子群优化(Restricted Velocity Particle Swarm Optimization,RVPSO)和自适应速度粒子群优化(Self-Adaptive Velocity Particle Swarm Optimization,SAVPSO)算法,是近年来提出的专门用于求解约束优化问题的PSO 改进算法,由于算法机制中嵌入了约束条件对粒子搜索行为的影响,因此在
约束优化中具有特定优势和良好性能,研究表明,在求解约束优化问题时,RVPSO 算法鲁棒性强、收敛速度快、局部搜索能力好,而SAVPSO 算法则具有
不错的随机搜索能力,全局搜索能力更好。

上述两算法中的动态目标方法
(Dynamic-Objective Method,DOM)机制体现了约束条件对算法机制的影响,
使得粒子可根据所处的位置动态调节其搜索行为。

同时DOM 机制本身也是具有
良好性能表现的约束条件可行域处理技术,可针对约束条件的可行域边界进行搜索处理,让粒子从可行域边界外往可行域内进行搜索。

应用DOM 机制能够扩大相
应算法的搜索范围,增强其搜索能力,提高算法的有效性[2-3]。

目前,粒子群优化算法已经成功用于求解一般的无约束优化问题,但在求解一些特定类型的问题(比如多峰问题)时,粒子群算法会出现早熟、粒子的多样性降低以及不易收敛到全局极值点的现象。

鉴于RVPSO 和SAVPSO 算法良好的性能表现以
及DOM 的有效性,本文采用逆向思维思考,将RVPSO 和SAVPSO 算法以及DOM 应用于求解无约束优化问题,并针对其在求解无约束优化问题中表现出来全局搜索能力较弱、容易早熟及陷入局部极值的缺点,将混沌变量、随机变量嵌入算法机制中,从而对算法进行改进,使其适用于求解无约束优化问题。

混沌变量具有遍历性、随机性和规律性的特点[4-5],随机变量可以使粒子较为均匀地分布在搜索空间,两者都可以有助于算法克服早熟收敛并提高算法的全局搜索能力,克服其早熟等缺点[6-7]。

除此之外,本文还对RVPSO和SAVPSO 算法在求解无约束优化问题中最优参数组合进行了研究;同时,上述研究有助于对RVPSO 算法和SAVPSO 算法在求解优化问题(包括约束优化和无约束优化问题)的性能和特点有更全面、更深入的了解。

1 粒子群优化算法的原理
原始的粒子群算法是一种基于群体智能的全局寻优算法。

粒子群优化算法的提出就是基于对鸟群觅食行为的模拟,其基本原理和鸟群觅食运动非常相似,通过个体间的协作和竞争,实现复杂空间中最优解的搜索。

算法中的粒子就等同于鸟群中鸟的角色,整个过程可以看作:在搜索空间内随机确定一群初始粒子,随后,通过算法
的迭代原理和目标函数评价的每个粒子的适应值,不断进化,最终找到全局最优解。

1.1 标准粒子群算法
标准粒子群优化(Canonical Particle Swarm Optimization,CPSO)算法数学模型建立如下。

设有一个解空间为d 维的问题,设置一个大小规模为M的粒子群,第i 个粒子的
位置为:Xi = (xi1,xi2,…,xid),速度为:Vi = (vi1,vi2,…,vid),速度决定了
粒子每次移动的距离和方向,根据描述问题的目标函数计算粒子当前的适应值,用于衡量粒子的优劣。

设Pbi = (pbi1,pbi2,…,pbid)为到目前为止第i 个粒子在搜索空间里所经历的最佳位置,Pg = (pg1,pg2,…,pgd)为全部粒子到目前为止搜索到的最优位置。

位置和速度的迭代更新公式:
其中:i = 1,2,…,N 表示每个粒子的编号;d = 1,2,…,D 表示问题的维数;k
表示粒子当前的代数;Vid 表示粒子自身原有的速度,使其具有自我探测、自我搜
索能力,能够提高算法全局搜索能力;pbid 称为粒子的“个体部分”学习,代表了粒子向自身的学习能力;pgd 称为粒子的“社会部分”学习,表示粒子向整个种群
学习的能力,参数c1 和c2 是加速系数(或称学习因子),分别表示受自身经验和受群体经验的影响大小,一般都将其设置为2;参数r1 和r2 是两个(0,1)内的随机数,它们的作用是保持粒子的多样性,从而避免算法陷入局部最优;参数w 是惯性权重(或称惯性因子),描述了粒子的惯性对于速度的影响,可通过取值大小来调节算法的全局与局部寻优能力[8];参数a 称为约束因子,目的是通过控制速度的权重,控制粒子迭代的步长,以平衡全局与局部搜索能力。

1.2 RVPSO 和SAVPSO 原理
约束优化问题求解即在一定的可行域范围下搜索粒子的最优解,所以针对约束优化问题存在的可行域约束问题的RVPSO 及SAVPSO 算法,着重增强粒子的局部搜
索能力,使其在一定的可行域内快速地寻优而不会容易迭代到可行域之外。

RVPSO 的更新迭代公式[2]:
其中,RVPSO 算法引入了一种粒子自身的学习认知要向整个社会认知靠拢搜索迭代机制:c1(pg(k)- xi(k))表示个体认知向群体认知靠拢,削弱粒子的全局搜索能力,增强了粒子的收敛能力,使得算法的局部寻优能力得到加强,但却容易陷入局部极小值;w 描述粒子个人认知向社会经验靠拢,通过取值大小调节算法的收敛速度和
局部搜索能力,从而使RVPSO 算法搜索过程在具有一定的保守性。

SAVPSO 的速度和位置更新迭代公式[3]:
SAVPSO 算法在标准粒子群算法基础上,引入了一种随机性与迭代步长相关的搜
索机制,即公式 w| pi'd(k)- pid(k)|sign(vid(k)),在SAVPSO 算法中,令c1 =c2 = 1,粒子i 新获得的速度会使其处在pgd 和pid 之间,从而粒子i 不会离可行域太远。

同时,用w | pi'd(k)- pid(k)|sign(vid(k))来控制粒子的飞行方向和幅度,i'
是[1,N]的随机整数。

需要注意的是,pi'd 和pid 都接近或者在可行域内,因此,w| pi'd(k)- pid(k)| 大致反映了可行域的大小。

所以,粒子i 将不会偏离可行
域太远,而且| pi'd(k)- pid(k)| 的值能够自适应地随着搜索范围的变化而变化,从而使其全局搜索能力得到提高,能够扩大粒子群的搜索空间,而搜索后期当粒子向最优解聚集的时候,由于粒子迭代步长变小了,导致算法表现出较强的局部搜索能力,有利于粒子群快速收敛。

SAVPSO 算法具有在粒子搜索的过程中根据粒子迭
代的情况自发调节算法的随机性,有助于提高粒子寻优能力。

1.3 DOM 约束机制简述
粒子在搜索空间内飞行是可能会超出可行域的约束范围,如果只是简单地将粒子舍弃并重新定义一个新的粒子,会使得粒子之前的搜索信息没有得到合理的利用。

RVPSO 和SAVPSO 算法中的DOM 机制不同于上述做法,它可以做到在不影响
粒子寻优的前提下更好地处理粒子在搜索过程中飞出可行域范围的情况。

DOM 机制不仅使得粒子在可行域边界附近进行搜索,让可行域之外的粒子沿着边界从外向内进行搜索,还可以增强粒子的搜索能力,从而提高算法的性能和效率。

由于无约束优化问题中变量的边界约束实际上也是一种约束条件,故DOM 机制也可用于
处理无约束问题的边界约束。

DOM 机制处理边界约束的伪代码如下:
2 算法的改进
2.1 混沌RVPSO 和随机RVPSO 算法
根据“没有免费的午餐”理论,每种进化算法都有各自的优缺点,如何将不同的算法以及不同的策略结合以创造出具有更强的寻优能力的算法是目前进化算法研究的热点之一。

下面根据RVPSO 和SAVPSO 的特点,将混沌变量、随机策略分别与RVPSO 和SAVPSO 相结合,设计出综合寻优能力更强的算法,以解决多维复杂
的优化问题。

2.1.1 混沌RVPSO 算法
一般由确定性方程得到的具有随机性的运动状态称为混沌,混沌状态是非线性系统中一种较为普通的现象,其行为复杂且类似随机现象。

但是混沌算法存在着精细的内在规律,应用混沌因子使得粒子在一定范围内表现出如下特点[9-11]:随机性、遍历性、规律性以及初始条件的敏感性。

它的表现同随机变量一样杂乱,但是由于该变量是从迭代方程导出的,又具有一定的内在的规律性,使其能够经历空间内所有状态。

目前关于混沌粒子群算法的研究,主要集中于探讨各种混沌映射对于算法的性能影响以及利用算法混合思想与一些启发式算法相结合以提高算法的性能,该类算法的基本思想是利用混沌序列产生新的粒子代替原来的粒子[11]。

研究表明RVPSO 算法具有全局搜索能力较弱,容易陷入局部极值点的缺陷,为此,本文将混沌因子应用于RVPSO 算法的求解策略中,利用混沌因子的特点以提高算法的全局搜索能力,从而有效避免粒子陷入局部极值点。

常见的混沌优化模型[12]如下。

1)Logistic 映射。

其中:μ 为控制变量,是一个正常数,通常取μ = 2;Logistic 映射函数为非线性函数。

2)逻辑自映射。

其中:μ 为控制变量,是一个正常数,通常取μ = 2;逻辑自映射函数为非线性函数。

然而,不同的混沌优化模型的性能有较大区别,相关研究表明Logistic 映射具有
更好的全局搜索能力,能够搜索更大的空间。

因此,本文应用Logistic 映射以提
高算法的遍历性,增加算法搜索能力。

混沌RVPSO 算法更新迭代公式如下:
其中:r1 变量是混沌因子,由确定的迭代方程导出,利用混沌序列初始化粒子的位
置和速度,提高了种群的多样性和粒子搜索的遍历性。

2.1.2 随机RVPSO 算法
将随机变量应用与粒子群优化算法中,可以扩大粒子的搜索范围,使粒子具有不同的跳跃性;使得初期跳跃性比较大的粒子,能够快速确定搜索方向,同时也能保持
其大范围的搜索能力,而后期跳跃性比较小的粒子能够快速收敛寻得最优值[13]。

采用随机策略可以使粒子初设化的时候更加均匀地分布在搜索空间里,
能够弥补RVPSO 算法的全局搜索能力弱的缺陷,有利于保持粒子种群的多样性及
提高算法的全局搜索性能[14]。

经过改进后的随机RVPSO 算法更新迭代公式如下:
其中:unifrnd(0,1)是随机因子,生成(0,1)区间随机数,让粒子群能够在更大范围内进行搜索,提高全局的优化能力,使粒子在迭代过程中具有很大的随机性。

2.2 混沌SAVPSO 算法和随机SAVPSO 算法
2.2.1 混沌SAVPSO 算法
常见的混沌优化模型前面已介绍,不再赘述。

混沌算法所具有的随机性、遍历性等特性理论上能够增强SAVPSO 算法的全局搜索能力,扩大算法的搜索空间,提高算法的寻优能力。

本文将Logistic 映射引入SAVPSO 算法中,经过改进后的混沌SAVPSO 算法更新迭代公式如下:
2.2.2 随机SAVPSO 算法
SAVPSO 算法的特点是在粒子搜索的过程中能够根据粒子迭代步长的情况自发调节算法的随机性,所以初始化时候粒子的分布非常重要。

如果粒子分布比较聚集,算法的随机性就无法表现出来,因此需要一种策略能够保证初始化的时候粒子较均匀地分布在搜索空间。

而随机粒子群算法中随机策略最大的特点就在于具有在粒子初设化的时候将其比较均匀地分布在搜索空间里的能力,将这种能力结合到SAVPSO 算法之后,能够很好地发挥出SAVPSO 算法的全局寻优能力。

改进后的随机SAVPSO 算法更新迭代公式如下:
2.2.3 RVPSO 和SAVPSO 算法的参数影响
一般而言,不同的算法适合的参数设置不一样,因此参数设置对算法性能的影响很
大。

为了避免因为参数的设置不当而导致算法陷入局部最优及早熟收敛的情况,并让所有算法表现出较好的寻优能力,从而得到算法较好的表现结果,同时也为了测试出让算法表现较好的参数设置方案,下面结合之前学者的研究,给出6 种不同
的参数交叉组合[15-20]。

惯性因子w:
A1——线性递减策略:
w = 0.95 - (0.95 -0.4)* k/N;
A2——常量策略:w = 0.7;
A3——以凹函数递减策略:
w = 0.55* (k/N)2 +0.55* (2* k/N)+0.95;
其中:k 为当前的迭代次数,N 为总迭代次数。

学习因子c1,c2
B1——常量策略:c1 = c2 = 0.5;
B2——非线性递减,c1 + c2 = 2。

6 种不同的交叉组合分别是:组合1(A1,B1),组合2(A1,B2),组合3(A2,B1),组合4(A2,B2),组合5(A3,B1),组合6(A3,B2)。

3 算法的仿真实验及其分析
为了探究上述算法的搜索能力以及算法的最优参数组合,验证上述算法在求解无约束优化问题的有效性,本文运用Matlab 7.10(2010b)进行了仿真实验,实验基于Windows7 系统平台,针对求解5 个无约束测试函数最小值问题进行仿真实验。

3.1 标准测试函数
本文采用了5 个经典基准测试函数Schaffer、Shubert、Griewank、Rastrigrin
和Rosenbrock 来测试本文涉及到的粒子群优化算法的性能,表1 给出了5 个函
数的函数表达式及其变量的取值范围,其中函数Schaffer 是二维的具有强烈震荡
性态的复杂函数,具有无数极小值点,在(0,0)处取得最小值0(见图1);函数Shubert 也是二维复杂函数,存在760 个局部极值点,在(-1.42513,0.80032)处取得最小值-186.7309;Griewank(见图2)和Rastrigrin 均为典型的非线性的多模
态函数,峰形呈高低起伏不定跳跃性地出现,在xi =0,i =1,2,…,n处取得全局最小值0;Rosenbrock 函数全局最优点位于一个平滑、狭长的抛物线形山谷内,由于函数为优化算法提供的信息比较有限,使算法很难辨别搜索方向[16],搜
索最优解也变得十分困难,在函数中xi = 0,i =1,2,…,n 处可以找到极小值0。

表1 经典无约束优化测试函数及其变量的取值范围函数编号函数名称函数表达
式变量的取值范围f1 Schaffer min f(x1,x2)= 0.5 + (sin x21 + x 22)2 -
0.5(1 +0.001(x21 + x22))■2[-10,10]f2 Shubert min f(x,y)= {∑5 i=1i cos[(i +1)x + i]}×{∑5 i=1i cos[(i +1)y + i]} [-10,10]f3 Griewank min f(xi)= ∑N 4 000 -∏N x2i / i)+1 [-600,600]f4 Rastrigrin min f(xi)=
∑D i=1[x2i -10 cos(2πxi)+10][-5.12,5.12]f5 Rosenbrock min f(xi)=
∑D-1 cos(xi ■i=1 i=1[100(x2i - xi+1)2 + (xi -1)2][-2 048,2 048]i=1
为了反映基准测试函数的高维多峰等特性,给出了部分测试函数的三维图像。

图1 Schaffer 函数三维图像
3.2 实验结果分析
将上述算法用于求解无约束优化问题的5 个基准测试函数的仿真实验,实验设置
的迭代粒子有20 个,高维基准测试函数设置为15 维,最高迭代次数2000 次,
粒子群搜索终止的条件设置为粒子已收敛或者达到预设的最大迭代次数。

对每个函数独立运行15 次所寻得最优收敛值(Best)、平均收敛值(Mean)、最差收敛值(Worst)、标准差(Standard deviation)以及收敛值的中位数作为最终评价指标。

表中f1 代表Schaffer函数,f2 代表Shubert 函数,f3 代表Griewank 函数,f4 代表Rastrigrin 函数,f5 代表Rosenbrock 函数。

图2 Griewank 函数三维图像
通过表2 数据比较可以看出,在参数组合5 条件下的测试结果最好,由此得出结论:RVPSO 算法与SAVPSO 算法的最佳参数设置为组合5 (惯性因子w 为凹函数
递减策略,学习因子c1,c2 都取常量0.5)。

且通过表中整体实验数据进一步的比较,可以得出结论:惯性因子的变化对两种算法的实验结果影响较小,而学习因子
的变化对两种算法的实验结果影响较大,其中,学习因子的常量策略对算法有较好的表现效果。

表3 中实验数据都是将最佳参数设置应用于算法得到的实验结果;通过表中数据比
较分析可知,RVPSO 算法在求解无约束问题上表现出陷入局部最优、容易早熟、快速收敛等缺点;而SAVPSO 算法对于求解无约束问题表现的效果较好,特别是对于高维多峰的无约束问题的搜索能力较强,是一种适合求解无约束优化问题的算法。

表2 各组合参数应用于RVPSO 和SAVPSO 算法求解无约束问题的实验结果算法
函数 Opitimal 组合1组合2组合3 Best Mean Best Mean Best Mean f1 RVPSO算法0 0.009 7 0.041 5 0.010 7 0.041 6 0.009 7 0.039 3 f2 -
186.730 9 -186.730 9 -129.789 2 -169.039 1 -69.566 4 -186.730 7 -
119.859 f3 0 90.098 4 371.322 2 186.370 6 611.144 1 158.687 8
485.811 2 f4 0 623.126 3 8.47E+03 2.68E+04 7.20E+04 1.31E+04
3.50E+04 f5 0 1.32E+06 2.56E+06 8.12E+06 1.22E+07
4.78E+06
7.90E+06 f10 0.004 3 2.40E-04 0.009 0 0.003 2 f2 -186.730 9 -186.730 9 -181.906 6 -186.614 8 -179.86 -186.730 9 -186.730 9 f3 0 1.17E-12
6.074 5 170.039 324.946 8 0.722 7 13.188 5 f4 0 0.077 13.860 1
1.83E+03 8.56E+03 10.767 3 86.514 9 f5 0 11.939 5 26.783 4
2.01E+06 4.74E+06 330.888 7 0 SAVPSO算法1.00E+05算法函数 Opitimal 组合4组合5组合6 Best Mean Best Mean Best Mean f1 RVPSO算法0 0.010 7
0.046 2 0.009 7 0.041 3 0.010 7 0.041 6 f2 -186.730 9 -169.039 1 -
66.209 1 -186.730 9 -136.165 7 -169.039 1 -71.477 6 f3 0 186.370 6 606.522 2 89.381 7 369.699 186.370 6 611.160 1 f4 0 2.68E+04
7.20E+04 589.967 9 5.11E+03 2.68E+04 7.20E+04 f5 0 8.12E+06
1.22E+07 1.24E+06
2.61E+06 8.12E+06 1.22E+07 f1 SAVPSO算法0 0.010 7 0.046 2 0.009 7 0.041 3 0.010 7 0.041 6 f2 -186.730 9 -169.039 1 -66.209 1 -186.730 9 -136.165 7 -169.039 1 -71.477 6 f3 0 186.370 6 606.522 2 89.381 7 369.699 186.370 6 611.160 1 f4 0 2.68E+04
7.20E+04 589.967 9 5.11E+03 2.68E+04 7.20E+04 f5 0 8.12E+06
1.22E+07 1.24E+06
2.61E+06 8.12E+06 1.22E+07
表3 最佳参数应用于各粒子群优化算法求解无约束问题的实验结果函数 Optimal Best Mean Worst CPSO RVPSO SAVPSO f1 0 0 0.009 7 0 0.001 6 0.041 3 0.002 3 0.009 7 0.127 0 CPSO RVPSO SAVPSO CPSO RVPSO SAVPSO.009 7 f2 -186.730 9 -186.730 9 -186.730 9 -186.730 9 -186.730 9 -136.165 7 -186.730 9 -186.730 9 -37.599 6 -186.671 9 f3 0 0.575 6 89.381 7 4.49E-12 181.083 1 369.699 6.425 7 64.131 4 690.010 3 90.764 5 f4 0 1.16E+01 5.90E+02 9.65E-02 2.64E+03 5.11E+03 22.938 2.64E+03
3.22E+04 78.210 8 f5 0 241.744 8 1.24E+06 9.949 6 1.61E+04 2.61E+06 309.805 2 1.61E+04
4.42E+06 4.22E+03
由对表4 的实验数据可知,表中随机RVPSO 寻得的最优值是所列算法里最好的,随机RVPSO 在对f1、f2 函数优化时均收敛到了理论最优值;在对f3、f4 和f5 函
数优化时均取得比其他算法更佳的收敛值;与RVPSO 相比而言其算法的性能得到
了很大的改进,一定程度上增强了RVPSO 算法的全局搜索能力。

而嵌入DOM 机制的RVPSO 和混沌RVPSO 算法并没有预期较好的表现,嵌入DOM 的RVPSO
在求解无约束问题中的表现虽然不佳,但在求解约束优化问题时却取得了好的结果,这从另一角度说明了DOM 及RVPSO 对于约束优化问题的适用性。

通过分析表4 中的仿真实验结果可知,表中SAVPSO 改进算法所寻得的极小值比RVPSO 改进算法更接近理论值,说明SAVPSO 要比RVPSO 算法更适用于求解
无约束优化问题。

对高维多峰函数的优化问题一直是无约束优化问题中的难点,而随机SAVPSO 在对复杂的高维多峰函数f3 和f4 的优化测试时均取得比其他算法
更好的实敛值,这充分说明论文中提出的随机SAVPSO 算法具有更好的性能,证
实了算法的有效性。

为了反映本文所提出的算法的动态特性,图3 分别给出了5 个测试函数在各类优
化算法下的收敛曲线。

从图3 可以看出:本文中随机RVPSO、随机SAVPSO 算法
分别是RVPSO、SAVPSO 算法类型中的整体性能最好的算法;SAVPSO 类型中算
法的寻优能力又相对优于RVPSO 类型中算法。

图3(a)、(b)中,随机RVPSO 算
法收敛的最优值明显比RVPSO 算法更好,随机SAVPSO 算法收敛的最优值比SAVPSO 略好;SAVPSO 类型算法收敛的最优值相对比RVPSO 类型算法更好。


3(f)中,对于高维多峰的Griewank 函数的求解,随机SAVPSO 算法表现出比其
他算法更好的寻优能力,体现了该算法在求解高维多峰问题的优势。

为了对CPSO、RVPSO 类型算法和SAVPSO 类型算法的性能进行比较,图4(a)、(b)给出了部分
具有代表性测试函数在CPSO、随机RVPSO、随机SAVPSO 算法下的最优适应
值收敛曲线。

综合上述分析可以看出:随机SAVPSO 算法的寻优能力优于CPSO 算法,而CPSO 算法寻优能力又优于随机RVPSO 算法。

表4 本文中多种改进的粒子群优化算法的仿真实验结果注: RVPSO(DOM+)和SAVPSO(DOM+)分别表示应用了DOM 机制的RVPSO 算法和SAVPSO 算法。

函数 Optimal 算法Best Mean Worst Median Standard deviation f1 0 RVPSO 0.009 7 0.041 3 0.127 0.037 2 0.034 2 RVPSO (DOM+) 0.009 7
0.040 9 0.130 2 0.037 2 0.033 2混沌RVPSO 0.009 7 0.023 5 0.127 0.009 7 0.029随机RVPSO 0 0.009 9 0.037 2 0.009 7 0.008 3 SAVPSO 0 0.002 3 0.009 7 7.49E-16 0.004 2 SAVPSO(DOM+)8.84E-04 0.008 6 0.013 9 0.009 7 0.002 7混沌SAVPSO 4.00E-07 0.001 9 0.009 7 6.33E-04 0.002 9随机SAVPSO 2.89E-06 0.002 2 0.009 7 0.001 0.003 2 RVPSO -186.730 9 -136.165 7 59.608 4 -37.599 6 -f2-186.730 9 185.789 7 RVPSO (DOM+)-186.730 9 -114.445 -24.815 7 2.23E+03 551.504混沌RVPSO -186.730 6 -138.147 -46.474 9 -176.176 6 55.434 6随机RVPSO -186.730 9 -182.123 4 -48.506 8 -186.730 9 25.236 2 SAVPSO -186.730 9 -186.728 7 -186.671 9 -186.730 9 0.010 8 SAVPSO(DOM+)-186.664 5 -177.680 5 -151.659 8 -181.164 6 9.549 2混沌SAVPSO -186.730 9 -186.205 5 -186.445 4 -186.519 7 0.686 9随机SAVPSO -186.730 9 -186.276 8 -184.005 9 -186.570 5 0.653 4 RVPSO 89.381 7 369.699 690.010 3 374.991 4 150.f3 0 095 5 RVPSO (DOM+) 122.571 672.726 1 2.23E+03 551.504 403.603 1混沌RVPSO 158.921 493.779 9 1.32E+03 473.869 7 201.544 2随机RVPSO 1.3118 136.851 5 721.012 3.352 205.193 8 SAVPSO 4.49E-12 6.425 7 90.764 5 0.048 22.990 2 SAVPSO(DOM+) 0.159 100.146 6 6.56E+02 24.080 7 152.107 5混沌SAVPSO 0 0.114 8 1.008 2 0.025 8 0.210 5随机SAVPSO 0 0.044 2 0.142 5 0.034 4 0.036 4 RVPSO 5.90E+02 5.11E+03 3.22E+04 2.77E+03 7.f4 0 28E+03 RVPSO (DOM+)431.211 6 4.38E+04 1.03E+05 4.67E+04 4.10E+04混沌RVPSO 1.93E+04 5.80E+04 1.94E+04 8.65E+04 6.13E+04随机RVPSO 10.798 3 13.987 9 17.662 7 14.193 2 1.623 6 SAVPSO 0.096 5 22.938 78.210 8 12.959 5 23.800 2 SAVPSO(DOM+) 0.147 8 10.904 7 73.292 4 9.109 12.156 2混沌SAVPSO 5.61E-06 8.193 9
14.216 7 8.602 3 3.368 6随机SAVPSO 3.84E-04 23.723 2 506.612 3
8.095 2 91.264 5 RVPSO 1.24E+06 2.61E+06 8.54E+05 4.42E+06 2.f5 0
51E+06 RVPSO (DOM+)4.87E+05 7.82E+06 1.55E+07 1.02E+07 5.97E+06
混沌RVPSO 7.04E+06 1.07E+07 2.02E+06 1.37E+07 1.12E+07随机RVPSO 248.828 3 3.49E+03 1.07E+04 2.95E+03 2.49E+03 SAVPSO 9.949 6 309.805 2 4221.7 23.800 2 970.25 SAVPSO(DOM+)155.576 9 389.551 9 1.17E+03 316.982 1 243.263 9混沌SAVPSO 64.836 6 88.144 7 113.475 6 86.469 1 12.492 6随机SAVPSO 15.919 3 70.505 2 116.850 9 75.557 8 25.7 56 3
4 结语
文中分析了RVPSO 算法和SAVPSO 算法在求解无约束问题的最佳参数配比,参
数变量的影响及其表现性能的缺陷,据此对算法进行了一定的改进,使其性能得到了提高。

SAVPSO 算法对于求解高维多峰问题表现出较好的寻优能力,是一种具
有潜力的求解无约束问题的算法。

目前,对两种算法的研究还不够深入,因此针对具体应用问题深化研究是很有必要的,为了进一步提高算法的性能,还可以考虑将两种算法与其他算法或技术相结合,以克服解决算法求解一些复杂的优化问题具有的一些缺陷。

针对SAVPSO算法求
解高维多峰问题的不足之处,进一步的研究可将求解高维多峰函数的搜索策略融入SAVPSO 算法中,以提高算法中粒子后期的寻优能力,使其能够求得更为精确的解。

图3 各类RVPSO 和SAVPSO 算法求解测试函数时的最优适应值收敛曲线
图4 CPSO、随机RVPSO 和SAVPSO 求解测试函数时的最优适应值收敛曲线
参考文献:
[1] KENNEDY J, EBERHART R.Particle swarm optimization [C]
//Proceedings of the 1995 IEEE International Conference on Neural Network.Piscataway: IEEE,1995,4:1942 -1948.
[2] LU H, CHEN W.Dynamic-objective particle swarm optimization for constrained optimization problems[J].Journal of Combinatorial Optimization,2006,12(4):409 -419.
[3] LU H, CHEN W.Self-adaptive velocity particle swarm optimization
for solving constrained optimization problems [J].Journal of Global Optimization,2008,41(3):427 -445.
[4] LI B, JIANG W.Chaos optimization method and its application [J].Control Theory and Applications, 1997,4(4):613 -615(李兵,蒋慰孙.混沌优化方法及其应用[J].控制理论与应用,1997,14(4):613 -615.)
[5] CUI Z, ZENG J.A guaranteed global convergence particle swarm optimizer [C]// Proceedings of the 4th International Conference on Rough Sets and Current Trends in Computing.Berlin: Springer,2004:762 -767.
[6] HUANG S.A new particle swarm optimization with random parameters[J].Journal of Chongqing Normal University: Natural Science,2013,30(6):124-128.(黄少荣.基于随机参数的粒子群优化算法[J].重庆师范大
学学报:自然科学版,2013,30(6):124-128.)
[7] ZENG J,CUI Z.A guaranteed global convergence particle swam optimization [J].Computer Research and Development,2004,
41(8):1333 -1338.(曾建潮,崔志华.一种保证全局收敛的PSO 算法[J].计算机
研究与发展,2004,41(8):1333 -1338.)
[8] MONSTAGHIM S,TEICH J.Strategies for finding good local guides in
Multi-Objective Particle Swarm Optimzation ( MOPSO) [C]//Proceedings of the 2003 IEEE Swarm Intelligence Symposium.Piscataway: IEEE,2003:26 -33.
[9] ZHAO Y, FANG Z.Particle swarm optimization algorithm with weight function's learning factor [J].Journal of Computer Applications,2013,33(8):2265- 2268.(赵远东,方正华.带有权重函数学习因子的粒子群算法[J].计算机应用,2013,33(8):2265-2268.)
[10] TANG X.Theory of chaos particle swarm optimization algorithm and its application [D].Chongqing: Chongqing University,2007.(唐贤伦.混沌粒子群优化算法理论及应用研究[D].重庆: 重庆大学,2007.)
[11] XU X, ZHENG K, LI D, et al.New chaos-particle swarm optimization algorithm [J].Journal on Communications,2012,33(1):25-30.(胥小波,郑康锋,李丹,等.新的混沌粒子群优化算法[J].通信学报,2012.33(1):25 -30.)
[12] TIAN D.Research of chaos particle swarm optimization algorithm [J].Computer Engineering and Applications,2013,49(17):43 -46.(田东平.混沌粒子群优化算法研究[J].计算机工程与应用,2013,49(17):43 -47.) [13] LI P,WANG H,YANG Y.Random particle swarm optimization algorithm and its application [J].Computer Systems and Applications,2012,21(2):245-249.(李盼池,王海英,杨雨.一种随机粒子群算法及应用[J].计算机系统应用,2012,21(2):245-249.)
[14] ZHANG L, ZHOU C, LIU X, et al.Application of particle swarm optimization for solving optimization problems [J].Journal of Jilin University: Information Science Edition,2005,23(4):385 -388.(张利彪,周
春光,刘小华,等.粒子群算法在求解优化问题中的应用[J].吉林大学学报:信息
科学版,2005,23(4):385 -388.)
[15] CHEN G, JIA J,HAN Q.Study on the strategy of decreasing inertia weight in particle swarm optimization algorithm [J].Journal of Xi'an Jiaotong University, 2006,40(1):53 -56.(陈贵敏,贾建援,韩琪.粒子群优化
算法的惯性权值递减策略研究[J].西安交通大学学报,2006,40(1):53 -56.) [16] SHI Y, EBERHART R.A modified particle swarm optimizer[C]// Proceedings of the 1998 IEEE International Conference on Evolutionary Computation.Piscataway: IEEE,1998:69 -73.
[17] ZHAN Z,ZHANG J.Adaptive particle swarm optimization[C]// Proceedings of the 6th International Conference on Ant Colony Optimization and Swarm Intelligence.Berlin: Springer,2008:227-234. [18] HUANG X, ZHANG J, ZHAN Z.Faster particle swarm optimization with random inertia weight [J].Computer Engineering and Design,2009,30(3):647-650.(黄轩,张军,詹志辉.基于随机惯量权重的快速粒子群优化算法[J].计算机工程与设计,2009,30(3):647-650.)
[19] SUGANTHAN P N.Particle swarm optimizer with neighborhood operator [C]// Proceedings of the Congress on Evolutionary Computation.Piscataway: IEEE,1999:1958 -1962.
[20] RATNAWECRA A,HALGAMUGE S K,WATSON H C.Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients[J].Evolutionary Computation,2004,8(3):240-255.。

相关文档
最新文档