粒子群算法的研究现状及其应用

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

智能控制技术
课程论文
中文题目: 粒子群算法的研究现状及其应用姓名学号:
指导教师:
年级与专业:
所在学院:
XXXX年XX月XX日
1 研究的背景
优化问题是一个古老的问题,可以将其定义为:在满足一定约束条件下,寻找一组参数值,使系统的某些性能指标达到最大值或最小值。

在我们的日常生活中,我们常常需要解决优化问题,在一定的范围内使我们追求的目标得到最大化。

为了解决我们遇到的最优化问题,科学家,们进行了不懈的努力,发展了诸如牛顿法、共轭梯度法等诸多优化算法,大大推动了优化问题的发展,但由于这些算法的低运行效率,使得在计算复杂度、收敛性等方面都无法满足实际的生产需要。

对此,受达尔文进化论的影响,一批新的智能优化算法相继被提出。

粒子群算法(PSO )就是其中的一项优化技术。

1995 年Eberhart 博士和Kennedy 博士[1]-[3]通过研究鸟群捕食的行为后,提出了粒子群算法。

设想有一群鸟在随机搜索食物,而在这个区域里只有一块食物,所有的鸟都不知道食物在哪里。

那么找到食物最简单有效的办法就是鸟群协同搜寻,鸟群中的每只鸟负责离其最近的周围区域。

粒子群算法是一种基于群体的优化工具,尤其适用于复杂和非线性问题。

系统初始化为一组随机解,通过迭代搜寻最优值,通过采用种群的方式组织搜索,同时搜索空间内的多个区域,所以特别适合大规模并行计算,具有较高的效率和简单、易操作的特性。

目前使用的粒子群算法的数学描述[3]为:设粒子的寻优空间是m 维的,粒子的数目为ps ,算法的最大寻优次数为Iter 。

第i 个粒子的飞行速度为T i i1i2im v [v v ]= ,,,v ,位置为T i i1i2im x [x x x ]= ,,,,粒子的个体极值T i i1i2im Pbest [,]P = ,P ,P ,全局极值为
T i i1i2im Gbest [,]g = ,g ,g 。

粒子群算法的寻优过程主要由粒子的速度更新和位置更新两部分组成,其更新方式如下:
i+11122v ()()i i i i i v c r Pbest x c r Gbest x =+−+−;
i+1i+1i x x v =+,
式中:12c c ,为学习因子,一般取2;12r r ,是均与分布着[0,1]上的随机数。

2 粒子群算法的国内外研究进展
粒子群算法一经提出就吸引了各国学者的注意,经历了许多变形和改进,为实际的工业应用指引了新的方向。

从2003年IEEE第一届国际群智能研讨会在美国召开后,关于PSO算法的研究和应用成果的论文逐年增加,从图1不难看出,ISI数据库收录有关PSO论文数量近年来成指数增长趋势,这体现了对PSO的研究成了智能算法领域的一大热点。

PSO算法的研究主要集中在理论研究和应用研究两个方面。

在理论研究方面,目前PSO 算法还没有成熟的理论分析,部分研究者对算法的收敛性进行了分析,而部分研究者在算法的结构和性能改善方面进行研究,包括参数分析,拓扑结构,粒子多样性保持,算法融合和性能比较等。

在应用研究方面,根据具体情况,对算法进行改进,以满足应用要求。

图1 ISI数据库收录PSO算法论文
2.1收敛性分析
PSO 算法收敛性分析一直是研究的难点,由于算法引入了随机变量,使得很多常规数学方法对其无效。

2001年Van[4]通过采用集合论的方法研究得出:只有改进的PSO 算法才可以保证算法的局部或全局收敛性。

在此理论前提下,提出一种在时间无限下保证收敛到局部最优的改进算法,算法虽然保证了收敛性,但其优化效果并不理想。

2002年Clerc 等[5]对PSO进化方程进行了分析,利用状态转移矩阵的策略研究单个粒子在进化中的运动轨迹,进而得到使单个粒子收敛的条件,但该分析方法忽略了粒子间作用和随机变量的作用。

2003年Trelea[6]运用动态系统理论对粒子群算法
进行了分析,并给出了参数选取的指导规则。

2004年Cui [7]通过在基本粒子群算法基础上,引入一种随机算法保证算法收敛到全局最优解。

2004年曾建潮等[21]提出了一种能保证以概率1收敛于全局最优解的 PSO 算法(随机 PSO 算法),该算法对其全局收敛性进行了理论分析,并提出了两种停止进化粒子的重新产生方法。

2007年Jiang 等[8]对 PSO 算法的收敛性进行了分析,给出了算法的收敛条件。

2008年Chen [9]通过引入可控制的随机探索向量,来控制算法的收敛。

2009年Latif [10]通过引入分布因子,分析了算法的收敛性条件。

2009年高雷阜等[22]通过分析算法的收敛性,提出了基于混沌改进的粒子群算法。

Rapaic 等[11-13]对算法的参数选取和收敛性进行分析,给出算法收敛条件下参数选取的准则。

众多研究者对算法收敛性的分析,并在一定程度上给出了算法的收敛条件,但都是在简化条件下的结论,这使得对收敛性的分析缺乏一般性。

2.2 参数的分析与改进
为了加快收敛速度,提高算法的性能,研究者们对PSO 参数进行研究。

PSO 的参数,主要有惯性因子ω,学习因子1c 和2c ,目前研究较多的是惯性因子ω。

惯性因
子ω与粒子原速度相乘,体现了局部搜索能力和全局搜索能力的比例关系,较大的ω可以增强PSO 的全局搜索能力,适用于初期时的搜索,响应速度较快;而较小的ω能加强PSO 算法的局部搜索能力,适用于精度较高的末期搜索[14]。

因此,随着迭代次数的增加,惯性因子ω应不断减小。

目前对ω的取值大致有三种取法:固定惯性因子取值法[15,16]、线性自适应惯性因子取值法[14,17]、非线性惯性因子取值法[18-20]。

Shi 等[23]给出了一种用模糊规则动态调整惯性因子方法,通过对当前最好性能的评价来对惯性因子制定相应的隶属度函数和模糊推理规则。

实验表明,与惯性因子线性减小的方法相比,模糊自适应方法有类似或更好的结果。

国内李宁等[24]给出了一种惯性因子随着迭代代数采用余弦减小的方法,也取得了良好的效果。

Chatterjee A 与Siarry P [25]提出在线性递减的方法中增加一个指数参数,变为非线性权重递减。

Jiao B 等[26]提出惯性因子每步的情况都是动态变化,随着运行的迭代步数增加,权重可能会增加也可能会减小。

2.3 种群拓扑结构改进
粒子群算法是基于种群中粒子相互学习的进化算法,种群的拓扑结构直接决定了粒子学习样本的选择,不同的邻居拓扑结构衍生出不同的PSO 算法。

Kennedy[15]最初提出粒子群算法时,采用了全局版本拓扑结构(图2(a)),每个粒子的邻居是除自身外的种群中其它所有粒子。

但经过大量的仿真及实际应用后,发现这种拓扑结构极易陷入局部最优解。

因此,在1999 年Kennedy[27]提出了局部版本的PSO 算法,该算法采用图2(b)所示的Ring 型拓扑结构,即每个粒子的邻居仅由与它自身最近的两个粒子构成。

为了进步一步探索种群拓扑结构对于算法的影响,Mendes[28]从社会学的“Small Worlds”概念出发研究粒子间的信息流,对种群拓扑结构进行深入的研究,提出Four Cluster、Pyramid和Square型拓扑结构(图2(c)(d)(e)),上述5种拓扑结构衍生出5种PSO 算法。

图2 种群的拓扑结构
All型种群拓扑结构有助于全局搜索,而Ring型拓扑结构对于局部探索有更好地表现。

因此,Parsopoulos[29]在此基础上,提出一种结合All型和Ring型拓扑结构统一粒子群算法,提升粒子跳出局部最优解的能力。

由于Ring型拓扑结构有很好的拓展性,许多学者在此基础上引入了变型的Ring型结构,如基于俱乐部的PSO算法[30],该算法将整个种群划分为若干个俱乐部,每个俱乐部相当于一个Ring型结构,每个俱乐部之间可以互相信息交流,但这种俱乐部结构是静态的,限制了粒子的自由流动。

因此,为克服此缺陷,Emara[31]提出一种自适应俱乐部粒子群算法,Miyagawa等[32-34]在All型拓扑结构基础上,提出了小生境和树状拓扑结构的粒子群算法。

前面所涉及的改进拓扑结构实质上都是一种静态拓扑结构,这种拓扑结构由于粒子间学习样本的固定性,降低了种群的多样性,因此,许多学者在静态拓扑结构的基础上提出了动态拓扑结构以增加群的多样性,进而提升种群跳出局部最优解的能力。

2.4 算法融合研究
Wolpert[35]于1997年提出了没有免费的午餐理论,该理论指出每种进化算法都存在各自的优缺点,因此,如何将PSO 与其它算法的结合也是当前研究热点之一。

2010年陶新民[36]和Wei[37]提出基于K均值的混合PSO算法,在算法运行过程中,根据每个粒子的适应函数值来确定K均值算法操作时机,不仅增强算法局部精确搜索能力,而且也缩短了收敛时间。

Qin[38]将局部搜索算法嵌入到PSO中,每间隔若干代对粒子自身最优位置进行局部搜索,如果获得的局部最优解优于粒子自身历史最优解,则进行替换,通过这种策略,使得粒子避免了在局部最优解处的聚集。

2005年高海兵等[39]提出了广义粒子群优化模型GPSO,使其适用于解决离散的组合优化问题。

GPSO模型本质仍然符合粒子群优化机理,但是其粒子更新策略既可根据优化问题的特点设计,也可实现与己有方法的融合。

还有学者将PSO与其它算法,通过一定的规则结合在一起,以发挥各自算法的优势,出现了将PSO与模拟退火算法、细菌趋药性算法、禁忌算法、遗传算法、蚁群算法等诸多算法进行混合;出现了基于量子PSO 算法、自适应PSO算法和小生境PSO等混合改进算法。

总之,无论哪种混合算法都是为了提升种群多样性,但这些混合策略引入新的参数(如在与遗传算法结合的混合算法中,何时进行变异和交叉操作,需要引入额外参数来控制这些操作的时机),由于引入了额外参数,导致实际应用受到限制。

2.5 粒子群算法的应用研究
PSO算法由于具有简单、易于实现、设置参数少、无需梯度信息等特点,其在连续非线性优化问题和组合优化问题中都表现出良好的效果,因此被应用到很多的领域。

PSO最早应用于神经元网络的训练,Kennedy和Eberhart成功地将其应用于分类XOR问题的神经网络训练;1999年Eberhart[40]用PSO来分析人类的帕金森综合症等颤抖类疾病;1999年Yoshida等[41]用PSO优化各种离散个连续变量,控制核电机组输出稳定电压;2002年Abido等[42]用PSO解决最优功率通量问题。

现在,PSO算法已经应用于非线性规划,同步发电机辩识,车辆路径,约束布局优化,新产品组合投入,广告优化,多目标优化等众多问题中,也表现出了良好的效果。

2007年Poli[43,44]对PSO算法的应用做了一个相对比较全面综述,他把PSO算法的应用领域分为26个不同类别,根据Xplore中搜索到的1100篇有关PSO算法的文献作数据统计,其中有700篇是有关PSO算法应用的。

他把这些应用文献归纳出以下应用领域:图像与视频分析;电子网络分布;控制工程应用;电子应用;天线设计;电力系统:调度;设计;通讯设计与优化;生物医药;数据挖掘;模糊系统与控制;信号处理;神经网络:组合优化;机器人;预测与预报;模型;故障诊断与恢复;传感器网络;计算机图形与可视化;发机动设计或优化;治金;音乐制作与游戏;安全与军事应用;财经与金融。

总之,PSO算法的优越性能吸引了许多学者的关注,并对其进行了大量的研究工作,被广泛地应用于各个领域。

但是由于PSO算法提出的时间不长,还存在许多有待改进和发展的地方。

2.6 粒子群算法国内的研究现状
我国对粒子群算法的研究起步较晚,现在深入的研究和应用还相对有限,已发表的论文也不是很多,PSO算法的研究还有大量的工作要做,国际上前人走过的路我们也需要借鉴,根据前人的经验快速跟进。

作为一个研究起步晚的国家,我们的研究也是理论与应用同时进行,主要研究方向有以下几个方面:
粒子群算法的改进:标准粒子群算法主要适用于连续空间函数的优化问题,如何将粒子群算法应用于离散空间优化问题,特别是一类非数值优化问题,将是粒子群算法的主要研究方向。

另外,充分吸引其他进化类算法的优势,以改进PSO算法存在的不足也是值得研究的问题。

粒子群算法的理论分析:到目前为止,PSO算法的分析方法还很不成熟,存在许多不完善之处。

如何利用有效的数学工具对PSO算法的运行行为、收敛性以及计算复杂性进行分析也是目前的研究热点之一。

粒子群算法与其他进化算法的比较研究:目前,进化算法的研究在理论和应用两方面都得到迅速发展,效果显著。

其中研究的比较成熟的有遗传算法、蚁群算法等,而粒子群算法是一个新兴的群体智能算法,目前己成为进化算法的一个重要分支,如何从多方面比较各种算法从而得到各自的特长和不足,如何吸引其他进化类算法的优势来弥补PSO算法的不足也是当前研究的热点之一。

粒子群算法的应用:算法研究的目的是应用,如何将PSO 算法应用于更多领域,同时研究应用中存在的问题也是值得关注的热点。

3 粒子群算法用于求解Ackley 函数
3.1 定义Ackley 函数
我们定义一个Ackley 函数,Ackley 函数是指数函数叠加上适度放大的余弦而得到的连续型实验函数,其特征是一个几乎平坦的区域由余弦波调制形成一个个孔或峰,从而使曲面起伏不平。

其表达式如下:
211110.2*cos(2)
()20*20+e n n j j j j x x n n f x e e π==−∑∑=−−+
我们在1010,1,2j x j −≤≤=
区间内,求解12min (,)f x x 。

利用Matlab 软件,我们不难画出该二维的Ackley 函数的图像,从图3中可以看出,这个函数的搜索十分复杂,因为一个严格的局部最优化算法在爬山过程中不可避免地要落入局部最优的陷阱;而扫描较大领域就能越过干扰的山谷,逐步达到较好的最优点。

用Matlab 画出Ackley 图像可用如下程序:
clc;
clear;
x = -10 : 0.005 : 10;
y = x;
[x,y] = meshgrid(x , y);
f = -20*exp((-0.2*sqrt(1/2*x.^2+1/2*y.^2))-exp(1/2*cos(2*pi*x)+1/2*cos(2*pi*y))+22.71282; mesh(x,y,f)
图3 二维Ackley 函数在[-10,10]区间图像
3.2 用PSO 算法求解
在此我们选用1998 年由Yuhui Shi 提出了带有惯性权重的改进粒子群算法。

其进化过程为:
i+11122v ()()i i i i i v c r Pbest x c r Gbest x ω=+−+−;
i+1i+1i x x v =+,
其中加速常数1c 和2c 是两个非负值,这两个常数使粒子具有自我总结和向群体中
优秀个体学习的能力,从而向自己的历史最优点以及群体内或领域内的全局最优点靠近,1c 和2c 通常等于2;1r 和2r 是两个在[0,1]之间均匀分布的随机数。

根据1999年Shi [45]所做的实验说明,权重因子ω随着迭代次数的增加,采用从
1.4到0.4的线性递减方法,使得粒子群算法在初期有较强的全局收敛能力,在后期具有较强的局部收敛能力,优化效果较好。

max () 1.4t
t t ω=−
此外,还对粒子的飞行速度进行了限定,设一常数max v ,限制了速度的最大值。

粒子的速度被限制在一个范围内,即在速度更新公式执行后,有:
If id max -v v < ,then id max =-v v ;
If id max v v > ,then id max =v v ;
故粒子群算法的基本流程如下:
① 初始化:在问题空间的D 维中随机产生粒子的位置与速度;
② 评价粒子:对每一个粒子,评价D 维优化函数的适用值;
③ 更新最优:(1)比较粒子适用值与它的个体最优值pbest ,如果优于pbest ,
则pbest 位置就是当前粒子位置;(2)比较粒子适用值与群体全体最优值gbest ,如果目前值好于gbest ,则设置gbest 位置就当前粒子位置;
④ 更新粒子:按照PSO 算法计算式改变粒子的速度和位置;
⑤ 停止条件:循环回到步骤stePZ,直到终止条件满足,通常是满足好适用值和最
大的迭代代数。

其流程图如图4所示:
图4 PSO 算法流程图
根据上述思路,我们书写得到如下源程序:
首先定义一个Ackley函数:
function [f]=Ackley(x,y)
f=-20*exp((-1)*.2*sqrt(1/2*x.^2+1/2*y.^2))-exp(1/2*cos(2*pi*x)+1/2*cos(2*pi*y))+20+exp(1);
end
其次得到PSO算法:
clc;
clear;
x = -10+20*rand(20,2); %初始化种群,选取种群数量20,粒子的初始位置随机产生
pbest=x; %个体最优值初始值
vmax=3; %设定最大速度为5
v = zeros(20,2); %设定粒子速度的初始值为零
tmax=1000; %设置迭代次数
error=[]; %定义相邻两次迭代的误差
gbest(1,:)=pbest(1,:);
for j=1:20 %判读比较初始时各粒子最优值,获得全局最优值初始值
if Ackley(pbest(j,1),pbest(j,2))<Ackley(gbest(1,1),gbest(1,2)) %确定每一个个体的历史最优值点
gbest(1,:)=pbest(j,:);
end
end
a=Ackley(gbest(1,1),gbest(1,2));
for i=1:tmax
w=1.4-i/tmax; %计算每次迭代的惯性权重
for j=1:20 %计算下一代的坐标
v(j,:)=w*v(j,:)+2*rand(1,1)*(pbest(j,:)-x(j,:))+2*rand(1,1)*(gbest(1,:)-x(j,:));%计算速度 if v(j,1)>vmax %对粒子速度进行限定
v(j,1)=vmax;
end
if v(j,1)<-vmax
v(j,1)=-vmax;
end
if v(j,2)>vmax
v(j,2)=vmax;
end
if v(j,2)<-vmax
v(j,2)=-vmax;
end
x(j,:)=x(j,:)+v(j,:);
end
for j=1:20
if Ackley(x(j,1),x(j,2))<Ackley(pbest(j,1),pbest(j,2)) %确定每一个个体的历史最优值点 pbest(j,:)=x(j,:);
end
if Ackley(pbest(j,1),pbest(j,2))<Ackley(gbest(1,1),gbest(1,2)) %确定每次全局最优值 gbest(1,:)=pbest(j,:);
end
end
error(i)=a-Ackley(gbest(1,1),gbest(1,2)); %计算每次误差
a=Ackley(gbest(1,1),gbest(1,2));
end
sprintf('the min position[x,y]=[%.20f,%.20f]',gbest(1,1),gbest(1,2))
sprintf('min valve=%.20f',Ackley(gbest(1,1),gbest(1,2)))
plot(error)
3.3 结果分析
从图3我们不难看出,该Ackley函数理论最小值点为[0,0],最小值f(0,0)=0。

我们利用上述PSO算法,分别迭代了200,400,600,800和1000次,得到如下结果:
表1 PSO算法求解Ackley函数最小值迭代效果
迭代
最小值对应的坐标最小值
次数
200 [-0.00000013352625116509,0.00000020934822667101] 0.00000070231746551741 400 [0.00000000009096127051,0.00000000005581022366] 0.00000000030184654776 600 [0.00000000000000261040,-0.00000000000000101132] 0.00000000000000799361 800 [-0.00000000000000006787,0.00000000000000013750] 0.00000000000000088818 1000 [0.00000000000000000769,0.00000000000000008934] 0.00000000000000088818 从表1中我们可以看出,随着迭代次数的增加,利用PSO算法求解Ackley函数最小值的效果越好,迭代600次后,求解得到的坐标值与理论值相比,精度已达-15
10,迭代800次后,精度已达-16
10。

整体上来说,该
10,而迭代1000次后,精度可达-17
方法用于求解该Ackley函数最小值问题的效果还是挺好的,可有效的逼近我们想要的理想值,误差也在很小的范围之内。

图5是相邻的两次迭代所对应得到的最小值之差,差值越大,搜索变化越快。

从图中我们可以看出,开始时,权重因子ω较大,PSO算法搜索较快,有较强的全局搜
索能力,而搜索后期,权重因子ω减小,差值变化非常小,代表此时算法有较强的局部搜索能力。

为了验证权重因子ω的重要性,我们将PSO算法迭代表示式中的权重因子ω去掉,对该问题同样迭代1000次后,得到最小值为:0.00216594943843606560,对应的坐标为[0.00020512277252526800,-0.00073214458147763395]。

对比两种方法得到的结果,我们可以看出加上权重因子ω后能够大大提高PSO算法求解问题的精度,大大增加算法的适用性。

图5 相邻两次迭代最小值之差
4 总结
本文对粒子群算法的国内外研究现状进行了一定的分析和阐述,对国内外取得的研究成果进行了简单的归纳总结。

粒子群算法是在仿真生物群体社会活动的基础上,通过模拟群体生物的相互协同寻优能力,从而构造出一种基于群体智能的优化算法。

从提出至今,虽然只有短短20年的时间,但引起了世界各国研究人员的注意,从收
敛性、权重因子选择、拓扑结构、多样性、算法融合等诸多理论方面和实际工业应用方面都投入了大量的精力,也取得了一定的成果。

但是,由于粒子群算法本身来源于生物群体现象,目前所得到的理论基础尚不完备,现有的标准算法形式也存在性能的缺陷。

因此,在接下来的研究中,研究人员对粒子群算法的理论应该有更深入的研究,使得粒子群算法具有更普遍的应用规律,切实解决生活实际中遇到的问题。

5 参考文献
[1] Eberhart R C, Kennedy J. A new optimizer using particle swarm theory[C]. Proceedings of the sixth international symposium on micro machine and human science. Nagoya: IEEE, 1995: 39-43.
[2] Bai Qinghai. Analysis of particle swarm optimization algorithm[J]. Computer and Information Science, 2010, 3(1): 180.
[3] Kennedy J, Eberhart R C, Shi Y. Swarm intelligence[M]. San Francisco: Morgan Kaufmann Publishers, 2001: 227-229.
[4] Van D B F. An Analysis of Particle Swarm Optimizers[D]. University Of Pretoria(Ph.D), 2001.
[5] Clerc M, Kennedy J. The particle swarm-Explosion, stability, and convergence in a multidimensional complex space[J]. IEEE Transactions on Evolutionary Computation, 2002, 6(1): 58-73.
[6] Trelea I C. The particle swarm optimization algorithm: convergence analysis and parameter selection[J]. Information Processing Letters, 2003, 85(6): 317-325.
[7] Cui Z H, Zeng J C. A guaranteed global convergence particle swarm optimizer[C]. In the 4th International Conference on Rough Sets and Current Trends in Computing, Uppsala, Sweden, 2004: 762-767.
[8] Jiang M, Luo Y P, Yang S Y. Stochastic convergence analysis and parameter selection of the standard particle swarm optimization algorithm[J]. Information Processing Letters, 2007, 102(1): 8-16.
[9] Chen X, Li Y M. On convergence and parameter selection of an improved particle swarm optimization[J]. International Journal of Control Automation and Systems, 2008, 6(4): 559-570.
[10] Latiff A, Tokhi M O. Fast Convergence Strategy for Particle Swarm Optimization using Spread Factor[C]. In IEEE Congress on Evolutionary Computation, Trondheim, Norway, 2009: 2693-2699.
[11] Yang L, Jiang M Y. Dynamic Group Decision Making Consistence Convergence Rate Analysis Based on Inertia Particle Swarm Optimization Algorithm[C]. In Proceedings of First Iita International Joint Conference on Artificial Intelligence, Hainan Island, China, 2009: 492-496.
[12 Fang W, Sun J, Xie Z P. Convergence analysis of quantum-behaved particle swarm optimization algorithm and study on its control parameter[J]. Acta Physica Sinica, 2010, 59(6): 3686-3694.
[13] Wei J X, Wang Y P. An Infeasible Elitist Based Particle Swarm Optimization for Constrained Multiobjective Optimization and Its Convengence[J]. International Journal of Pattern Recognition and Artificial Intelligence, 2010, 24(3): 381-400.
[14] Shi Y H, Eberhart R. C. A Modified Particle Swarm Optimization, 1998 IEEE International Conference on Evolutionary Computation, Anchorage, Alaska, May4-9, 1998: 69-73.
[15] Kennedy J, Eberhart R C. Particle Swarm Optimization[C]. In Proceedings of IEEE International Conference on Neural Networks, 1995, (2): 1942-1948.
[16] Eberhart R C, Kennedy J. A New Optimizer Using Particle Swarm Theory[J]. Institute and Electronics Engineers, 1995, (10): 39-43.
[17] Shi Y H, Eberhart R. C. Parameter Selection in Particle Swarm Optimization[J]. Lecture Notes in Computer Science, 1998, (1447): 591-600.
[18] 张丽平, 俞欢军, 陈德钊等. 粒子群优化算法的分析与改进[J]. 信息与控制, 2004, 33(5): 513-517.
[19] Chatterjee, Siarry P, Nonlinear Inertia Weight Variation for Dynamic Adaptation in Particle Swarm Optimization[J]. Computers & Operations Research, 2006, 33(3): 859-871.
[20] 王启付, 王战江, 王书亭. 一种动态改变惯性权重的粒子群优化算法[J]. 中国机械工程, 2005, 16(11): 945-948.
[21] Zeng J C. Guaranteed global convergence Particle swam optimization[J]. Computer Research and Development, 2004, 41(7): 1333-1338.
[22] 高雷阜, 刘旭旺. 基于混沌的弹性粒子群全局优化算法[J]. 控制与决策, 2009, 24(10): 1545-1548.
[23] Shi Y, Eberhart R. Fuzzy Adaptive Particle Swarm Optimization[C]. In: Proceedings of the IEEE Conference on Evolutionary Computation, Koreal, Soul: IEEE Press, 2001: 103-106.
[24] 李宁, 邹彤, 孙德宝. 带时间窗车车辆路径问题的粒子群算法[J]. 系统工程理论与实践, 2004, 24(4): 130-135.
[25] Chatterjee A, Siarry P. Nonlinear inertia weight variation for dynamic adaptation in particle swarm optimization[J]. Computers and Operations Research, 2006, 33(3): 859-871.
[26] Jiao B, Lian Z, Gu X. A dynamic inertia weight particle swarm optimization algorithm[J]. Chaos, Solitons and Fractals, 2008, 37(3): 698-705.
[27] Kennedy J. Small Worlds and Mega-minds: Effects of Neighborhood Topology on Particle Swarm Performance[C]. In IEEE Congress on Evolutionary Computation, Piscataway, NJ, 1999: 1931-1938.
[28] Mendes R, Kennedy J, Neves J. The fully informed particle swarm: Simpler, maybe better[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 204-210.
[29] Parsopoulos K E, Vrahatis M N. Unified particle swarm optimization in dynamic environments[C]. In Proceedings of Applications on Evolutionary Computing- EvoWorkshops: EvoBIO, EvoCOMNET, EvoHOT, EvoIASP, EvoMUSART, and EvoSTOC, Lausanne, Switzerland, 2005: 590-599.
[30] Elshamy W, Emara H M, Bahgat A. Clubs-based Particle Swarm Optimization[C]. In IEEE Swarm Intelligence Symposium, Honolulu, HI, United states, 2007: 289-296.
[31] Emara H M. Adaptive Clubs-based Particle Swarm Optimization[C]. In American Control Conference, St. Louis, MO, United states, 2009: 5628-5634.
[32] Li X D. Niching Without Niching Parameters: Particle Swarm Optimization Using a Ring Topology [J]. IEEE Transactions on Evolutionary Computation, 2010, 14(1): 150-169.
[33] Luh G C, Lin C Y. A Binary Particle Swarm Optimization for Structural Topology Optimization[C]. In the Third International Joint Conference on Computational Science and Optimization Huangshan, Anhui, China, 2010: 395-399.
[34] Miyagawa E, Saito T. Particle Swarm Optimizers with Growing Tree Topology [J]. IEICE Transactions on Fundamentals of Electronics Communications and Computer Sciences, 2009, 92(9): 2275-2282.
[35] Wolpert D H, Macready W G. No free lunch theorems for optimization[J]. IEEE Transactions on Evolutionary Computation, 1997, 1(2): 67-82.
[36] 陶新民, 徐晶, 杨立标. 一种改进的粒子群和K均值混合聚类算法[J]. 电子与信息学报, 2010, 32(1): 92-97.
[37] Wei B, Zhao Z. An improved particle swarm optimization algorithm based k-means clustering analysis[J]. Journal of Information and Computational Science, 2010, 7(3): 511-518.
[38] Qin J, Yin Y X, Ban X J. A Hybrid of Particle Swarm Optimization and Local Search for Multimodal Functions[C]. In Advances in Swarm Intelligence-First International Conference, Beijing, China, 2010: 589-596.
[39] 高海兵, 周驰, 高亮. 广义粒子群优化模型[J]. 计算机学报, 2005, 28(12): 1980-1988.
[40] Eberhart R C, Hu Xiaohui. Human tremor analysis using particle swarm optimization
[A]. In: Proceedings of the IEEE Congress on Evolutionary Computation[C]. Piscataway, 1999: 1927-1930.
[41] Yoshida H, Kawata K, Fukuyama Y, et al. A particle swarm optimization for reactive power and voltage control considering voltagestability[A]. In: Proc. of IEEE Int. Conf. on Intelligent System Application to Power Systems[C]. Rio de Janeiro, 1999:117-121.[42] Abido M A. Optimal power flow using particle swarm optimization[J]. Electrical Power and Energy Systems, 2002, 24, 563-571.
[43] Riccardo Poli. An Analysis of Publications on Particle Swarm Optimisation Applications[R]. London: Department of Computer Science in University for Essex, 2007: l-41.
[44] Riccardo Poli, James Kennedy, Tim Blackwell. Particle swarm optimization, An overview[J]. Swarm Intelligence, 2007, l(l): 33-57.
[45] Shi Y, Eberhart R. Empirical Study of Particle Swarm Optimization[C]. In: Proceedings of the 1999 Congress on Evolutionary Computation, Piscataway, NJ: IEEE Service Center, 1999: 1948-1950.。

相关文档
最新文档