自适应变异的粒子群优化算法

合集下载

自适应多位变异粒子群优化算法

自适应多位变异粒子群优化算法

( Na n y a n g Vo c a t i o n a l C o l l e g e o f Ag r i c u l t u r e C o mp u t e r De p a r t me n t ,Na n y a n g 4 7 3 0 6 1 )
Ab s t r a c t C o n s i d e r i n g t h e p r e ma t u r e c o n v e r g e n c e p r o b l e m o f p a r t i c l e s wa r m o p t i mi z a t i o n, a n e w a d a p t i v e p a r t i c l e s wa r m o p t i mi z a t i o n i s p r e s e n t e d b a s e d o n a d a p t i v e mu l t i p l e mu t a t i o n .Th e mu t a t i o n p r o b a b i l i t y f o r t h e c u r r e n t b e s t p a r t i c l e i s
f o r ma n c e o f t h e a l g o r i t h m i s e n s u r e d i n t h e o r y .Th e e x p e r i me n t a l r e s u l t s s h o w t h a t t h e n e w a l g o r i t h m o f g l o b a l s e a r c h c a p a — b i l i t y n o t o n l y i s i mp r o v e d s i g n i f i c a n t l y,h a s a n o p t i ma 1 c o n v e r g e n c e r a t e ,b u t a l s o c a n a v o i d t h e p r e ma t u r e c o n v e r g e n c e p r o b — l e m e f f e c t i v e l y。a n d t h e o r y a n a l y s i s s h o w t h a t i t i S f e a s i b l e a n d a v a i l a b i l i t y .

自适应阶段变异量子粒子群优化算法研究

自适应阶段变异量子粒子群优化算法研究
第2 9卷 第 6期
21 0 2年 6月
计 算 机 应 用 研 究
Ap l a in Re e r h o mp tr . 9 No 6 12 .
Jn 2 1 u.02
自适 应 阶段 变 异 量 子粒 子 群 优 化 算 法 研 究
R sac na a t ep r dmuainb sd Q S loi m eerho d pi ei tt —ae P O agrh v o o t
XI ANG ,Z Yi HONG — i Yu b n
(colfMahm ts& I om t nS i cs un zo nvrt,G a gh u5 00 C ia Sho o te ai c n r ai ce e,G a ghuU i sy u nzo 106, hn ) f o n ei
ag rt ms I d p e v y c lt s u to s t o d tsm u ain e p rm e t n c mpae x e i e tlr s lso o r lo h . ta o t d f e tpia e tf nci n o c n uc i lto x e i i i n ,a d o r d e p rm na e u t ff u
A s a t h t dr unu at l s am o t i t n( Q S )a o tm m ys kit lcl p m m ooecme bt c :T es n adqa tm prc w r.pi z i S P O l rh a i o oa ot u .T vro r a ie m ao gi n n i
的 A MQ S P P O算 法则 具有很 强的优化 能 力。
关 键词 :量 子粒 子群优 化 算 法 ; 化 阶段 ;变异算子 ; 进 变异概 率 ; 函数优 化

基于自适应变异的粒子群优化算法的车间作业调度优化及其软件实现

基于自适应变异的粒子群优化算法的车间作业调度优化及其软件实现
K eywords: particle sw arm; adaptive m utation; job- shop schedu ling
1 引言 ( Introduction)
车间作业 调度问题 ( Job-Shop Schedu ling P roblem, JSSP )是生产管理中的一个重要的研究课题. 它是一项加工资源分配问题, 它根据约束条件, 合理 安排资源、加工时间、加工顺序以获得最优的成本或 效率. 在众多解决这一问题的方法中, 以遗传算法为 代表的进化算法在该领域获得了广泛应用. 但遗传 算法在解决大规模的 JSSP 时存在两大局限 [ 1~ 3] , 即 进化速度过慢和过早收敛 ( 早熟 ) . 针对这一问题, 人们应用粒 子群优化 ( P artic le Sw arm Optim ization, PSO ) 算法, 这 一算法在一定程度上克服了遗传算 法的两个缺陷, 但不能从根本上解决早熟收敛, 同时 使计算的工作量加大了许多. 在这篇文章中, 将应用 一种新的基于群体适应度方差自适应变异的粒子群 优化算法 [ 5] ( A dapt ive M utation P art icle Sw arm O pt-i
k, Pm =
R2 < Rd2 且 f ( gBest ) > f d
( 7)
0, 其它
其中, k 可取 [ 0. 1, 0. 3 ] 之间的任意数值. R2d 的取值
与实际问题有关, 一般远小于 R2 的最大值. fd 可以
设置为理论最优值.
Step 7: 产生随机数 rI [ 0, 1], 如果 r< Pm, 按式 ( 7)执行变异操作, 否则, 转向 S tep 8.
m
in
m ax

改进的粒子群算法

改进的粒子群算法

改进的粒子群算法粒子群算法(PSO)是一种优化算法,通过模拟鸟群觅食的行为寻找最优解。

传统的PSO 算法存在着易陷入局部最优解、收敛速度慢等问题,为了解决这些问题,研究人员不断对PSO算法进行改进。

本文将介绍几种改进的PSO算法。

1.变异粒子群算法(MPSO)传统的PSO算法只考虑粒子的速度和位置,而MPSO算法在此基础上增加了变异操作,使得算法更具有全局搜索能力。

MPSO算法中,每一次迭代时,一部分粒子会发生变异,变异的粒子会向当前最优解和随机位置进行搜索。

2.改进型自适应粒子群算法(IAPSO)IAPSO算法采用了逐步缩小的惯性权重和动态变化的学习因子,可以加速算法的收敛速度。

另外,IAPSO算法还引入了多角度策略,加强了算法的搜索能力。

3.带有惩罚项的粒子群算法(IPSO)IPSO算法在传统的PSO算法中加入了惩罚项,使得算法可以更好地处理约束优化问题。

在更新粒子的位置时,IPSO算法会检测当前位置是否违背了约束条件,如果违背了,则对该粒子进行惩罚处理,使得算法能够快速收敛到满足约束条件的最优解。

4.细粒度粒子群算法(GPSO)GPSO算法并不像其他改进的PSO算法那样在算法运行流程中引入新的因素,而是仅仅在初始化时对算法进行改进。

GPSO算法将一部分粒子划分为近似最优的种子粒子,其他粒子从相近的种子粒子出发,从而加速算法的收敛速度。

5.基于熵权的粒子群算法(EPSO)EPSO算法在传统的PSO算法中引入了熵权理论,并在更新速度和位置时利用熵权确定权重系数,达到了优化多目标问题的目的。

EPSO算法的权重系数的确定基于熵权理论,具有客观性和系统性。

此外,EPSO算法还增加了距离度量操作,用于处理问题中的约束条件。

综上所述,改进的PSO算法不仅有助于解决算法收敛速度慢、易陷入局部最优解的问题,更可以应用到具体的优化实际问题中。

因此,选择合适的改进的PSO算法,对于实际问题的解决具有重要的现实意义。

自适应粒子群算法

自适应粒子群算法

自适应粒子群算法自适应粒子群算法(Adaptive Particle Swarm Optimization,APSO)是一种基于群体智能的优化算法,它模拟了鸟群觅食行为中的信息共享和合作策略,通过不断调整粒子的位置和速度来寻找最优解。

在APSO算法中,粒子代表了解的候选解,它们通过不断更新自身的位置和速度来搜索最佳解。

与传统的粒子群算法不同之处在于,APSO算法引入了自适应机制,使得粒子的搜索能力和适应度可以根据问题的特点进行调整。

APSO算法需要初始化一组粒子的位置和速度。

初始位置可以通过随机生成或根据问题的特点进行设定。

初始速度可以根据粒子的邻居粒子的位置和速度进行计算。

然后,APSO算法通过迭代更新粒子的位置和速度,直到达到停止条件。

在每次迭代中,粒子根据自身的历史最优解和全局最优解来更新速度和位置。

具体而言,粒子的速度更新公式如下:\[ V_i(t+1) = w \cdot V_i(t) + c_1 \cdot rand() \cdot (Pbest_i(t) - X_i(t)) + c_2 \cdot rand() \cdot (Gbest(t) - X_i(t)) \]其中,\(V_i(t+1)\)为粒子的速度,\(w\)为惯性权重,\(V_i(t)\)为上一次迭代的速度,\(c_1\)和\(c_2\)为学习因子,\(rand()\)为随机数函数,\(Pbest_i(t)\)为粒子的历史最优解,\(X_i(t)\)为粒子的当前位置,\(Gbest(t)\)为群体的全局最优解。

粒子的位置更新公式如下:\[ X_i(t+1) = X_i(t) + V_i(t+1) \]在更新完所有粒子的位置和速度后,需要计算粒子的适应度,并更新粒子的历史最优解和全局最优解。

适应度的计算方法根据具体问题而定。

APSO算法引入了自适应机制,通过动态调整学习因子和惯性权重来提高搜索效率。

学习因子可以根据粒子的适应度进行调整,适应度越高,学习因子越小,粒子的搜索范围越小;适应度越低,学习因子越大,粒子的搜索范围越大。

自适应群体结构的粒子群优化算法

自适应群体结构的粒子群优化算法
中 图分 类 号 : T P 1 8 文献 标 志 码 : A 文章 编 号 : 1 6 7 3 — 4 7 8 5 ( 2 0 1 3 ) 0 4 — 0 3 7 2 — 0 5
中文引用格式 : 孙文新 , 穆华平. 基于自适应群体结构 的粒子群优化算法[ J ] . 智能系统学报 ,2 0 1 3 ,8 ( 4 ) : 3 7 2 - 3 7 6 .
孙 文 新 , 穆 华 平
( 1 . 鹤壁职业技 术学院 电子信息工程学院 , 河南 鹤壁 4 5 8 0 3 0 ;2 . 鹤 壁职 业技 术 学院 公 共基础教研 部 , 河 南 鹤 壁
4 5 8 0 3 0 )

要: 粒子群优化算法 中 , 群体结构的组织模式直接决定 了粒子间信息的共享 和交流方式. 根据复杂网络形成过程
中的动力学原 理 , 提出了一种 自适应群体结构的粒子群优化算法 . 算法初期粒子空间分布分散 , 搜索过程 中不断产生
新的连接 , 群体 的搜索模 式由 L 模型逐渐进化 为 G 模型 , 群体结构的这种进 化方式有利于算法早期 的“ 勘探” 和
后期的“ 开采” . 实验结果表明 , 新算法在收敛性 能上获得 了较大提高. 关键词 : 粒子群优化算法 ; 自适应 ; 群体结构 ; 惯性权重
第8 卷第 4期
2 0 1 3 年 8 月 D O I : 1 0 . 3 9 6 9 / j . i s s n . 1 6 7 3 — 4 7 8 5 . 2 0 1 2 1 1 0 4 1

能Leabharlann 系统学报
V0 1 . 8 N o. 4 Au g .2 01 3
CAAI Tr a n s a c t i o n s o n I n t e l l i g e n t S y s t e ms

带自适应变异的量子粒子群优化算法

带自适应变异的量子粒子群优化算法
C m ue n ier ga d p l ain 计算机工程与应用 o p t E gnei n A p i t s r n c o
带 自适应变异 的量子粒子 群优化算 法
刘 俊芳 高岳林 ,
LI U J nfng , u a GA O Yuei ln
1 . 宁夏大学 数学计算机学 院 , 川 7 0 2 银 5 0 1
关键 词 : 局 最优 化 ; 子 群 优 化 ; 子 粒 子 群 优 化 ; 全 粒 量 自适 应 变 异 DO :0 7 8 .s.028 3 . 1. .1 文 章 编 号 :0 28 3 ( 0 1 0 —0 10 文 献 标 识 码 : 中 图 分 类 号 :P1 I 1. 7 /i n10 -3 1 0 1 30 2 3 js 2 0 10 -3 12 1 )30 4 -3 A T 8
1 引言
粒子群优化( at l S r pi zt n P O) 由Ke . P rce wam O t ai ,S 是 i mi o n
量子粒子群优化 ( AMQ S 算法 , P O) 即在群体的适应度方差和空 间位置的聚集度 的基础上对群体 中每代粒子的个体极值位置进 行 自适应变异来增加种群的多样 陛, 从而实现全局寻优的 目的。
ig a d Ap l ain ,01 , 7 3 : 1 4 . n n p i t s 2 1 4 ( ) 4 — 3 c o
A sr c : A Q a tm at l w r O t z t n Alo i m i a t e Muain AMQ S b ta t u nu P r ce i S am p i a o g r h w t Ad p i t o ( mi i t h v t P O) i gv nWh n te po s ie . e h r —

自适应粒子群优化算法

自适应粒子群优化算法

自适应粒子群优化算法自适应粒子群优化算法(Adaptive Particle Swarm Optimization,简称APSO)是一种基于粒子群优化算法(Particle Swarm Optimization,简称PSO)的改进算法。

PSO算法是一种群体智能优化算法,模拟鸟群觅食行为来求解优化问题。

与传统PSO算法相比,APSO算法在粒子个体的位置和速度更新方面进行了优化,增强了算法的鲁棒性和全局能力。

APSO算法的关键改进之一是引入自适应策略来调整个体的速度和位置更新。

传统PSO算法中,个体的速度与当前速度和历史最优位置有关。

而在APSO算法中,个体的速度与自适应权重有关,该权重能够自动调整以适应不同的空间和优化问题。

自适应权重的调整基于个体的历史最优位置和整个粒子群的全局最优位置。

在每次迭代中,根据粒子群的全局情况来动态调整权重,使得速度的更新更加灵活和可靠。

另一个关键改进是引入自适应的惯性因子(inertia weight)来调整粒子的速度。

传统PSO算法中,惯性因子是一个常数,控制了速度的更新。

在APSO算法中,惯性因子根据粒子群的性能和进程进行自适应调整。

对于空间广阔、优化问题复杂的情况,惯性因子较大以促进全局;对于空间狭窄、优化问题简单的情况,惯性因子较小以促进局部。

通过调整惯性因子,粒子的速度和位置更新更具有灵活性和针对性,可以更好地适应不同的优化问题。

此外,APSO算法还引入了自适应的局域半径(search range)来控制粒子的范围。

传统PSO算法中,粒子的范围是固定的,很容易陷入局部最优解。

而在APSO算法中,根据全局最优位置和当前最优位置的距离进行自适应调整,当距离较大时,范围增加;当距离较小时,范围减小。

通过自适应调整范围,可以提高算法的全局能力,减少陷入局部最优解的风险。

综上所述,自适应粒子群优化算法(APSO)是一种改进的PSO算法,通过引入自适应策略来调整个体的速度和位置更新,增强了算法的鲁棒性和全局能力。

自适应权重粒子群优化算法原理

自适应权重粒子群优化算法原理
在实际应用过程中,AWPSO算法具有以下几个优点:1)具有全局搜索能力,不易陷入局部最优解;2)自适应权重调整策略能够避免算法的过早收敛问题;3)AWPSO算法是一种具有很好优化效果的算法模型,因其精度高、收敛速度快、易于实现等优点,被广泛应用于各类优化问题的求解中。
AWPSO算法在每一次迭代过程中,引入了一种自适应的权重调整策略,即根据每个粒子的状态来调整其权重,使得每个粒子在搜索空间中的独立性得到增强,从而提高算法的全局搜索能力。同时,AWPSO还采用了多维聚类方法来确定权重的初始值。
具体来说,AWPSO算法将每个粒子看作一个搜索向量,根据权重方法对其进行权重调整,然后利用适应度函数计算其适应度值并更新其速度和位置,最终找到最优解。
自适应权重粒子群优化算法原理
自适应权重粒子群优化算法(Adaptive Weighted Particle Swarm Optimization, AWPSO)是一种优化问题的算法模型,它基于粒子群优化算法(Particle Swarm Optimization,PSO)和权重方法(Weight Method)相结合的思想。其优化的目标问题可以是线性优化、非线性优化及多目标优化等。

自适应权重粒子群优化算法原理

自适应权重粒子群优化算法原理

自适应权重粒子群优化算法原理
自适应权重粒子群优化算法是一种基于模拟鸟群寻食行为的优化算法,用于求解多维非线性函数的全局最优解。

该算法将目标函数看做一个能量场,在搜索过程中粒子以一定的速度进行探索,并通过引力和斥力相互作用来找到最优解。

算法的核心是粒子群的更新规则。

每个粒子的速度和位置会根据当前的位置、速度以及全局最优解和个体最优解来进行更新。

其中,全局最优解代表整个粒子群中最优的解,个体最优解则是每个粒子的历史最优解。

粒子的更新规则既考虑了个体的经验,又考虑了群体的协同,在搜索空间中不断寻找最优解。

自适应权重是该算法的创新之处。

传统的粒子群优化算法通常固定参数权重,但这会导致算法陷入局部最优解而无法跳出。

自适应权重粒子群优化算法引入了自适应权重机制,根据当前搜索状态来动态调整权重。

这样可以有效防止算法陷入局部最优解而得到更优的全局解。

总之,自适应权重粒子群优化算法利用了粒子群的群体智能和个体经验,通过动态调整权重实现了全局最优解的寻找。

它是一种高效的优化算法,可以应用于多种领域的问题求解。

粒子群优化算法

粒子群优化算法

好地求解各类优化问题。
03
多目标优化
多目标优化是未来粒子群优化算法的一个重要研究方向,可以解决实
际优化问题中多个目标之间的权衡和取舍。
THANKS
谢谢您的观看
粒子群优化算法
xx年xx月xx日
目录
• 粒子群优化算法简介 • 粒子群优化算法的基本原理 • 粒子群优化算法的改进 • 粒子群优化算法的应用案例 • 粒子群优化算法的总结与展望
01
粒子群优化算法简介
什么是粒子群优化算法
粒子群优化算法是一种群体智能优化算法,通过模拟鸟群、 鱼群等动物群体的社会行为,利用群体中个体之间的相互作 用和信息共享,寻找问题的最优解。
动态调整约束参数
通过动态调整约束参数,使算法在不同阶段都能保持较好的优化效果。同时 ,可以设置一些参数的自适应调整策略,如根据迭代次数、最优解的位置和 速度等信息来自适应调整。
04
粒子群优化算法的应用案例
函数优化问题
求解函数最大值
粒子群优化算法可以用于求解各类连续或离散函数的最大值,例如非线性函数、 多峰函数等。通过不断迭代寻优,能够找到函数的局部最大值或全局最大值。
03
粒子群优化算法的参数包括粒子群的规模、惯性权重、加速常数和学习因子等 ,这些参数对算法的性能和收敛速度有着重要影响。
粒子群优化算法的应用领域
粒子群优化算法被广泛应用于各种优化问题中,包括函 数优化、路径规划、电力系统优化、机器学习、图像处 理、控制工程、模式识别、人工智能等领域。
具体应用包括:函数优化问题的求解、神经网络训练的 优化、控制系统参数的优化、机器人路径规划、图像处 理中的特征提取和分类等。
空间搜索的改进
引入高斯分布
通过引入高斯分布,使粒子速度更新过程中更侧重于向当前 最优解方向靠拢,提高算法的局部搜索能力。

基于自适应变异的动态粒子群优化算法

基于自适应变异的动态粒子群优化算法
第2 6卷 第 5期 2 0年 9月 01
科 技 通 报
B L TI C E UL E N OF S I NCE AND I C 1 HNOL E 0GY
Vo .6 No5 12 . Se . 201 p 0
基 于 自适应 变异 的 动态 粒 子 群 优 化 算 法
WANG ia g ,LIP Ga tn ,SU e gl Ch n i 2
( . c o l fAuo t n,N rh se P ltc nc l ies y 1 S h o tmai o o o wetm oye h ia v ri ,Xia h n i 0 2,Chn ; t Un t ’n S a x 7 7 1 0 ia 2 S h o f n r t na dCo t lE gn e n . c o l f mai n nr n ie r g,La nn h Hu iest o Io o o i io igS i aUnv ri y,F su io ig1 3 01 hn ) u h nL ann 0 ,C ia 1
Abs r t tac :A w yn mi a tce s r o i z to l o t m s d o da tv ne d a c p ril wa m ptmiai n a g r h ba e n a p ie mutto spr s ntd.Be ie ha t i a in i e e e sd s t ti
i tse t o r wel kn wn be c s e td wih f u l- o n hma k f nci n .Th e pe i e a r s t ho t a t n w ag rt r u to s e x rm ntl e uls s w h t he e lo ihm h s rat a g e

粒子群优化算法

粒子群优化算法

1 群体智能概述1.1 群体智能的概念与特点群体智能的概念源于对蜜蜂、蚂蚁、大雁等这类群居生物群体行为的观察和研究,是一种在自然界生物群体所表现出的智能现象启发下提出的人工智能实现模式,是对简单生物群体的智能涌现现象的具体模式研究。

群体智能指的是“简单智能的主体通过合作表现出复杂智能行为的特性”。

该种智能模式需要以相当数目的智能体来实现对某类问题的求解功能。

作为智能个体本身,在没有得到智能群体的总体信息反馈时,它在解空间中的行进方式是没有规律的。

只有受到整个智能群体在解空间中行进效果的影响之后,智能个体在解空间中才能表现出具有合理寻优特征的行进模式。

自然界中动物、昆虫常以集体的力量进行觅食生存,在这些群落中单个个体所表现的行为是简单缺乏智能的,且各个个体之间的行为是遵循相同规则的,但由个体组成的群体则表现出了一种有效的复杂的智能行为。

群体智能可以在适当的进化机制引导下通过个体交互以某种突现形式发挥作用,这是个体的智能难以做到的。

通常,群体智能是指一种人工智能模式,体现的是一种总体的智能特性。

人工智能主要有两种研究范式,即符号主义和联接主义。

符号主义采用知识表达和逻辑符号系统来模拟人类的智能。

联接主义则从大脑和神经系统的生理背景出发来模拟它们的工作机理和学习方式。

符号主义试图对智能进行宏观研究,而联接主义则是一种微观意义上的探索。

20世纪90年代后,计算智能的研究逐渐成为了联接主义人工智能的一个代表性流派。

计算智能系统是在神经网络、模糊系统、进化计算三个分支发展相对成熟的基础上,通过相互之间的有机融合而形成的新的科学方法,也是智能理论和技术发展的崭新阶段。

神经网络反映大脑思维的高层次结构;模糊系统模仿低层次的大脑结构;进化系统则是从生物种群的群体角度研究智能产生和进化过程。

对群居性生物群体行为涌现的群体智能的研究是进化系统的一个新兴研究领域。

群体智能中,最小智能但自治的个体利用个体与个体和个体与环境的交互作用实现完全分布式控制,其具有以下特点:(1)自组织。

粒子群算法常用改进方法总结

粒子群算法常用改进方法总结

粒群算法的改进方法一.与其他理论结合的改进1.协同PSO(CPSO)算法原理:提出了协同PSO的基本思想,采用沿不同分量划分子群体的原则,即用N个相互独立的微粒群分别在D维的目标搜索空间中的不同维度方向上进行搜索。

优点:用局部学习策略,比基本PSO算法更容易跳出局部极值,达到较高的收敛精度.缺点:此算法在迭代初期,适应值下降缓慢,且其收敛速度与种群所含微粒数目成反比.2.随机PSO(SPSO)算法原理:其基本思想是利用停止进化的微粒来改善全局搜索能力。

即将式(1)中的当前速度项V过去掉,从而使得速度本身失去记忆性,减弱了全局搜索能力.但这样也使得在进化的每一代均至少有一个微粒出予处于微粒群的历史最好位置而停止进化.然后在搜索空问中重新随机产生新的微粒以代替停止微粒的进一步进化.这样就大大增强了全局搜索麓力.3.有拉伸功能的PSO算法原理:为了有效地求解多模态复杂函数优化问题,Parsopoulos等人将函数“Stretching”技术引入PSO算法,形成了一种高效的全局优化算法一“Stretching PSO”(SPSO)。

它通过消除不理想的局部极小而保留全局最小来避免陷入局部极小.在检测到目标函数的局部极小点后,立即对待优化的目标函数进行拉伸变换.优点:.SPSO具有稳健的收敛性和良好的搜索能力,在很多高维度,多局部极值的函数最小值的求解问题上,搜索成功率显著提高。

缺点:计算耗时相应地也会增加.4.耗散PSO(DPSO)算法原理:谢晓峰等人根据耗散结构的自组织性,提出了一种耗散型PSO 算法.耗散PSO算法构造了一个开放的耗散系统.微粒在开放系统中的“飞行”不只依赖于历史经历,还要受环境的影响.附加噪声从外部环境中,持续为微粒群弓|入负熵,使得系统处于远离平衡态的状态.又由于群体中存在内在的非线性相互作用,从而使群体能够不断进化。

二.与其他算法结合的改进1.混合PSO(HPSO)算法原理:Angeline于1998年提出采用进化计算中的选择操作的改进型PSO模型,成为混合PSO(HPSO)。

带自适应变异的量子粒子群优化算法

带自适应变异的量子粒子群优化算法

带自适应变异的量子粒子群优化算法
刘俊芳;高岳林
【期刊名称】《计算机工程与应用》
【年(卷),期】2011(047)003
【摘要】提出了一种带有自适应变异的量子粒子群优化(AMQPSO)算法,利用粒子群的适应度方差和空间位置聚集度来发现粒子群陷入局部寻优时,对当前每个粒子经历过的最好位置进行自适应变异以实现全局寻优.通过对典型函数的测试以及与量子粒子群优化(QPSO)算法和自适应粒子群优化(AMPSO)算法的比较,说明AMQPSO算法增强了全局搜索的性能,优于其他算法.
【总页数】3页(P41-43)
【作者】刘俊芳;高岳林
【作者单位】宁夏大学,数学计算机学院,银川,750021;北方民族大学,信息与系统科学研究所,银川,750021
【正文语种】中文
【中图分类】TP18
【相关文献】
1.基于正态云模型的自适应变异量子粒子群优化算法 [J], 关学忠;皇甫旭;李欣;佟宇;聂品磊
2.带自适应变异的粒子群优化算法改进研究 [J], 冯浩;李现伟
3.带排序映射的量子粒子群优化算法求解 WTA 问题 [J], 刘琨;何建华;黄炎;梁云;张烨
4.带交叉算子的量子粒子群优化算法 [J], 陈汉武;朱建锋;阮越;刘志昊;赵生妹
5.带全局判据的改进量子粒子群优化算法 [J], 徐珊珊;金玉华;张庆兵
因版权原因,仅展示原文概要,查看原文内容请购买。

自适应变异的粒子群优化算法

自适应变异的粒子群优化算法

第3期2004年3月电子学报ACTA ELECTRONICA SINICAVol.32No.3Mar.2004自适应变异的粒子群优化算法吕振肃,侯志荣(兰州大学信息科学与工程学院,甘肃兰州730000)摘要:本文提出了一种新的基于群体适应度方差自适应变异的粒子群优化算法(AMPSO).该算法在运行过程中根据群体适应度方差以及当前最优解的大小来确定当前最佳粒子的变异概率,变异操作增强了粒子群优化算法跳出局部最优解的能力.对几种典型函数的测试结果表明:新算法的全局收搜索能力有了显著提高,并且能够有效避免早熟收敛问题.关键词:粒子群;自适应变异;优化;早熟收敛中图分类号:TP18文献标识码:A文章编号:0372-2112(2004)03-0416-05Particle Swarm Optimization with Adaptive Mu tationL B Zhen-su,HOU Zh-i rong(Sc hool o f In f o rmation Science and Enginee ring,L anzhou U nive rsity,Lanzhou,Gansu730000,China)Abstract:A new adap tive mutation particle swarm optimizer(AMPSO),which is based on the variance of the population.s fit-ness is presented.During the running time,the mutation probability for the current best particle is determined by two factors:the var-i ance of the population.s fitness and the curren t opti mal soluti on.The ability of particle swarm optimization algorith m(PSO)to break away from the local opti mu m is greatly i mproved by the mutation.The experimental results show that the new algorithm not only has great advantage of convergence property over genetic algorithm and PSO,but also can avoid the premature convergence problem effec-tively.Key words:particle s warm;adaptive mutation;opti mization;premature convergence1引言粒子群优化算法PSO(Particle Swarm Optimization)是由E-berhart博士和Kennedy博士发明的一种新的全局优化进化算法,它源于对鸟类捕食行为的模拟[1,2].作为一种重要的优化工具,粒子群优化算法已经成功地用于系统辨识[3]、神经网络训练[4]等领域.与其它全局优化算法(如遗传算法)一样,粒子群优化算法同样存在早熟收敛现象,尤其是在比较复杂的多峰搜索问题中.目前解决这一问题的主要方法是增加粒子群的规模,虽然对算法性能有一定改善,但同样存在缺陷:一是不能从根本上克服早熟收敛问题;二是会大量增加算法的运算量.本文将提出一种新的基于群体适应度方差自适应变异的粒子群优化算法(AMPSO).该算法根据群体适应度方差以及当前最优解的大小来确定当前最佳粒子的变异概率.实验结果表明:与遗传算法和粒子群优化算法相比,本文算法的全局收敛性能得到了显著提高,能有效避免粒子群优化算法中的早熟收敛问题.2粒子群优化算法及其早熟收敛问题与遗传算法类似,粒子群优化算法同样基于群体(这里称作粒子群)与适应度.粒子群的个体(这里称作粒子)代表问题的一个可能解.每个粒子具有位置和速度两个特征.粒子位置坐标对应的目标函数值即可作为该粒子的适应度.算法通过适应度来衡量粒子的优劣.算法首先初始化一群随机粒子,然后通过迭代找到最优解.在每一次迭代中,粒子通过跟踪两个/极值0来更新自己:一个是粒子本身所找到的最优解,即个体极值p Best;另一个是整个粒子群目前找到的最优解,称之为全局极值g Best.粒子在找到上述两个极值后,就根据下面两个公式来更新自己的速度与位置[1,2]:V=w*V+c1*rand*(p Bes t-Present)+c2*rand*(g Best-Present)(1)Present=Present+V(2)其中,V是粒子的速度,Present是粒子的当前位置.rand是[0, 1]之间的随机数,c1和c2被称作学习因子.通常,c1=c2=2.收稿日期:2003-02-20;修回日期:2003-05-28基金项目:甘肃省自然科学基金项目(No.ZS011-A25-016-G)w是加权系数,一般在011到019之间取值.文献[2]通过大量实验证明,如果w随算法迭代的进行而线性减小,将显著改善算法的收敛性能.设w max为最大加权系数,w min为最小加权系数,run为当前迭代次数,runMa x为算法迭代总次数,则有:w=w max-run*(w max-w min)runMa x(3)更新过程中,粒子每一维的最大速率限制在v max,粒子每一维的坐标也被限制在允许范围之内.同时,p Best与g Best 在迭代过程中不断更新,最后输出的g Best就是算法得到的最优解.粒子群优化算法一般采用实数编码,由于没有选择、交叉与变异等操作,算法结构相对简单,运行速度很快.但是,算法运行过程中,如果某粒子发现一个当前最优位置,其他粒子将迅速向其靠拢.如果该最优位置为一局部最优点,粒子群就无法在解空间内重新搜索,因此,算法陷入局部最优,出现了所谓的早熟收敛现象.试验证明,粒子群优化算法无论是早熟收敛还是全局收敛,粒子群中的粒子都会出现/聚集0现象.要么所有粒子聚集在某一特定位置,要么聚集在某几个特定位置,这主要取决于问题本身的特性以及适应度函数的选择.下面将从理论上证明这个结论.粒子位置的一致等价于各粒子的适应度相同.因此,研究粒子群中所有粒子适应度的整体变化就可以跟踪粒子群的状态.为了定量描述粒子群的状态,下面先给出群体适应度方差的定义,同时也给出了粒子收敛的定义.定义1设粒子群的粒子数目为n,f i为第i个粒子的适应度,f avg为粒子群目前的平均适应度,R2为粒子群的群体适应度方差,则R2可以定义为:R2=E ni=1f i-f a vgf2(4)其中f是归一化定标因子,其作用是限制R2的大小.f可以取任意值,只需注意两个条件:¹归一化后,整个粒子群|f i-f a vg|的最大值不大于1;ºf随算法的进化而变化.在本文算法中,f的取值采用如下公式:f=max{|f i-f avg|},max{|f i-f a vg|}>11,others(5)定义1表明:群体适应度方差R2反映的是粒子群中所有粒子的/收敛0程度.R2越小,则粒子群趋于收敛;反之,粒子群则处于随机搜索阶段.定义2设粒子群中某个粒子在t时刻的位置为x(t),p 为搜索空间内的任意位置,则粒子收敛定义如下[5]:li mt y+]x(t)=p(6)该定义表明,粒子的收敛是指粒子最终停留在搜索空间内某一固定位置p.定理1如果粒子群优化算法陷入早熟收敛或者达到全局收敛,粒子群中的粒子将聚集在搜索空间的一个或几个特定位置,群体适应度方差R2等于零.证明根据定义2,粒子如果收敛,将停留在某一固定位置p.下面讨论如何确定收敛位置p.文献[5]通过严格的数学推导,得出如下结论:li mt y+]x(t)=(1-a)y+ay c(7)其中a=c1/(c1+c2),c1与c2是式(1)中的学习因子.y表示粒子当前的个体极值,y c表示粒子群当前的全局极值.若c1= c2=2,则式(7)变为:limt y+]x(t)=y+y c2(8)文献[5]在推导式(7)时假设y和y c都固定不变.从式(8)可以看出,如果y和y c都固定不变,则粒子的收敛位置p就是粒子个体极值与粒子群全局极值之间的中点位置.实际上, y和y c一般都随时间变化而改变.此时,将式(8)改写为:limt y+]x(t)=li mt y+]y(t)+y c(t)2(9)根据粒子群优化算法的原理,粒子在位置更新与速度更新的过程中,如果发现新位置优于个体极值,则将个体极值设置为新位置;同样,如果新位置优于全局极值,则将全局极值设置为新位置.不失一般性,设粒子群最终找到的全局极值为p*,即:li mt y+]y c(t)=p*(10)显然,如果全局极值为p*,粒子将在式(2)的作用下向p*靠拢,其间将不断更新个体极值y,如果粒子没有发现比p*更好的位置,那么其个体极值最终将等于p*,即:limt y+]y(t)=p*(11)将式(10)与式(11)代入式(9),可得:limt y+]x(t)=p*(12)式(12)表明,对于粒子群中的任意粒子,其最终收敛位置将是整个粒子群找到的全局极值.如果粒子群找到的全局极值只有一个,那么所有粒子都会/聚集0到该位置;如果全局极值不止一个,那么粒子将随机聚集在这几个全局极值位置.全局极值是所有粒子在算法运行过程中找到的最佳粒子位置,该位置并不一定就是搜索空间中的全局最优点.若该位置为全局最优点,则算法达到全局收敛;否则算法陷入早熟收敛.根据粒子位置可计算相应的适应度,因此,当算法陷入早熟收敛或全局收敛时,粒子群中的粒子位于全局极值p*.设f(x)为适应度函数,粒子适应度可由下式计算:f i=f(p*),i=1,2,,,n(13)根据定义1,粒子群目前的平均适应度可由式(14)给出:f avg=1nE ni=1f i(14)将式(13)代入式(14),可得f avg=f(p*)(15)将式(13)与式(15)代入式(4),可得R2=0.定理1得证.定理1给出了粒子群优化算法收敛状态与群体适应度方差之间的关系.显然,仅凭群体适应度方差等于零不能区别早熟收敛与全局收敛,还须进一步判断算法此时得到的最优解是否为理论全局最优解或者期望最优解f d.如果此时已经得到全局最优,则可认为算法达到全局收敛;反之,则表明算法陷入局部最优.417第3期吕振肃:自适应变异的粒子群优化算法图1是粒子群优化算法求解某函数最小化问题全局收敛的适应度方差进化曲线,图2则是早熟收敛的适应度方差进化曲线.图1 PSO 全局收敛的适应度方差进化曲线 图2 PSO 早熟收敛的适应度方差进化曲线3 自适应变异的粒子群优化算法从前面的分析可知,在粒子群优化算法运行过程中,如果群体适应度方差等于零,且此时得到的最优解不是理论最优解或者期望最优解f d ,则粒子群陷入局部最优,算法将出现早熟收敛.因此,如果要克服早熟收敛问题,就必须提供一种机制,让算法在发生早熟收敛时,能够跳出局部最优,进入解空间的其它区域继续进行搜索,直到最后找到全局最优解.根据式(1)和式(2),粒子下一时刻的位置由当前位置与当前速度共同决定,速度大小决定移动距离,速度方向决定粒子前进方向.根据式(1),粒子当前速度由三个因素决定:原来的速度、个体极值p Best 与全局极值g Best .全局极值g Best 是算法目前找到的最优解.如果算法出现早熟收敛,全局极值g Best 一定是局部最优解.结合式(1),如果此时改变全局极值g Best (变异操作),就可以改变粒子的前进方向,从而让粒子进入其它区域进行搜索,在其后的搜索过程中,算法就可能发现新的个体极值p Best 以及全局极值g Best .如此循环,算法就可以找到全局最优解.这就是本文将要提出的自适应变异机制的基本思想.考虑到粒子在当前g Best 的作用下可能发现更好的位置,因此新算法将变异操作设计成一个随机算子,即对满足变异条件的g Best 按一定的概率p m 变异.p m 的计算公式如下:p m =k ,R 2<R 2d and f (g Best )>f d0,others(16)其中,k 可以取[0.1,0.3]之间的任意数值.R 2d 的取值与实际问题有关,一般远小于R 2的最大值.f d 可以设置为理论最优值.这里考虑的是/最小化0情况.对于g Best 的变异操作,本文算法将采用增加随机扰动的方法,设g Best k 为g Best 的第k 维取值,G 是服从Gauss (0,1)分布的随机变量,则g Best k =g Best k *(1+0.5*G )(17)综上所述,我们对粒子群优化算法进行了改进,提出了一种新的基于群体适应度方差对g Best 进行自适应变异的粒子群优化算法)AMPSO ,其算法流程如下:(1)随机初始化粒子群中粒子的位置与速度.(2)将粒子的p Best 设置为当前位置,g Best 设置为初始群体中最佳粒子的位置.(3)判断算法收敛准则是否满足,如果满足,转向(9);否则,执行(4).(4)对于粒子群中的所有粒子,执行如下操作:¹根据式(1)、(2)和式(3)更新粒子的位置与速度.º如果粒子适应度优于p Best 的适应度,p Bes t 设置为新位置.»如果粒子适应度优于g Best 的适应度,g Best 设置为新位置.(5)根据式(4)与式(5)计算群体适应度方差R 2,并计算f (g Best ).(6)根据式(16)计算变异概率p m .(7)产生随机数r I [0,1],如果r <p m ,按式(17)执行变异操作;否则,转向(8).(8)判断算法收敛准则是否满足,如果满足,执行(9);否则,转向(4).(9)输出g Best ,算法运行结束.从上述流程可以看出,自适应变异的粒子群优化算法实际上是在粒子群优化算法的基本框架中增加了随机变异算子,通过对g Best 的随机变异来提高粒子群优化算法跳出局部最优解的能力.4 自适应变异的粒子群优化算法性能分析下面将通过四个典型函数优化问题(求解最小值)来测试本文算法的性能,同时与实数遗传算法(RGA )[6]和粒子群优化算法进行了比较.函数f 1(x )是单峰二次函数;函数f 2(x )是具有强烈振荡的多峰函数,一般算法难以得到最优解[6];函数f 3(x )是很难极小化的病态二次函数[7];函数f 4(x )是具有大量局部最优点的多峰函数[7].实验设置的参数如下:三种算法的群体大小都为30;实数遗传算法的交叉概率为0.8,变异418 电 子 学 报2004年概率为0.05;粒子群优化算法与AMPSO 算法的最大加权系数与最小加权系数都取0.9和0.1.对于f 1(x ),将f 1(x )+10-10作为适应度函数;对于f 2(x )和f 3(x ),将函数表达式作为适应度函数;对于f 4(x ),将f 4(x )+0.1作为适应度函数.表1列出了用三种算法求解上述优化问题运行20次后得到的平均函数最优解以及AMPSO 算法求解这些问题时k 、R 2d 及f d 的取值.f 1(x )=E10i=1x 2i ,-100[x i [100(18)f 2(x )=sin 2x 21+x 22-0.5[1+0.001*(x 1+x 2)]+0.5,-2[x i [2(19)f 3(x )=E 9i=1[100*(x i +1-x 2i )2+(x i -1)2],-100[x i [100(20)f 4(x )=E 10i=1[x 2i -10cos (2P x i )+10],-100[x i [100(21)从表1可以看出:对于所有测试函数,本文算法的优化结果都明显好于其它两种算法,其中对于f 1(x )、f 2(x )和f 4(x ),本文算法获得了理论最优值.图3至图6是上述四个函数采用三种算法求解运行20次后得到的平均最佳适应度进化曲线.为了便于比较,图3、图5与图6的纵坐标都采用适应度的对数值表示.从图中可以看出:对于单峰函数f 1(x ),本文算法的全局收敛速度快于粒子群优化算法与实数遗传算法;粒子群优化算法在f 2(x )与f 3(x )的优化过程中都陷入局部最优,实数遗传算法在函数f 4(x )中也出现了早熟收敛情况;本文算法在所有函数优化问题中,都具有较快的全局收敛速度与强大的全局搜索能力,能有效地避免遗传算法和粒子群优化算法的早熟收敛问题.表1 三种算法运行20次的函数平均最优解函数理论最优解RG A PSO AMPSOf 1(x )05.590376E -48.843129E -80(f d =0,R 2d =0.001,k =0.3)f 2(x )-1-0.985610-0.989869-1(f d =-1,R 2d =0.001,k =0.3)f 3(x )075.1465864.022082E+58.660438(f d =0,R 2d =1.1,k =0.3)f 4(x )32.0887419.136798(f d =0,R 2d =1.5,k =0.3)图3 f 1(x )20次平均最佳适应度进化曲线 图4 f 2(x)20次平均最佳适应度进化曲线图5 f 3(x )20次平均最佳适应度进化曲线 图6 f 4(x)20次平均最佳适应度进化曲线419第 3 期吕振肃:自适应变异的粒子群优化算法5小结本文针对粒子群优化算法的早熟收敛问题,提出了一种采用基于自适应变异机制的粒子群优化算法.实验表明,新算法不仅具有很强的全局搜索能力,而且能有效避免粒子群优化算法和遗传算法的早熟收敛问题.本文算法的运算量比粒子群优化算法略微有所增加,但是比遗传算法的运算量要小得多,是一个非常实用的优化工具.参考文献:[1]J Kennedy,R C Eberhart.Particle s warm optimization[A].Proc IEEEinternational conference on Neural Networks[C].USA:IEEE Press,1995,4.1942-1948.[2]Y Shi,R C Eberhart.A modified s warm optimi zer[A].IEEE Interna-tional Conference of Evoluti onary Computation[C].Anchorage,Alaska:IEEE Press,M ay,1998.[3]Mark S Voss,Xi n Feng.AR MA model selection usi ng particle s warmoptimization and AIC criteria[A].15th Triennial World Congress[C].Barcelona,Spain:IFAC,2002.[4]F van den Bergh,A P Engelbrecht.Cooperati ve learning in neural net-works using particle s warm optimizers[J].South African Co mputerJournal,2000(11):84-90.[5]F van den Bergh,An analysis of particle s warm optimi zers[D].SouthAfrica:Depart ment of Computer Science,Universi ty of Pretoria,2002.81-83.[6]王凌.智能优化算法及其应用[M].北京:清华大学出版社,2001.48-49.[7]王小平,曹立明.遗传算法)理论、算法与软件实现[M].陕西西安:西安交通大学出版社,2002.105-107.作者简介:吕振肃男,1946年生于山西省沁水县,兰州大学信息科学与工程学院教授,研究方向为数字信号处理、智能控制、计算机网络技术.侯志荣男,1978年生于四川省营山县,兰州大学信息科学与工程学院硕士研究生,研究方向为智能优化算法、数字信号处理、Internet技术.420电子学报2004年。

自适应变异的混合粒子群优化策略及其应用

自适应变异的混合粒子群优化策略及其应用
2 S h ol fS t r ,Xia io o g Unv r iy . c o ofwa e o n Ja t n ie st ,Xi n 7 0 4 ,Chn ) 1 0 9 a ia
Ab ta t A o e y rd p ril wa m p i z to ( S )b s d o d p iep p lto u a sr c : n v l b i a tces r o tmia in P O h a e n a a tv o ua in m t — to n n ii u l n e l g o e a in wa e eo e . Th i ua e n e l g ( A ) o e ain in a d id vd a n ai p r t s d v lp d a n o e sm ltd a n ai n S p r to wa n r d c d it h S sito u e n ot eP O. Re a d n S a h rn ia a to h y rd s r tg ,i i a g r ig P O st ep icp l r ft eh b i tae y nt l p i c ln sr n o l e e a e is l ,a d t e e idvd aswe es a c e . M e n i ,t e oo y wa a d m y g n r t d f ty n h n n w n iiu l r r e r h d a whl e h
始随机搜 索产 生新 的 个体. 同时 , 用 自适应 变异操 作 进行 个体 变异 , 使 对进 化 过 的个 体 进 行 退 火操
作, 以调整和优化群体. 与模拟退火算法和基本 P 0算法相比, P O保持 了基本 P O算法简单 、 s H S S 容 易实现的特点, 叉能进行 自 适应变异. 复杂函数优化和旅行商组合优化 问题的 实例验证表 明, 所 提算法的全局收敛性较好, 高了摆脱局部最优 的能力, 提 有效避免 了基本 P O算法的早熟问题. S

adaptive particle swarm optimization总结

adaptive particle swarm optimization总结

自适应粒子群优化算法总结自适应粒子群算法相较于传统的粒子群算法具有更高的搜索效率。

首先,评估它的种群人口分布和求粒子的适应度值,而对于算法每一代的实时的进化情况评估按时序被分为搜索、利用、收敛和跳出这四个阶段。

APSO能够在运行的过程中对惯性权重(ω)、加速系数(c1,c2)和其他的算法参数自动控制来搜索效率和收敛速度。

在算法处于收敛阶段时精英学习策略将被使用,这个策略将会采取行动让全局最优值跳出可能的局部最优。

APSO将会引入两个新的参数,但没有介绍一种新的算法设计或者增加实现的复杂度。

加快收敛速度和避免陷入局部最优是PSO算法两个重要的迫切要求的目标,在这篇论文里通过建立一个参数适应系统和精英学习策略构想出APSO。

为了更客观优化控制PSO,采用了ESE方法。

在PSO运行过程中,其人口分布特征不仅随着迭代次数而变化还随着进化的情况的变化而变化。

在开始阶段粒子分散在不同的地区,此时的人口分布是分散的,随着进化过程的深入,粒子将会聚集在一起收敛于局部或全局的最优地区,这时的人口分布信息与开始的阶段不同。

这些分布信息可以通过计算每个粒子到其他粒子的平均距离来说明,对于全局最优的粒子在收敛阶段它到其他粒子之间的最小距离的平均值是最小的,在跳出阶段时由于最优的粒子有很大的可能离粒子群较远了所以这时全局最优粒子到其他粒子之间的最小距离的平均值是最大的。

因此,ESE方法会考虑到每一代的人口分布信息,具体如下:第一步:计算在当前位置每一个粒子到其他粒子的最小距离的平均值d i 可用欧几里得度量公式来计算:∑∑≠==--=N i j j Dk k j x N di ,112k i )x (11(N ,D 分别代表种群数目和维数) 第二步:将全局最优值的d i 记作dg ,将所有d i 的值进行比较得出最大值和最小值分别记为d max ,d min 。

计算“进化因素”f 的值:[].1,0dmindmax dmin ∈--=dg f 根据f 的动态变化曲线,可知在搜索阶段呈现了很大的f 值,随后在利用阶段f 的值急剧下降,在收敛阶段f 的值变为零直到环境改变,当目标改变PSO 就跳出来,此时f 的值再次升高按以上规律变化。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

($%&’() , 278$#"&$: $ 76@ ABACD<E6 F9DAD<>7 CA=D<GH6 8@A=F >CD<F<I6= @5<G5 <8 JA86B >7 D56 EA=<A7G6 >K D56 C>C9HAD<>7’ 8 K<D. D56 F9DAD<>7 C=>JAJ<H<DM K>= D56 G9==67D J68D CA=D<GH6 <8 B6D6=F<76B JM D@> KAGD>=8: D56 EA=<. 7688 <8 C=6867D6B) L9=<7? D56 =977<7? D<F6, ( &’()D> J=6AN A7G6 >K D56 C>C9HAD<>7’ 8 K<D7688 A7B D56 G9==67D >CD<FAH 8>H9D<>7) *56 AJ<H<DM >K CA=D<GH6 8@A=F >CD<F<IAD<>7 AH?>=<D5F A@AM K=>F D56 H>GAH >CD<F9F <8 ?=6ADHM <FC=>E6B JM D56 F9DAD<>7) *56 6OC6=<F67DAH =689HD8 85>@ D5AD D56 76@ AH?>=<D5F 7>D >7HM 5A8 ?=6AD ABEA7DA?6 >K G>7E6=?67G6 C=>C6=DM >E6= ?676D<G AH?>=<D5F A7B &’(, J9D AH8> GA7 AE><B D56 C=6FAD9=6 G>7E6=?67G6 C=>JH6F 6KK6G. D<E6HM) 9(: */#38: CA=D<GH6 8@A=F; ABACD<E6 F9DAD<>7; >CD<F<IAD<>7; C=6FAD9=6 G>7E6=?67G6
/# : ;
9)& ( ( /) +
更新过程中, 粒子每一维的最大速率限制在 ) &’(, 粒子每 一维的坐标也被限制在允许范围之内 " 同时, * ./01 与 + ./01 在迭代过程中不断更新, 最后输出的 + ./01 就是算法得到的 最优解 " 粒子群优化算法一般采用实数编码, 由于没有选择、 交叉 与变异等操作, 算法结构相对简单, 运行速度很快 " 但是, 算法 运行过程中, 如果某粒子发现一个当前最优位置, 其他粒子将 迅速向其靠拢 " 如果该最优位置为一局部最优点, 粒子群就无 法在解空间内重新搜索, 因此, 算法陷入局部最优, 出现了所 谓的早熟收敛现象 " 试验证明, 粒子群优化算法无论是早熟收敛还是全局收 敛, 粒子群中的粒子都会出现“聚集” 现象 " 要么所有粒子聚 集在某一特定位置, 要么聚集在某几个特定位置, 这主要取决 于问题本身的特性以及适应度函数的选择 " 下面将从理论上 证明这个结论 " 粒子位置的一致等价于各粒子的适应度相同 " 因此, 研究粒子群中所有粒子适应度的整体变化就可以跟踪 粒子群的状态 " 为了定量描述粒子群的状态, 下面先给出群体 适应度方差的定义, 同时也给出了粒子收敛的定义 " 定义 ! 设粒子群的粒子数目为 % , ,- 为第 - 个粒子的适
/# : ;
( /) 9)& 01 + *!
(#!)
其间将不断更新个体极值 * ! 靠拢,
粒子将在式 ( %) 的作用下向 显然, 如果全局极值为 * ! , 如果粒子没有发现比 0,
那么其个体极值最终将等于 * ! , 即: * ! 更好的位置, ! (##) 9)& ( 0 /) +*
/# : ;
与式 (##) 代入式 ($) , 可得: 将式 (#!)
/# : ;
9)& ( ( /) + *!
(#%)
应度, ,’)+ 为粒子群目前的平均适应度, ! 为粒子群的群体适 应度方差, 则!% 可以定义为:
%
% ! +"
-.#
( , ,, , )
’)+
%
式 (#%) 表明, 对于粒子群中的任意粒子, 其最终收敛位置 将是整个粒子群找到的全局极值 " 如果粒子群找到的全局极 值只有一个, 那么所有粒子都会 “聚集” 到该位置; 如果全局极 值不止一个, 那么粒子将随机聚集在这几个全局极值位置 " 全 局极值是所有粒子在算法运行过程中找到的最佳粒子位置, 该位置并不一定就是搜索空间中的全局最优点 " 若该位置为 全局最优点, 则算法达到全局收敛; 否则算法陷入早熟收敛 " 根据粒子位置可计算相应的适应度, 因此, 当算法陷入早 熟收敛或全局收敛时, 粒子群中的粒子位于全局极值 * ! " 设 ( 为适应度函数, 粒子适应度可由下式计算: , () , - + #, …, ,- + ( , *! ) %, % # % 将式 (#-) 代入式 (#2) , 可得 ,’)+ +
[+, -] 新自己的速度与位置 :
、 神经网络
与其它全局优化算法 (如遗传算法) 一样, 粒子群优化算 法同样存在早熟收敛现象, 尤其是在比较复杂的多峰搜索问 题中 ) 目前解决这一问题的主要方法是增加粒子群的规模, 虽 然对算法性能有一定改善, 但同样存在缺陷: 一是不能从根本 上克服早熟收敛问题; 二是会大量增加算法的运算量 ) 本文将 提出一种新的基于群体适应度方差自适应变异的粒子群优化 算法 ($%&’() ) 该算法根据群体适应度方差以及当前最优解 的大小来确定当前最佳粒子的变异概率 ) 实验结果表明: 与遗 传算法和粒子群优化算法相比, 本文算法的全局收敛性能得 到了显著提高, 能有效避免粒子群优化算法中的早熟收敛问 题)
( < R68D U &=6867D) = S > ! = T "+ ! )+(/ ! ( 1 R68D U &=6867D) T "- ! )+(/ ! &=6867D S &=6867D T = 其中, [#, = 是粒子的速度, &=6867D 是粒子的当前位置 ; )+(/ 是 ] 之间的随机数, 和 被称作学习因子 通常, + "+ "; "+ S "- S - ; (+) (-)
收稿日期: 修回日期: -##".#-.-#; -##".#1.-, 万方数据 基金项目: 甘肃省自然科学基金项目 ( V>) 4’#++.$-1.#+0.W)

-

吕振肃: 自适应变异的粒子群优化算法 学推导, 得出如下结论:
/# : ;
2#=
一般在 !"# 到 !"$ 之间取值 " 文献 [ %] 通过大 ! 是加权系数, 量实验证明, 如果 ! 随算法迭代的进行而线性减小, 将显著 改善算法的收敛性能 " 设 ! &’(为最大加权系数, ! &)* 为最小加 权系数, 则 #$% 为当前迭代次数, #$%&’( 为算法迭代总次数, 有: ( ! &’( , ! &)*) ! + ! &’( , #$% ! #$%&’( (-)
%
是粒子个体极值与粒子群全局极值之间的中点位置 " 实际上, 将式 (>) 改写为: 0 和 01 一般都随时间变化而改变 " 此时, ( ( /) 0 /) : 01 ($) % 根据粒子群优化算法的原理, 粒子在位置更新与速度更
/# : ;
9)& ( ( /) + 9)&
/# : ;Βιβλιοθήκη 新的过程中, 如果发现新位置优于个体极值, 则将个体极值设 置为新位置; 同样, 如果新位置优于全局极值, 则将全局极值 设置为新位置 " 不失一般性, 设粒子群最终找到的全局极值为 即: *! ,
!"#$%&’( )*"#+ ,-$%+%."$%/0 *%$1 23"-$%4( 56$"$%/0
23 4567.89, :(; 45<.=>7?
( !"#$$% $& ’(&$)*+,-$( !"-.(". +(/ 0(1-(..)-(1 , 2+(3#$4 5(-6.)7-,8 , 2+(3#$4 , 9+(74 !"####, :#-(+ )
%
将式 (#-) 与式 (#8) 代入式 (2) , 可得!% + ! " 定理 # 得证 " 定理 # 给出了粒子群优化算法收敛状态与群体适应度方 差之间的关系 " 显然, 仅凭群体适应度方差等于零不能区别早 熟收敛与全局收敛, 还须进一步判断算法此时得到的最优解 是否为理论全局最优解或者期望最优解 ,4 " 如果此时已经得 到全局最优, 则可认为算法达到全局收敛; 反之, 则表明算法 陷入局部最优 "
(# , ’) 9)& ( ( /) + 0 : ’01
相关文档
最新文档