最新高维多目标进化算法总结

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

高维多目标进化算法
二、文献选读内容分析及思考
(一)Borg算法
Borg算法是基于ε-MOEA算法(Deb,2003)的一种全新改进算法[32],下面将从创新点、原理、算法流程和启发思考四方面进行阐述。

1. 创新点
1)在ε支配关系的基础上提出ε盒支配的概念,具有能同时保证算法收敛性与多样性的特点。

2)提出了ε归档进程,能提高算法计算效率和防止早熟。

3)种群大小的自适应调整。

4)交叉算子的自适应选择。

由于处理实际问题时,是不知道目标函数具有什么特性,前沿面如何,在具有多个交叉算子的池子里,根据进程反馈,选择不同的交叉算子,使产生的后代具有更好的特性针对要研究的问题。

2. Borg算法原理
1)ε盒支配:通过对目标空间向量的每一维除以一个较小的ε,然后取整后进行pareto支配比较。

这样的支配关系达到的效果是把目标空间划分成以ε为边长的网格(2目标时),当点处于不同的网格时,按pareto支配关系比较;当处于同一网格时,比较哪个点距离中心点(网格最左下角)最近。

这样一来,网格内都只有一个点。

2)ε归档进程
如图1所示,黑点表示已经归档的,想要添加到档案集的新解用×表示,阴影表示归档解支配的区域。

当新解的性能提升量超过阈值ε才属于ε归档进程。

比如解1、解2加入归档集属于ε归档进程,解3加入归档集就不属于ε归档进程。

图1 ε支配网格
在这个过程中设置了一个参数c,表示每一代中加入归档集解得个数,每隔一定迭代次数检测c有没有增加,如果没有增加表明算法停滞,重启机制启动。

3)重启
自适应种群大小:重启后的种群大小是根据归档集的大小设置。

γ表示种群大小与归档集大小的比值,这个值也用于第二步中,如果γ值没超过1.25,重启机制也启动。

启动后,γ人为设定为固定值,种群被清空,填充归档集的所有个体,不足的个体是随机选取归档集中个体变异所得。

与之相匹配的锦标赛比较集大小是归档集大小乘以固定比值τ。

4)交叉算子的自适应选择
摒弃以往采用单一的交叉算子,采用包含各类交叉算子的池子,比如有K
种交叉算子,选择概率最开始是相等的,设n表示各类交叉算子产生的后代属于ε归档进程所得个数,个数越多,选取相应交叉算子的概率就越大,逐渐趋于选择解决未知现实问题的交叉算子。

3. Borg算法总体流程
通过交叉算子的自适应选择选择一种交叉算子,假设所选交叉算子需要K 个父代,1个父代在归档集中按均匀分布选择,K-1个父代从种群中按锦标赛选择(大小按上述第3步中计算),交叉产生一个后代,如果这个后代pareto支配种群中一个或多个个体,则随机的取代一个;如果被种群中的任一个体支配,则不能加入种群;如果互不支配,也是随机的取代种群中的一个。

而加入归档集,是按照上述第2步实施的。

如此循环一定代数之后,看达没达到第3步重启的条件,达到则重启过程开始,直至满足终止条件。

4. 思考
1)ε盒支配时,同一网格内的点只是比较离中心点距离最近的,这就有一个不足,最近的不一定是非支配解,离的远的点有可能还支配它,我觉得还需要比较一下哪个解优的目标维数多。

2)设计一种云交叉算子,加入到交叉算子的池子里,或是参数控制云交叉算子替换其中的能达到类似效果的几种算子,便于统一。

(二)基于模糊支配的高维多目标进化算法
1. 算法简介
基于模糊支配的高维多目标进化算法[33]是对模糊支配关系的一种改进,2005年M. Farina首次提出的模糊支配,其隶属函数是一条正态分布函数,如图2所示,而此文的隶属函数是一条半正态分布函数,表达的概念更加清晰。

图2 正态隶属函数
对于最小化问题,归一化后的解A(a1,a2,...,a M),B(b1,b2,...,b M)如果目标向量的某一维上的差量(a i-b i)达到-1,则a i好于b i的程度为1,即pareto支配关系下a i支配b i;如果差量(a i-b i)是1,则pareto支配关系下b i支配a i。

A模糊支配B程度为每一维差量映射下的隶属度之积,与种群中其他解进行比较,所得隶属度相加即为A解在整个中群众的性能好坏程度,相当于NSGA-II中的非支配排序,只是这里的等级程度更加细分,然后还得设置一个阈值α,即模糊支配隶属度达到多少才能是最优解,也就是NSGA-II中的非支配排序等级为1的解。

设定这个值是关键,此文献也对这个值得选取进行了实验说明,针对不同的问题选取不同的值,但是还没能达到根据问题特性自适应调整。

2. 思考
1)既然隶属度函数不是一成不变的,想用云模型确定隶属度,借鉴张国英
《高维云模型及其在多属性评价中的应用》构造一M维云模型,它的作用是输入M维差量映射为一维的模糊支配隶属度u,无需像上文中求出每一维隶属度再相乘。

2)由于阈值α不好确定,可不可以根据归档集的大小取前N个,找到使个体数量大于等于N的u值为α。

(三)基于网格支配的高维多目标进化算法
GrEA[34]也是针对ε-MOEA算法进行改进的,作者认为ε-MOEA算法中的网格划分是基于个体的,如果个体分配不均匀,也就不能得到分布性好的最优前沿,而且网格的大小也不能随着目标空间的特性而自适应调整。

1. 支配关系创新
grid-dominance,这种支配关系是基于空间区域划分网格,就是在当代种群中找出每一个目标函数上的最大值与最小值(下图上行),然后根据这两个值计算出这个目标函数的网格上下界值(下图下行)。

人为设定每一个目标函数需划分的段数div,是一个固定的值,这样就使得收敛性与多样性的要求随着算法进程自适应调整,比如说刚开始时目标空间的个体分布比较广,就需要大的网格来选择个体,随着算法深入,个体更加集中于Pareto前沿区域,就需要小的网格区分个体,更加强调个体的多样性,因此这样动态的网格划分更能体现算法的进程。

另外,ε-支配强调个体生死,只有非支配才能加入归档集;而grid dominance不同,它更强调个体的先后,非支配个体只是先于支配个体进入归档集,支配个体还是有机会加入归档集,这在一定程度上保留了边界点,而ε-MOEA算法会丢失边界点。

图3 网格分段示意图
2. 适应度值指派创新
本文提出了适应度值指派的三个指标grid ranking (GR)、grid crowding distance (GCD)和grid coordinate point distance(GCPD),GR和GCPD是收敛性评价指标,GCD是多样性评价指标,网格指标如图4所示。

GR表示个体所处网格各维目标函数坐标之和,相当于将目标向量各维相加,只不过这里是将函数值映射为所处网格坐标值之和。

比如下图A点的网格坐标为(0,4),则GR=0+4=4。

GCD是网格拥挤距离,以往的网格拥挤距离都是在一个网格之内的,这样就不能反映分布性了,此处的GCD还考虑临近网格的个体,用网格坐标的差量之和评估,之和越小的GCD值就越大,多样性就越差。

如下图C的邻居是B、D,F的邻居是E、G。

GCPD表示的是同一网格内与中心点的距离,这一点与ε-MOEA中相同。

比较的先后准则是GR,GR相同比较GCD,GR、GCD都相同则比较GCPD。

图4 网格指标示意图
3. 归档策略的改进
以往的归档策略都是基于适应度值的支配关系选择删除,这样会导致解集多样性的缺失,因为相邻的点具有相似的适应度值,会使他们同时被选择或删除,比如上图的E、F、G,这样多样性会得不到保证。

本文作者对归档策略进行了改进,就是当一个个体加入归档集时,在归档集中和它相关的个体GR值会受到惩罚,相关的个体包括:1. 处于同一网格坐标 2. 被网格支配的 3. 邻域个体,惩罚力度依次减小。

(四)基于坐标转换的高维多目标进化算法
针对原始的密度评估算子在高维多目标中会出现不能很好的兼顾收敛性与多样性,解集往往会有很好的多样性而收敛性差的缺点,论文设计了一种包含收敛性的密度评估算子shift-based density estimation (SDE)[35]。

比如图5中的A点,按照基于pareto支配的多目标优化算法来看,是非支配解切多样性好于B、C、D,但很明显得看出A点收敛性不及BCD。

SDE是将各维目标函数上小于A点对应维的值转化为A点那一维的函数值,如下图所示。

转换之后A点的密度值较大,而BCD密度值较小,符合所考虑的情况
图5 坐标转换示意图
从图6的四图中可以看出,只有收敛性和多样性都好的个体,其SDE值小,即其值不仅体现密度信息,而且将收敛性信息也包含在内。

SDE是一种通用的密度评估算子,可以将其植入NSGA-II,SPEA2和PESA-II中。

图6 拥挤密度示意图
(五)基于角点排序的高维多目标进化算法
本文是在非支配排序上的改进。

在高维多目标优化问题中,随着目标维数的增加,非支配解之间的比较次数是非常大的,因此论文提出了角点支配。

所谓的角点指的是在M维目标空间中只考虑其中k个目标,在本文中只考虑一个目标函数上的,因为在一个目标函数上最好的点肯定是非支配解。

二维、三维角点分别如下图所示。

图7 二维、三维角点示意图
找到角点后,所有被角点支配的点就不用比较了,大大减少评价次数。

而且本文还指出非支配解排序的比较次数应该是精确到每一维的目标函数的比较上,因为每两个解之间目标函数的比较次数从2到M,也就是说不同的两个解之间比较所花费的计算量是不同的,只计算一个解与其他解的比较次数是不对的。

角点支配排序大致过程如图8所示。

图8 角点非支配排序
图8是2维目标函数的情况,首先得找出每一维目标函数上最好的点,如上
图A 中的白点,标记他们所支配的点如上图阴影区域,这些点在当前等级中就不考虑排序了,在剩下的点中再寻找两个角点,直到将所有的点都标记,如图B ,B 中白点表示等级1,等级2、3依次进行。

(六)NSGA -III 算法系列文献
1. MO -NSGA -II
为了适合解决高维多目标问题,Kalyanmoy Deb 针对NSGA -II 的缺点,提出了MO -NSGA -II (many -objective NSGA -II ),这是NSGA -III 的雏形。

MO -NSGA -II 的基本框架和NSGA -II 差不多,不同之处在于精英选择机制上,因为原有的选择机制对快速增加的非支配解已经没有选择压力。

MO -NSGA -II 是一种基于参考点的多目标算法,放置分布性好的参考点,使得到的非支配解靠近这些参考点,就能得到分布性好的最优前端。

让我们回顾一下NSGA -II ,有一个大小为N 的当前种群P t ,由他产生的子代种群Q t ,大小也为N ,然后对P t 、Q t 的合集R t 进行快速非支配排序F 1、F 2...Fi,将这些点按等级加入下一代种群P t+1,通过对F l 中个体计算拥挤距离按降序排列,依次加入P t+1,直到种群大小为N 。

参考点的设置就是从这里开始,取代原有的拥挤距离。

均匀分布的参考点可以通过一些特定的系统产生。

1)超平面的建立。

设F1、F2...Fi 的合集为St ,在这个集合中找到每一个目标函数值最小的点组成理想点min min min min 12(,,...,)M z z z =z ,将目标函数值转化为相对的
min ()=()z i i i f f -u u ‘
,然后种群中的点通过一个聚集函数求最小值(它是相对于在某一维坐标轴上的参考点的)把它当成这一维的端点,通过这M 个端点构造超平面,根据这个超平面重新计算参考点,这个超平面在每一代中都不同,所以它是可以根据种群特性自适应调整。

2)选取低拥挤度的解。

为了确定解集拥挤度,需要把所有的点投影到超平面上(如图9左图),找到与之距离最近的参考点,这样每个参考点就会有一定数量的解与之相关联(如图9右图)。

选择参考点周围个体最少的参考点,选出F i 解集中在这个参考点下ASF 最小的点加入P t+1。

再选出个体数次最少的参考点,选出F i 解集中在这个参考点下ASF 最小的点加入P t+1,直到加满P t+1。

图9 关联操作 3)锦标赛选择。

当P t+1形成,用锦标赛方法产生后代Q t+1,具体操作是从P t+1任意挑选两个解,比较策略是如果一个解的非支配等级小于另一个解,选择前一个解;如果同处一个非支配等级但是所属参考点的拥挤度不同,选拥挤度小的点;如果非支配等级和所属参考点的拥挤度都相同,则选ASF 值小的。

然后采用模拟二进制交叉算子,产生后代Q t+1,然后在合并进行第一步,依次循环。

2. NSGA -III
本文作者针对上文提出的MO -NSGA -II 作了适当改进,提出了NSGA -III 。

1)超平面的建立。

与上文不同的是,本文将超平面进行了归一化处理,找到基于坐标轴上的参考点的每一维端点max z 后,还必须将组成的超平面延伸相交于f i ,坐标系,截距为a i ,如图10所示。

图10 端点归一化示意图 2)个体与参考点的关联操作。

上文中是将个体投影到超平面上,而此文是个体与参考线方向的垂直距离(参考线方向是参考点与理想点的连线方向),如图11所示。

图11 关联操作 3)小生境保留操作。

此处本文与上文有个很大不同,本文只计算排除F i 的S t ,的小生境数,选出围绕参考线个体为0的参考线,如果有多条则任选一条,即0j
ρ-=,这样Fi 个体就有两种情况。

第一,F i 中有一到多个个体与参考点j 相关联,这样就选一个与参考点j 垂直距离最短的个体加入下一代种群P t+1,j
ρ-加1。

第二,如果,F i 中没有个体与参考点j 相关联,则这个参考点在当前代就不用考虑了。

如果0j
ρ->,则从F i 中与参考点j 相关联的个体集合中任选一个,,j
ρ-加1。

重新调整小生境数,直到加满P t+1。

3. C -NSGA -III
上文提出的NSGA -III 是处理无约束的问题,本文为处理约束条件,对NSGA -III 进行了改进。

1)精英选择操作上的改进,用约束支配取代pareto 支配,和NSGA -II 为处理约束条件的约束支配原则是一样。

此时的种群一般既有可行解,还有不可行解,如果可行解的个数f N N ≤,那么还需要从具有最小约束违反度的不可行解中选取个体加满P t+1;如果f N N >,则按照无约束的NSGA -III 精英选择操作进行,接着也要用P t+1中可行解更新理想点和端点。

2)子代种群生成。

锦标赛选取规则是任选两个解,如果一个可行解,一个不可行解,选可行解;如果都是不可行解,选约束违反度小的;如果都是可行解,任选一个;这样选择出一个父代,再进行一次,选出另一个父代,模拟二进制交叉,然后变异。

但是通过实验发现上述算法有个不足,由于约束条件的存在,可行区域可能只是整个区域的一小部分,然而参考点是均匀的分布在目标向量空间,导致不是每个参考方向都能与最有前沿面相交,也就是说有一部分参考点是没用的,而用到的参考点会与多个个体相关联,又不能达到好的分布性,如图12所示。

图12 参考点自适应调整 这就涉及到一个问题:如何使所有的参考点能均匀分布在可行区域上,理想的方法是能分配所有的参考点均匀地分布在最优前沿面,但是对于不同的问题最优前沿面是未知的。

于是本文作者提出了自适应的NSGA -III ,叫做A -NSGA -III ,让它能够自适应鉴别出无用的参考点然后分配他们,希望能找到新的最优解。

于是在原有的NSGA -III 生成大小为N 的P t+1后,有两个新的操作1.增加新的参考点 2.消除无用的参考点。

1)增加新的参考点。

由于参考点个数等于种群规模,理想情况是一个参考点一个个体,当参考点j 方向的小生境数1j ρ>,则必存在参考点k 方向的小生境数,0k ρ=。

我们针对参考点j ,在其周围增加M 个参考点的单纯形(单纯形法是一类在小范围内具有更精细搜索效果的优化算法,能提高点的多样性),如下图所示三维空间中具有三个顶点的单纯形扩展。

图13 单纯形扩展法 但是扩张的点有两种情况是不接受的:1.不在第一象限 2.在参考点集中已经
存在
2)消除无用的参考点。

扩张完后的参考点可能存在一些无用的,则消除那些0j ρ=的扩展点,而原始的参考点0j ρ=是要保留的,有可能下一代就有用了。

4. A 2-NSGA -III
论文针对A -NSGA -III 的四点缺点进行了改进,提出了A 2-NSGA -III ,四点缺点如下:
1)当问题的最优前沿面很小时,A -NSGA -III 扩张操作不能提供足够的参考点使种群分布均匀。

2)扩张操作不适合角点,因为以角点为中心扩张生成的点不在第一象限或出界。

3)由于扩张操作是从第一代开始,种群较分散,离最优前沿面较远,很可能没有足够的时间使种群在各个区域均匀分布而由于额外的扩张点陷入局部最优。

4)只有当所有参考点小生境数为0或1时才开始消除操作,对于高维多目标,由于种群变大,这个条件很难达到。

改进措施:选取参考点为单纯形的一个顶点,而不是中心,且边长减半,而且这样可以有三种外形,如图14所示。

图14 改进单纯形扩展法 当添加一个外形后,还有小生境数大于1的,采用另一个外形,直到所有M 个外形都采用,如果还有,则单纯形的边长再取半,直到小生境数为0。

在一个外形加入之前,需要进行检查:1.如果外形的点超出边界是不被接受,比如上图Q 点,外形1、3是不被接受的。

2.如果外形的点在参考点中存在,也是不被接受。

这样的扩张操作引入了更多的单纯形,能缓解第一个缺点;以参考点为顶点半边长的单纯形适用于定点,比如Q 点,缓解了第二个缺点;只有当原始的参考点小生境数在过去的10代稳定在一个定值,则扩张的点才被接受,这样能克服第三个缺点;只要参考点总数达到原始参看点个数的10倍,消除操作就开始,这样能克服第四个缺点。

(七)MOEA/D -M2M
MOEA/D -M2M 是将高维多目标问题分解为多个简单的多目标优化子问题,通过协同方式解决这些子问题,每个子问题对应一个子种群,通过这种方式种群多样性得到维护。

它是针对MOEA/D 的存在的两个缺点进行的改进。

MOEA/D 有两个缺点:
1)一个新个体不该完全根据聚合函数值取代旧个体,因为在有些情况下,
这样完全取代会导致种群多样性的丢失。

2)对于不同的问题,MOEA/D 总是需要设置合适的聚合方法和权重向量,而这个在解决问题之前是很困难的。

均匀生成K 个单位方向向量,将目标空间划分为K 个子区间,通过计算N 个种群个体所在方向与K 个单方方向的夹角,将n 个个体划分到k 个区域里。

这样基于方向向量分解目标空间有两个好处:
1)每个子区域的局部最优前沿面可以组成整个最优前沿面。

2)即使整个区域的最优前沿面是非线性几何形状(不规则),经过分解,各个子区域只是整个区域的一小部分,所以最优前沿面在子区域内可以很接近线性形状。

而求解线性形状的最优前沿面比非线性几何形状简单得多。

(八)θ-DEA 算法
1. 算法简介
近期进化算法上有人基于NSGA3提出一种基于新型支配关系θ支配的高维多目标优化算法θ-DEA ,它通过引入分解算法MOEA/D 中的PBI 聚合函数来提高NSGA3的收敛性。

出发点是整合NSGA -III 和MOEA/D ,达到优势互补。

通过分析,文章作者得出:
1)NSGA -III 强调的是个体中靠近参考线的Pareto 非支配解,然而目标维数增大时,会导致非支配解个数也急剧增多,基于pareto 支配关系的NSGA -III 将缺乏足够的选择压力去促使种群向最优PF 面进化,事实上NSGA -III 过多的侧重于多样性而导致收敛性不足。

2)MOEA/D 通过基于聚合函数的选择操作能很好地逼近最优PF 面,在高维情况下收敛性也很好,而多样性试图通过设置均匀分布的权重向量来维护,低维可以到达目的,但是在高维情况下就不适用了,因为在高维空间中,一个具有很好聚合函数值的解有可能离相应的权重向量很远,那么多样性就会缺失。

综上所诉,NSGA -III 收敛性不足,MOEA/D 多样性缺失,因此作者通过引入MOEA/D 的聚合函数来提高NSGA -III 的收敛性,而继承NSGA -III 优良的多样性。

2. 算法步骤
1)合并父代种群t P 和子代种群t Q ,组成t R ,对t R 进行非支配排序,i i F S τ1t =⋃=,
其中i F 表示第i 层pareto 前沿,τ满足N F i i <∑-=11τ,N F i i ≥∑=τ
1
2)以N 个权重向量为聚类中心,将t S 中的个体聚类到各个权重向量附近(各个权重向量附近个体数是不一样的),然后通过θ支配关系对每一个类内个体划分等级。

这里所说的θ支配也就是MOEA/D 中的PBI 聚合函数,如图15所示。

图15 PBI 聚合函数示意图 其中,d1越小,代表x 解的收敛性越好;d2越小说明越靠近权重向量,多样性
越好。

综合这两者表示一个解的优劣,可以令)()()(2,1,x d x d x F j j j θ+=,如果)()(y F x F j j <,我们就说x 支配y ,,其中θ是惩罚系数,实验仿真取5(对5作解释)
说明一下,这里通过θ支配关系对每一个类内个体划分等级,其实每一个等级上只有一个解,因为)(x F j 是一个可以比较大小的数值。

3)以此取每一个类里的第一等级,第二等级,以此类推,直到选择最后一个等级,他加入的话大于N ,不加入就少于N ,然后随机的在这一等级里选取个体满足数量N 。

3. 思考
1)对θ-DEA 的改进,在第三步中,是随机的在最后一等级里选择,而我的想法是定向的选择类内个体数少的那一类的最后等级个体,能够进一步提高多样性。

2)NSGA -III 在多样性维护阶段只是依靠d2来选择个体,会导致收敛性不足,而θ-DEA 在考虑多样性d2的同时稍微考虑一点收敛性d1,根据这一点我对自己的多个子种群进化算法做了进一步改进,将子种群中由以前只依靠d2选择个体变为d1+5d2。

3)NSGA -III 和θ-DEA 都是先进行非支配排序后聚类,不同的是NSGA -III 通过评估每一个类里的小生境数选择小生境数少的类内个体,而θ-DEA 是通过θ支配循环选择每一类个体,因此我可以将我的子种群的NSGA -III 模式改为θ-DEA 模式。

参考文献
[1] R.C. Purshouse, P .J. Fleming. On the Evolutionary Optimization of Many Conflicting Objectives.
Evolutionary Computation, IEEE Transactions on. 2007, 11 (6): 770-784
[2] 孔维健, 丁进良, 柴天佑. 高维多目标进化算法研究综述. 控制与决策. 2010 (03): 321-326
[3] 巩敦卫, 季新芳, 孙晓燕. 基于集合的高维多目标优化问题的进化算法. 电子学报. 2014 (01):
77-83
[4] E. Hughes. Radar Waveform Optimisation as a Many -Objective Application Benchmark. In:
Evolutionary Multi -Criterion Optimization --S. Obayashi, K. Deb, C. Poloni, T. Hiroyasu, T. Murata, eds.: Springer Berlin Heidelberg, 2007: 700-714
[5] A. Sülflow, N. Drechsler, R. Drechsler. Robust Multi -Objective Optimization in High Dimensional
Spaces. In: Evolutionary multi -criterion optimization: Springer, 2007: 715-726
[6] R. Lygoe, M. Cary, P . Fleming. A Real -World Application of a Many -Objective Optimisation
Complexity Reduction Process. In: Evolutionary Multi -Criterion Optimization --R. Purshouse, P . Fleming, C. Fonseca, S. Greco, J. Shaw, eds.: Springer Berlin Heidelberg, 2013: 641-655
[7] K. Deb, A. Pratap, S. Agarwal, T. Meyarivan. A Fast and Elitist Multiobjective Genetic Algorithm:
Nsga -Ii. Evolutionary Computation, IEEE Transactions on. 2002, 6 (2): 182-197
[8] E. Zitzler, M. Laumanns, L. Thiele. Spea2: Improving the Strength Pareto Evolutionary Algorithm.
TIK, Swiss Federal Institute of Technology (ETH. 2001
[9] D.W. Corne, N.R. Jerram, J.D. Knowles, M.J. Oates, J. Martin. Pesa -Ii: Region -Based Selection in
Evolutionary Multiobjective Optimization. In: Proceedings of the Genetic and Evolutionary Computation Conference (GECCO’2001, 2001: 283--290
[10] 陈小红, 李霞, 王娜. 高维多目标优化中基于稀疏特征选择的目标降维方法. 电子学报.
2015 (07): 1300-1307
[11] H. Ishibuchi, N. Tsukamoto, Y. Nojima. Evolutionary Many-Objective Optimization: A Short Review.
In: Evolutionary Computation, 2008. CEC 2008. (IEEE World Congress on Computational Intelligence). IEEE Congress on, 2008: 2419-2426
[12] K. Deb, M. Mohan, S. Mishra. Evaluating the &#1013;-Domination Based Multi-Objective
Evolutionary Algorithm for a Quick Computation of Pareto-Optimal Solutions. Evolutionary Computation. 2005, 13 (4): 501-525
[13] H. Sato, H. Aguirre, K. Tanaka. Controlling Dominance Area of Solutions and Its Impact on the
Performance of Moeas. In: Evolutionary Multi-Criterion Optimization--S. Obayashi, K. Deb, C.
Poloni, T. Hiroyasu, T. Murata, eds.: Springer Berlin Heidelberg, 2007: 5-20
[14] Y. Shengxiang, L. Miqing, L. Xiaohui, Z. Jinhua. A Grid-Based Evolutionary Algorithm for
Many-Objective Optimization. Evolutionary Computation, IEEE Transactions on. 2013, 17 (5): 721-736
[15] Z. He, G.G. Yen, J. Zhang. Fuzzy-Based Pareto Optimality for Many-Objective Evolutionary
Algorithms. Evolutionary Computation, IEEE Transactions on. 2014, 18 (2): 269-285
[16] 毕晓君, 张永建, 陈春雨. 基于模糊支配的高维多目标进化算法mfea. 电子学报. 2014 (08):
1653-1659
[17] A. Jaimes, L. Quintero, C.C. Coello. Ranking Methods in Many-Objective Evolutionary Algorithms.
In: Nature-Inspired Algorithms for Optimisation--R. Chiong, ed.: Springer Berlin Heidelberg, 2009: 413-434
[18] Z. Xiufen, C. Yu, L. Minzhong, K. Lishan. A New Evolutionary Algorithm for Solving Many-Objective
Optimization Problems. Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on. 2008, 38 (5): 1402-1412
[19] E. Carreno Jara. Multi-Objective Optimization by Using Evolutionary Algorithms: The <Formula
Formulatype="Inline"> <Img Src="/Images/Tex/387.Gif" Alt="P"> </Formula>-Optimality Criteria. Evolutionary Computation, IEEE Transactions on. 2014, 18 (2): 167-179
[20] J. Cheng, G.G. Yen, G. Zhang. A Many-Objective Evolutionary Algorithm with Enhanced Mating
and Environmental Selections. IEEE Transactions on Evolutionary Computation. 2015, 19 (4): 592-605
[21] J. Horn, N. Nafpliotis, D.E. Goldberg. A Niched Pareto Genetic Algorithm for Multiobjective
Optimization. In: Evolutionary Computation, 1994. IEEE World Congress on Computational Intelligence., Proceedings of the First IEEE Conference on: Ieee, 1994: 82-87
[22] 郑金华, 申瑞珉, 李密青, 邹娟. 一种基于信息分离的高维多目标进化算法. 软件学报. 2015
(05): 1013-1036
[23] S.F. Adra, P.J. Fleming. Diversity Management in Evolutionary Many-Objective Optimization.
Evolutionary Computation, IEEE Transactions on. 2011, 15 (2): 183-195
[24] K. Deb, H. Jain. An Evolutionary Many-Objective Optimization Algorithm Using
Reference-Point-Based Nondominated Sorting Approach, Part I: Solving Problems with Box Constraints. Evolutionary Computation, IEEE Transactions on. 2014, 18 (4): 577-601
[25] L. Miqing, Y. Shengxiang, L. Xiaohui. Shift-Based Density Estimation for Pareto-Based Algorithms in
Many-Objective Optimization. Evolutionary Computation, IEEE Transactions on. 2014, 18 (3): 348-365
[26] X. Zhang, Y. Tian, Y. Jin. A Knee Point-Driven Evolutionary Algorithm for Many-Objective
Optimization. Evolutionary Computation, IEEE Transactions on. 2015, 19 (6): 761-776。

相关文档
最新文档