灰 狼 优 化 算 法 ( G W O ) 原 理

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

灰狼优化算法--简单易懂附python代码

ps:本博文为个人理解,如有错误请不吝赐教

本博文部分引用了

1、算法原理:简单的讲,狼群中有 Alpha、Beta、Delta三只灰狼做头狼,Alpha是狼王,Beta、Delta分别排第二第三,Beta要听老大Alpha 的,Delta要听Alpha、Beta的。这三头狼指导着狼群里其他的狼寻找猎物。狼群寻找猎物的过程就是我们寻找最优解的过程。

2、公式方面大家可以看另一博主的博文。

3、代码如下:

import random

import numpy

def GWO(objf, lb, ub, dim, SearchAgents_no, Max_iter):

# 初始化 alpha, beta, and delta_pos

Alpha_pos = numpy.zeros(dim) # 位置.形成30的列表

Alpha_score = float("inf") # 这个是表示“正负无穷”,所有数都比 +inf 小;正无穷:float("inf"); 负无穷:float("-inf") Beta_pos = numpy.zeros(dim)

Beta_score = float("inf")

Delta_pos = numpy.zeros(dim)

Delta_score = float("inf") # float() 函数用于将整数和字符串转换成浮点数。

# list列表类型

if not isinstance(lb, list): # 作用:来判断一个对象是否是一个已知的类型。其第一个参数(object)为对象,第二个参数(type)为类型名,若对象的类型与参数二的类型相同则返回True

lb = [lb] * dim # 生成[100,100,.100]30个

if not isinstance(ub, list):

ub = [ub] * dim

# Initialize the positions of search agents初始化所有狼的位置

Positions = numpy.zeros((SearchAgents_no, dim))

for i in range(dim): # 形成5*30个数[-100,100)以内

Positions[:, i] = numpy.random.uniform(0, 1, SearchAgents_no) * (ub[i] - lb[i]) + lb[

i] # 形成[5个0-1的数]*100-(-100)-100

Convergence_curve = numpy.zeros(Max_iter)

#迭代寻优

for l in range(0, Max_iter): # 迭代1000

for i in range(0, SearchAgents_no): # 5

# 返回超出搜索空间边界的搜索代理

for j in range(dim): # 30

Positions[i, j] = numpy.clip(Positions[i, j], lb[j], ub[

j]) # clip这个函数将将数组中的元素限制在a_min(-100),

a_max(100)之间,大于a_max的就使得它等于 a_max,小于a_min,的就使得它等于a_min。

# 计算每个搜索代理的目标函数

fitness = objf(Positions[i, :]) # 把某行数据带入函数计算

# print("经过计算得到:",fitness)

# Update Alpha, Beta, and Delta

if fitness Alpha_score:

Alpha_score = fitness # Update alpha

Alpha_pos = Positions[i, :].copy()

if (fitness Alpha_score and fitness Beta_score):

Beta_score = fitness # Update beta

Beta_pos = Positions[i, :].copy()

if (fitness Alpha_score and fitness Beta_score and fitness Delta_score):

Delta_score = fitness # Update delta

Delta_pos = Positions[i, :].copy()

# 以上的循环里,Alpha、Beta、Delta

a = 2 - l * ((2) - Max_iter); # a从2线性减少到0

for i in range(0, SearchAgents_no):

for j in range(0, dim):

r1 = random.random() # r1 is a random number in [0,1]主要生成一个0-1的随机浮点数。

r2 = random.random() # r2 is a random number in [0,1]

A1 = 2 * a * r1 - a; # Equation (3.3)

C1 = 2 * r2; # Equation (3.4)

# D_alpha表示候选狼与Alpha狼的距离

D_alpha = abs(C1 * Alpha_pos[j] - Positions[

i, j]); # abs() 函数返回数字的绝对值。Alpha_pos[j]表示Alpha 位置,Positions[i,j])候选灰狼所在位置

X1 = Alpha_pos[j] - A1 * D_alpha; # X1表示根据alpha得出的下一代灰狼位置向量

r1 = random.random()

r2 = random.random()

A2 = 2 * a * r1 - a; #

C2 = 2 * r2;

D_beta = abs(C2 * Beta_pos[j] - Positions[i, j]);

X2 = Beta_pos[j] - A2 * D_beta;

r1 = random.random()

r2 = random.random()

A3 = 2 * a * r1 - a;

C3 = 2 * r2;

D_delta = abs(C3 * Delta_pos[j] - Positions[i, j]);

X3 = Delta_pos[j] - A3 * D_delta;

Positions[i, j] = (X1 + X2 + X3) - 3 # 候选狼的位置更新为根

相关文档
最新文档