粒子群优化(PSO, particle swarm optimization)算法是计算智能领域,除了蚁群算法,鱼群算法之外的一种群体智能的优化算法,该算法最早由Kennedy和Eberhart在1995年提出的,该算法源自对鸟类捕食问题的研究。
实例分析1:
根据PSO算法思路求y最大值 ,其中x取值区间为[-5,5]
matlab代码如下:
%% I. 清空环境
clc
clear all %% II. 绘制目标函数曲线图
x = -5:0.01:5;
y = 2.1*(1-x+5*x.^3).*exp(-x.^2/2)-x.^2;
figure
plot(x, y)
hold on %% III. 参数初始化 这里默认惯性因子为1
c1 = 1.49445; %加速常数 取Eberhart的参考值
c2 = 1.49445; %加速常数 取Eberhart的参考值 maxgen = 30; % 进化次数
sizepop = 100; %种群规模 Vmax = 0.5; %速度步长上限
Vmin = -0.5; %速度步长下限
popmax = 5; % x的上限
popmin = -5; % x的下限 %% IV. 产生初始粒子和速度
for i = 1:sizepop
% 随机产生一个种群
pop(i,:) = -10*rands(1)+5; %产生[-5,5]的初始种群
V(i,:) = 0.5 * rands(1); %初始化[-0.5,0.5]速度
% 利用fun.m子函数,计算适应度并存储到fitness(i)中
fitness(i) = fun(pop(i,:));
end %% V. 个体极值和群体极值
[bestfitness, bestindex] = max(fitness);
zbest = pop(bestindex,:); %全局最佳
gbest = pop; %个体最佳
fitnessgbest = fitness; %个体最佳适应度值
fitnesszbest = bestfitness; %全局最佳适应度值 %% VI. 迭代寻优
for i = 1:maxgen for j = 1:sizepop
% 速度更新
V(j,:) = V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));
V(j,V(j,:)>Vmax) = Vmax;
V(j,V(j,:)<Vmin) = Vmin; % 种群更新
pop(j,:) = pop(j,:) + V(j,:);
pop(j,pop(j,:)>popmax) = popmax;
pop(j,pop(j,:)<popmin) = popmin; % 适应度值更新
fitness(j) = fun(pop(j,:));
end for j = 1:sizepop
% 个体最优更新
if fitness(j) > fitnessgbest(j)
gbest(j,:) = pop(j,:);
fitnessgbest(j) = fitness(j);
end % 群体最优更新
if fitness(j) > fitnesszbest
zbest = pop(j,:);
fitnesszbest = fitness(j);
end
end
yy(i) = fitnesszbest;
end %% VII. 输出结果并绘图
[fitnesszbest zbest];
plot(zbest, fitnesszbest,'r.','MarkerSize',10)
plot(zbest, fitnesszbest,'ro','MarkerSize',16)
x_text=['x=',num2str(zbest)]; % x横坐标转换为字符串
y_text=['y=',num2str(fitnesszbest)]; % y横坐标转换为字符串
max_text=char('全局最优',x_text,y_text); % 生成标志最大值点的字符串
text(zbest+0.3, fitnesszbest-1.4,max_text) %图上绘出全局最优的数据值
figure
plot(yy)
title('最优个体适应度','fontsize',12);
xlabel('进化代数','fontsize',12);ylabel('适应度','fontsize',12);
main.m
function y = fun(x)
% 函数用于计算粒子适应度值
%x input 输入粒子
%y output 粒子适应度值
y = 2.1*(1-x+5*x.^3).*exp(-x.^2/2)-x.^2;
fun.m
实例分析2:
根据PSO算法思路求z最大值 ,其中x,y取值区间为[-5,5]
%% I. 清空环境
clc
clear %% II. 绘制目标函数曲线
figure
[x,y] = meshgrid(-5:0.01:5,-5:0.01:5);
z = x.^2 + y.^2 - 10*cos(2*pi*x) - 10*cos(2*pi*y) + 20;
surf(x,y,z)
shading flat; %去除网格线
hold on %% III. 参数初始化
c1 = 1.49445;
c2 = 1.49445; maxgen = 300; % 进化次数
sizepop = 100; %种群规模 Vmax = 1;
Vmin = -1;
popmax = 5;
popmin = -5; %% IV. 产生初始粒子和速度
for i = 1:sizepop
% 随机产生一个种群
pop(i,:) = 5*rands(1,2); %初始种群
V(i,:) = rands(1,2); %初始化速度
% 计算适应度
fitness(i) = fun(pop(i,:)); %染色体的适应度
end %% V. 个体极值和群体极值
[bestfitness bestindex] = max(fitness);
zbest = pop(bestindex,:); %全局最佳
gbest = pop; %个体最佳
fitnessgbest = fitness; %个体最佳适应度值
fitnesszbest = bestfitness; %全局最佳适应度值 %% VI. 迭代寻优
for i = 1:maxgen for j = 1:sizepop
w=1; %这里惯性因子w设为1,过小会导致局部最优 过大导致搜索粗糙 一般建议取0.6-0.75
% 速度更新
V(j,:) = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));
V(j,find(V(j,:)>Vmax)) = Vmax;
V(j,find(V(j,:)<Vmin)) = Vmin; % 种群更新
pop(j,:) = pop(j,:) + V(j,:);
pop(j,find(pop(j,:)>popmax)) = popmax;
pop(j,find(pop(j,:)<popmin)) = popmin; % 适应度值更新
fitness(j) = fun(pop(j,:));
end for j = 1:sizepop
% 个体最优更新
if fitness(j) > fitnessgbest(j)
gbest(j,:) = pop(j,:);
fitnessgbest(j) = fitness(j);
end % 群体最优更新
if fitness(j) > fitnesszbest
zbest = pop(j,:);
fitnesszbest = fitness(j);
end
end
yy(i) = fitnesszbest;
end
%% VII.输出结果
[fitnesszbest, zbest]
plot3(zbest(1), zbest(2), fitnesszbest,'r.','MarkerSize',20)
plot3(zbest(1), zbest(2), fitnesszbest,'ro','MarkerSize',16)
x_text=['x=',num2str(zbest(1))]; % x横坐标转换为字符串
y_text=['y=',num2str(zbest(2))]; % y横坐标转换为字符串
z_text=['z=',num2str(fitnesszbest)]; %全局最优值z转换为字符串
max_text=char('全局最优',x_text,y_text,z_text); % 生成标志最大值点的字符串
text(zbest(1)+0.3,zbest(2)+0.3, fitnesszbest-1.4,max_text) %图上绘出全局最优的数据值
figure
plot(yy)
title('最优个体适应度','fontsize',12);
xlabel('进化代数','fontsize',12);ylabel('适应度','fontsize',12);
main.m
function y = fun(x)
%函数用于计算粒子适应度值
%y output 粒子适应度值
y = x(1).^2 + x(2).^2 - 10*cos(2*pi*x(1)) - 10*cos(2*pi*x(2)) + 20;
fun.m
其中要注意的是惯性因子ω越大,粒子飞行的速度和位置更新的幅度就越大,偏离原先寻优轨道的程度也就越大,从而发现新的解域;相反,如果惯性因子ω越小,有利于局部寻优,提高搜索精度,惯性因子ω的大小决定了粒子对当前速度继承的多少.
所以实际操作中开始将惯性因子设置得较大,然后再迭代的过程中逐步减小,这样可以使得粒子群在开始优化时得到较大的解空间,后期逐渐收缩到较好的区域进行更精细化的搜索,以加快收敛与精度.
为了更好的平衡全局搜索与局部搜索,故提出线性递减惯性权重LDIW(linear decreasing inertia weight)
ω(k)=ω(start)-(ω(start)-w(end))(T(max)-k)/T(max)
其中ω(start)为初始惯性权重,一般取0.9,w(end)为迭代至最大次数时的惯性权重,一般取0.4,k为当前迭代次数,T(max)为最大迭代次数.
ws = 0.9;
we = 0.4;
maxgen = 300;
hold on; for k = 1:maxgen
w(k) = ws - (ws-we)*(k/maxgen);
end
plot(w,'linewidth',3); for k = 1:maxgen
w(k) = ws - (ws-we)*(k/maxgen)^2;
end
plot(w,'r-.','linewidth',3); for k = 1:maxgen
w(k) = ws - (ws-we)*(2*k/maxgen-(k/maxgen)^2);
end
plot(w,'k--.','linewidth',3); for k = 1:maxgen
w(k) = we * (ws/we)^(1/(1+10*k/maxgen));
end
plot(w,'--','linewidth',3); legend('线性惯性权重递减','常用权重2','常用权重3','常用权重4')
xlabel('迭代次数')
ylabel('速度更新权重W')
速度更新权重ω的选择