%粒子群优化多输入多输出BP神经网络代码
clear
clc
tic
global SamIn SamOut HiddenUnitNum InDim OutDim TrainSamNum
%% 导入训练数据
data = xlsread('data.xlsx');
[data_m,data_n] = size(data);%获取数据维度
% P = 80; %百分之P的数据用于训练,其余测试
% Ind = floor(P * data_m / 100);
train_data = data(1:16,1:end-2);
train_result = data(17,1:end-2);
test_data = data(1:16,14:15);% 利用训练好的网络进行预测
test_result = data(17,end-1:end);
%% 初始化参数
[InDim,TrainSamNum] = size(train_data);% 学习样本数量
[OutDim,TrainSamNum] = size(train_result);
HiddenUnitNum = 4; % 隐含层神经元个数
[SamIn,PS_i] = mapminmax(train_data,0,1); % 原始样本对(输入和输出)初始化
[SamOut,PS_o] = mapminmax(train_result,0,1);
W1 = HiddenUnitNum*InDim; % 初始化输入层与隐含层之间的权值
B1 = HiddenUnitNum; % 初始化输入层与隐含层之间的阈值
W2 = OutDim*HiddenUnitNum; % 初始化输出层与隐含层之间的权值
B2 = OutDim; % 初始化输出层与隐含层之间的阈值
L = W1+B1+W2+B2; %粒子维度
%% *********初始化
M=100; %种群规模
%初始化粒子位置
X=rand(M,L);
c1=2; %学习因子
c2=2;
wmax=0.9;%最大最小惯性权重
wmin=0.5;
Tmax=1000;%迭代次数
v=zeros(M,L);%初始化速度
%*******全局最优粒子位置初始化
fmin=inf;
for i=1:M
fx = f(X(i,:));
if fx<fmin
fmin=fx;
gb=X(i,:);
end
end
%********粒子个体历史最优位置初始化
pb=X;
%********算法迭代
for t=1:Tmax
w(t)=wmax-(wmax-wmin)*t/Tmax; %线性下降惯性权重
for i=1:M
%******更新粒子速度
v(i,:)=w(t)*v(i,:)+c1*rand(1)*(pb(i,:)-X(i,:))+c2*rand(1)*(gb-X(i,:));
if sum(abs(v(i,:)))>1e3
v(i,:)=rand(size(v(i,:)));
end
%*******更新粒子位置
X(i,:)=X(i,:)+v(i,:);
end
%更新pbest和gbest
for i=1:M
if f(X(i,:))<f(pb(i,:))
pb(i,:)=X(i,:);
end
if f(X(i,:))<f(gb)
gb=X(i,:);
end
end
%保存最佳适应度
re(t)=f(gb);
fprintf('经%d次训练,误差为%f,用时%fs\n\n',t,f(gb),toc);
%可视化迭代过程
% subplot(221)
% plot(gb)
% title('权阈值更新曲线')
% hold on
% subplot(222)
% mesh(v)
% title('粒子速度变化')
% pause(0.000000001)
% subplot(2,2,[3,4])
% plot(re,'r')
% title('累计误差迭代曲线')
%74-86会增加程序运行时间,注释掉可加快程序运行
end
x = gb;
W1 = x(1:HiddenUnitNum*InDim);
L1 = length(W1);
W1 = reshape(W1,[HiddenUnitNum, InDim]);
B1 = x(L1+1:L1+HiddenUnitNum)';
L2 = L1 + length(B1);
W2 = x(L2+1:L2+OutDim*HiddenUnitNum);
L3 = L2 + length(W2);
W2 = reshape(W2,[OutDim, HiddenUnitNum]);
B2 = x(L3+1:L3+OutDim)';
HiddenOut = logsig(W1 * SamIn + repmat(B1, 1, TrainSamNum)); % 隐含层网络输出
NetworkOut = W2 * HiddenOut + repmat(B2, 1, TrainSamNum); % 输出层网络输出
Error = SamOut - NetworkOut; % 实际输出与网络输出之差
Forcast_data = mapminmax('reverse',NetworkOut,PS_o);
[OutDim,ForcastSamNum] = size(test_result);
SamIn_test= mapminmax('apply',test_data,PS_i); % 原始样本对(输入和输出)初始化
HiddenOut_test = logsig(W1 * SamIn_test + repmat(B1, 1, ForcastSamNum)); % 隐含层输出预测结果
NetworkOut = W2 * HiddenOut_test + repmat(B2, 1, ForcastSamNum); % 输出层输出预测结果
Forcast_data_test = mapminmax('reverse',NetworkOut,PS_o);
%% 绘制结果
figure
plot(re,'r')
xlabel('迭代次数')
ylabel('适应度')
title('累计误差迭代曲线')
figure
subplot(2,2,1);
plot(train_result(1,:), 'r-*')
hold on
plot(Forcast_data(1,:), 'b-o');
legend('真实值','拟合值')
title('输出训练集拟合效果')
subplot(2,2,2);
plot(test_result(1,:), 'r-*')
hold on
plot(Forcast_data_test(1,:), 'b-o');
legend('真实值','预测值')
title('输出测试集预测效果')
subplot(2,2,3);
stem(train_result(1,:) - Forcast_data(1,:))
title('输出训练集误差')
subplot(2,2,4);
stem(test_result(1,:) - Forcast_data_test(1,:))
title('输出测试集误差')
% figure
% subplot(2,2,1);
% plot(train_result(2,:), 'r-*')
% hold on
% plot(Forcast_data(2,:), 'b-o');
% legend('真实值','拟合值')
% title('第2个输出训练集拟合效果')
% subplot(2,2,2);
% plot(test_result(2,:), 'r-*')
% hold on
% plot(Forcast_data_test(2,:), 'b-o');
% legend('真实值','预测值')
% title('第2个输出测试集预测效果')
% subplot(2,2,3);
% stem(train_result(2,:) - Forcast_data(2,:))
% title('第2个输出训练集误差')
% subplot(2,2,4);
% stem(test_result(2,:) - Forcast_data_test(2,:))
% title('第2个输出测试集误差')
toc
BP神经网络与PSO模拟退火算法模型结合
需积分: 5 40 浏览量
2022-03-30
20:44:52
上传
评论 5
收藏 11KB ZIP 举报
m0_57419937
- 粉丝: 0
- 资源: 4
评论0