% 清空环境变量
clc
clear
%% 训练数据预测数据提取及归一化
%下载五类叶片特征参数 训练的数据加载 150个
load data1 a1 %女贞 加载data1中的指定变量a1 a1是对数据进行归一化
load data2 a2 %银杏
load data3 a3 %五角枫
load data4 a4 %杨树
load data5 a5 %石楠
%五个特征参数矩阵合成一个矩阵
data(1:30,:)=a1(1:30,:);
data(31:60,:)=a2(1:30,:);
data(61:90,:)=a3(1:30,:);
data(91:120,:)=a4(1:30,:);
data(121:150,:)=a5(1:30,:);
%测试的数据加载 60个
load test1 b1 %女贞
load test2 b2 %银杏
load test3 b3 %五角枫
load test4 b4 %杨树
load test5 b5 %石楠
%五个特征参数矩阵合成一个矩阵
test(1:12,:)=b1(1:12,:);
test(13:24,:)=b2(1:12,:);
test(25:36,:)=b3(1:12,:);
test(37:48,:)=b4(1:12,:);
test(49:60,:)=b5(1:12,:);
%输入输出数据
input=data(:,2:9);
output1=data(:,1);
shuru=test(:,2:9);
shuchu1=test(:,1);
%把输出从1维变成5维
for i=1:150
switch output1(i)
case 1
output(i,:)=[1 0 0 0 0];
case 2
output(i,:)=[0 1 0 0 0];
case 3
output(i,:)=[0 0 1 0 0];
case 4
output(i,:)=[0 0 0 1 0];
case 5
output(i,:)=[0 0 0 0 1];
end
end
for i=1:60
switch shuchu1(i)
case 1
shuchu(i,:)=[1 0 0 0 0];
case 2
shuchu(i,:)=[0 1 0 0 0];
case 3
shuchu(i,:)=[0 0 1 0 0];
case 4
shuchu(i,:)=[0 0 0 1 0];
case 5
shuchu(i,:)=[0 0 0 0 1];
end
end
ww=rand(1,150);%生成1*150的随机数矩阵
[m,n]=sort(ww);%将矩阵ww的各列进行升序排列得到的矩阵是m,n是m矩阵在ww矩阵中的索引。
s=rand(1,60);
[p,q]=sort(s);
input_train=input(n(1:150),:)';
output_train=output(n(1:150),:)';
input_test=shuru(q(1:60),:)';
output_test=shuchu(q(1:60),:)';
%% 输入数据归一化
[inputn,inputps]=mapminmax(input_train);
%% 网络结构初始化
innum=8;%设置输入层神经元的个数
midnum=5;%设置隐含层神经元的个数
outnum=5;%设置输出层神经元的个数
%% 权值阈值初始化
w1=rands(midnum,innum);
b1=rands(midnum,1);
w2=rands(midnum,outnum);
b2=rands(outnum,1);
w2_1=w2;w2_2=w2_1;
w1_1=w1;w1_2=w1_1;
b1_1=b1;b1_2=b1_1;
b2_1=b2;b2_2=b2_1;
%% 学习率
xite=0.3;
alfa=0.8;
%% 在训练中根据网络预测误差调整网络的权值和阈值
for ii=1:500 %%训练次数
E(ii)=0; % 训练误差
for i=1:1:150
%% 选择本次训练数据
x=inputn(:,i);
% 隐含层输出
for j=1:1:midnum
I(j)=inputn(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end
% 输出层输出
yn=w2'*Iout'+b2;
%预测误差
e=output_train(:,i)-yn;
E(ii)=E(ii)+sum(abs(e));
%计算w2,b2调整量
dw2=e*Iout;
db2=e';
%计算w1,b1调整量
for j=1:1:midnum
S=1/(1+exp(-I(j)));
FI(j)=S*(1-S);
end
for k=1:1:innum
for j=1:1:midnum
dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));
db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));
end
end
%权值阈值更新
w1=w1_1+xite*dw1'+alfa*(w1_1-w1_2);
b1=b1_1+xite*db1'+alfa*(b1_1-b1_2);
w2=w2_1+xite*dw2'+alfa*(w2_1-w2_2);
b2=b2_1+xite*db2'+alfa*(b2_1-b2_2);
w1_2=w1_1;w1_1=w1;
w2_2=w2_1;w2_1=w2;
b1_2=b1_1;b1_1=b1;
b2_2=b2_1;b2_1=b2;
end
end
%% 测试输入数据归一化
inputn_test=mapminmax('apply',input_test,inputps);
%% 网络预测
for i=1:60
for j=1:1:midnum
I(j)=inputn_test(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end
%预测结果
fore(:,i)=w2'*Iout'+b2;
end
%% 类别统计
for i=1:60
output_fore(i)=find(fore(:,i)==max(fore(:,i)));
switch output_fore(i)
case 1
disp('女贞');
case 2
disp('银杏');
case 3
disp('五角枫');
case 4
disp('杨树');
case 5
disp('石楠');
end
end
%% 预测误差
error=output_fore-shuchu1(q(1:60))';
%% 画出预测叶片种类和实际叶片种类的分类图
figure(1)
plot(output_fore,'rpentagram')
hold on
plot(shuchu1(q(1:60))','b.')
legend('预测叶片类别','实际叶片类别')
%% 画出误差图
figure(2)
plot(error)
title('BP网络分类误差','fontsize',12)
xlabel('叶片种类','fontsize',12)
ylabel('分类误差','fontsize',12)
%% 找出判断错误的分类属于哪一类
k=zeros(1,5);
for i=1:60
if error(i)~=0
[b,c]=max(output_test(:,i));
switch c
case 1
k(1)=k(1)+1;
case 2
k(2)=k(2)+1;
case 3
k(3)=k(3)+1;
case 4
k(4)=k(4)+1;
case 5
k(5)=k(5)+1;
end
end
end
%% 找出每类的个体和
kk=zeros(1,5);
for i=1:60
[b,c]=max(output_test(:,i));
switch c
case 1
kk(1)=kk(1)+1;
case 2
kk(2)=kk(2)+1;
case 3
kk(3)=kk(3)+1;
case 4
kk(4)=kk(4)+1;
case 5
kk(5)=kk(5)+1;
end
end
%% 统计每类叶片的正确率
disp('每类叶片的识别率为:')
rightridio=(kk-k)./kk
%% 统计总识别率
disp('叶片的总识别率为:')
rightridio=(kk-k)/kk
k
kk
海神之光
- 粉丝: 5w+
- 资源: 6110
最新资源
- 基于Python编程的中国人口热力图设计源码
- 基于Java开发的动画效果丰富的NewTvWidget-UI设计源码
- 基于C++语言开发的ssar(SRE SAR)工具家族全新设计源码
- 基于Python实现的wanggejiaoyi网格交易策略设计源码
- 基于PaddlePaddle的Python声纹识别设计源码
- 基于Python、HTML、JavaScript、CSS的Bangwodai设计源码架构
- 基于Python技术的体育网站爬虫设计源码
- 基于JDK17+SpringBoot3.2.7+SpringSecurity3.2.7的JWT多策略认证与Redis黑名单管理设计源码
- 基于SpringBoot和Layui框架的Java投票系统设计源码
- 基于Java和Lua的多语言数学库设计源码
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
- 1
- 2
前往页