% 线性孪生支持向量机二类分类算法
close all
clear
clc
%--------------导入数据-------------------%
load N_p % 正类点数据,特征信息存放在行里面
load N_n % 负类点数据,特征信息存放在行里面
%-----------------------------------------%
%% 第一步:数据预处理
%-------- 由原来的数据产生80%的训练数据和20%的预测数据------------%
n_p=size(N_p,1); % 正类样本个数
n_n=size(N_n,1); % 负类样本个数
n1=randperm(n_p); % 对1到n的n个正整数进行随机不重复的排列,形成一个1行n列的矩阵
n2=randperm(n_n);
f_p=floor(4*n_p/5); % 取80%的数据作为训练集,其余20%作为预测集
f_n=floor(4*n_n/5);
data_train_p=N_p(n1(1:f_p),:); % 正类训练数据
data_train_n=N_n(n2(1:f_n),:); % 负类训练数据
data_train=[data_train_p;data_train_n]; % 训练数据集(含正负类)
Y_train=[ones(f_p,1);-ones(f_n,1)]; % 训练数据标签集
data_predict_p=N_p(n1(f_p+1:end),:); % 正类预测数据
data_predict_n=N_n(n2(f_n+1:end),:); % 负类预测数据
data_predict=[data_predict_p;data_predict_n]; % 预测数据集(含正负类)
Y_predict=[ones(n_p-f_p,1);-ones(n_n-f_n,1)]; % 预测数据标签集
%----------------------------------------------------------------%
%----------相关参数初始化----------%
c1min=-2; c1max=2; %孪生支持向量机参数
c2min=-2; c2max=2;
best_c1=0; best_c2=0;
aac=rand(10,1);
bestAccuracy=0;
%--------------------------------%
%% 第二步:数据训练寻找最优参数c1,c2
% 将c1和c2划分网格进行搜索
indices = crossvalind('Kfold',Y_train,10);
tic;
for c1=2^(c1min):1:2^(c1max)
for c2=2^(c2min):1:2^(c2max)
%采用K-CV方法,将data大致平均分为K组
for run= 1:10
test=(indices == run); train=~test;
train_data=data_train(train,:); % 训练数据集(含正类负类点集)
train_data_label=Y_train(train,:); % 训练集标签(含正类负类点集)
test_data=data_train(test,:); % 预测数据集(含正类负类点集)
test_data_label=Y_train(test,:); % 预测集标签(含正类负类点集)
groupA=ismember(train_data_label,1); % 分出正类点的位置
groupB=ismember(train_data_label,-1); % 分出负类点的位置
A=train_data(groupA,:); % 正类训练数据
B=train_data(groupB,:); % 负类训练数据
%训练数据
[v1,v2]=twinsvm_lin_train(A,B,c1,c2);
%用训练所得孪生分类器进行分类
[accuracy]=twinsvm_lin_predict(v1,v2,test_data,test_data_label);
%下面用验证集进行验证,并记录此时的准确率
acc(run)=accuracy;
end
cv=sum(aac)/10;
if (cv>bestAccuracy)
bestAccuracy=cv;
best_c1=c1;
best_c2=c2;
end
end
end
disp('准确率及最优参数');
str = sprintf( 'Best Cross Validation Accuracy = %g%% ;Best c1 = %g ; Best c2 = %g;',bestAccuracy*100,best_c1,best_c2);
disp(str);
t_train=toc
%---------------------------------------------------------------------%
%% 第三步:通过最优参数,对80%的数据训练,产生分类面,利用20%的预测数据进行准确率计算
k=0;
c1=best_c1;
c2=best_c2;
tic;
[v1,v2,IB,JA]=twinsvm_lin_train(data_train_p,data_train_n,c1,c2);
[aac]=twinsvm_lin_predict(v1,v2,data_predict,Y_predict);
t_predict=toc
disp('预测准确率结果');
str = sprintf( 'Accuracy =%g%% ',aac*100);
disp(str);
%% 第四步:绘图
tic;
% -------------绘制训练点----------------%
plot(data_train_p(:,1),data_train_p(:,2),'c+',data_train_n(:,1),data_train_n(:,2),'mx');
title('线性孪生支持向量机')
hold on
grid on
% ------------绘制预测点-----------------%
plot(data_predict_p(1,:),data_predict_p(2,:),'g>',data_predict_n(1,:),data_predict_n(2,:),'r<');
% -----------绘制支持向量----------------%
plot(data_train_n(IB,1),data_train_n(IB,2),'ko',data_train_p(JA,1),data_train_p(JA,2),'ko'); %??????
% ---------绘制分类面的图像--------------%
plotpc(v1(1:2,:)',v1(3))
plotpc(v2(1:2,:)',v2(3))
legend('正类训练点','负类训练点','正类预测点','负类预测点','支持向量');
t_picture=toc
hold off