#include "iostream.h"
#include "iomanip.h"//參數化I/O操作函數
#include "cstdio"//聲明文件
#include "cstdlib"//應用函數聲明
#include "math.h"
#define N 2 //學習樣本個數
#define IN 2 //輸入層神經元數目
#define HN 2 //隱層神經元數目
#define ON 1 //輸出層神經元數目
double P[IN]; //單個樣本輸入數據
double T[ON]; //單個樣本教師數據
double W[HN][IN]; //輸入層至隱層權值
double V[ON][HN]; //隱層至輸出層權值
double X[HN]; //隱層的輸入
double Y[ON]; //輸出層的輸入
double H[HN]; //隱層的輸出
double O[ON]; //輸出層的輸出
double sita[HN]; //隱層的閾值
double gama[ON]; //輸出層的閾值
double err_m[N]; //第m個樣本的總誤差
double alpha; //輸出層至隱層的學習效率
double beta; //隱層至輸入層學習效率
//定義一個放學習樣本的結構
struct {
double input[IN];
double teach[ON];
}Study_Data[N][IN];
//初始化權、閾值子程序
initial()
{
float sgn;
float rnd;
int i,j;
//隱層權、閾值初始化//
{
//sgn=pow((-1),random(1000));
sgn=rand();
rnd=sgn*(rand()%100);
W[j][i]= rnd/100; //隱層權值初始化。
}
//randomize();
{
sgn=rand();
rnd=sgn*(rand()%1000);
sita[j]= rnd/1000; //中間層閾值初始化
cout<<"sita"<<sita[j]<<endl;
}
//輸出層權、閾值初始化//
//randomize();
for (int k=0;k<ON;k++)
for (int j=0;j<HN;j++)
{
//sgn=pow((-1),random(1000));
sgn=rand();
rnd=sgn*(rand()%1000);
V[k][j]=rnd/1000; //第m個樣本輸出層權值初始化
}
//randomize();
{
//sgn=pow((-1),random(10));
sgn=rand();
rnd=sgn*(rand()%10);
gama[k]=rnd/10; //輸出層閾值初始化
cout<<"gama[k]"<<endl;
}
return 1;
}//子程序initial()結束
//第m個學習樣本輸入子程序
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m]->input[i];
//獲得第m個樣本的數據
//cout<<"第"< //fprintf(fp,"第%d個樣本的學習輸入:
//P[%d]=%f\n",m,P[i]);
return 1;
} //子程序input_P(m)結束
//第m個樣本教師信號子程序
input_T(int m)
{
for (int k=0;k<m;k++)
T[k]=Study_Data[m]->teach[k];
//cout<<"第"< //fprintf(fp,"第%d個樣本的教師信號:T[%d]=%f\n",m,T[k]);
return 1;
}//子程序input_T(m)結束
//隱層各單元輸入、輸出值子程序
H_I_O(){
double sigma;
int i,j;
for (j=0;j<HN;j++)
sigma=0.0;
for (i=0;i<IN;i++){
sigma+=W[j][i]*P[i];//求隱層內積
X[j]=sigma - sita[i];//求隱層淨輸入
H[j]=1.0/(1.0+exp(-X[j]));//求隱層輸出
}
return 1;}//子程序H_I_O()結束
//輸出層各單元輸入、輸出值子程序
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
sigma=0.0;
for (int j=0;j<HN;j++)
{ sigma+=V[k][j]*H[k]; //求輸出層內積
Y[k]=sigma-gama[k]; //求輸出層淨輸入
O[k]=1.0/(1.0+exp(-Y[k])); //求輸出層輸出
}
return 1;
}//子程序O_I_O()結束
//輸出層至隱層的一般化誤差子程序
double d_err[ON];
Err_O_H(int m){{
double abs_err[ON];//每個樣本的絕對誤差都是從0開始的
double sqr_err=0;//每個樣本的平方誤差計算都是從0開始的
//for (int output=0;output<ON;output++) //output???
for (int k=0;k<ON;k++)
abs_err[k]=T[k]-O[k];
//求第m個樣本下的第k個神經元的絕對誤差
sqr_err+=(abs_err[k])*(abs_err[k]); //求第m個樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]); //d_err[k]輸出層各神經元的一般化誤差
err_m[m]=sqr_err/2;//第m個樣本下輸出層的平方誤差/2=第m個樣本的均方誤差
}return 1;
}//子程序Err_O_H(m)結束
//隱層至輸入層的一般化誤差子程序
Err_H_I(){{
double sigma;
double e_err[HN];
//for (int hidden=0;hidden
for (int j=0;j<HN;j++)
sigma=0.0;
for (int k=0;k<ON;k++)
sigma=d_err[k]*V[k][j];
e_err[j]=sigma*H[j]*(1-H[j]);//隱層各神經元的一般化誤差
}
return 1;
}
//輸出層至隱層的權值調整、輸出層閾值調整計算子程序
Delta_O_H(int m,FILE* fp)
{{
for (int k=0;k<ON;k++)
for (int j=0;j<HN;j++)
//cout<<第%d個樣本時的輸出層至隱層的權值為:%f\n",m,W[k][j]);
V[k][j]+=alpha*d_err[k]*H[j];//輸出層至隱層的權值調整
gama[k]+=alpha*d_err[k];//輸出層至隱層的閾值調整
}
return 1;
}//子程序Delta_O_H()結束
//隱層至輸入層的權值調整、隱層閾值調整計算子程序
Delta_H_I(int m,FILE* fp)
{double e_err[HN];
for (int j=0;j<HN;j++)
for (int i=0;i<IN;i++)
{
//cout<<"第"< fprintf(fp,"第%d個樣本時的輸出層至隱層的權值為:%f\n",m,V[j][i]);
W[j][i]+=beta*e_err[j]*P[i];//隱層至輸入層的權值調整
}
sita[j]+=beta*e_err[j];
return 1;
}//子程序Delta_H_I()結束
//N個樣本的全局誤差計算子程序
double Err_Sum()
{{
double total_err=0;
for (int m=0;m<N;m++)
total_err+=err_m[m];//每個樣本的均方誤差加起來就成了全局誤差
}
return 1;
} //子程序Err_sum()結束
/**程序入口,即主程序**/
main()
{
char s;
FILE *fp;
double sum_err;
int study;//訓練次數
if ((fp=fopen("bp.txt","a+"))==NULL)
{
cout<<"不能創建bp.txt文件!\n";
return 1;
}
cout<<"請輸入輸出層到隱含層學習效率: alpha=\n";
cin>>alpha;
cout<<"請輸入隱含層到輸入層學習效率: beta=\n";
cin>>beta;
double Pre_error ; //預定誤差
cout<<"請輸入預定誤差: Pre_error= \n";
cin>>Pre_error;
int Pre_times;
cout<<"請輸入預定最大學習次數:Pre_times=\n";
cin>>Pre_times;
cout<<"請輸入學習樣本數據\n";
{
for (int m=0;m<N;m++)
cout<<"請輸入第"<<m+1<<"組學習樣本"<<endl;
for (int i=0;i<IN;i++)
cin>>Study_Data[m]->input[i];
}
{
for (int m=0;m<N;m++)
cout<<"請輸入第"<<m+1<<"組教師樣本"<<endl;
for (int k=0;k<ON;k++)
cin>>Study_Data[m]->teach[k];
}
//隱層、輸出層權、閾值初始化 (1)
do
{
++study; ///???
for (int m=0;m<N;m++)
{
input_P(m); //輸入第m個學習樣本 (2)
input_T(m);//輸入第m個樣本的教師信號 (3)
H_I_O(); //第m個學習樣本隱層各單元輸入、輸出值 (4)
O_I_O(); //第m個學習樣本輸出層各單元輸入、輸出值 (5)
Err_O_H(m); //第m個學習樣本輸出層至隱層一般化誤差 (6)
} //全部樣本訓練完畢
sum_err=Err_Sum(); //全部樣本全局誤差計算 (10)
{
cout<<"第"<<study<<"次學習的均方誤差為"<<sum_err<<endl;
} //fprintf(fp,"第%d次學習的均方誤差為:%f\n",study,sum_err);
}
while (sum_err > Pre_error); //or(study
{ //N個樣本全局誤差小於預定誤差否? 小於則退出 (11)
cout<<"網絡已經學習了"<<study<<"次,學習的均方誤差為"<<sum_err<<endl;
fprintf(fp,"網絡已經學習了%d次,現在的全局誤差為:%f\n",study,sum_err);
fclose(fp);
char s;
cout<<"請隨便輸入一個字符,按回車退出程序!\n";
cin>>s;
}
return 1;
}