//#include <StdAfx.h>
#include <iostream.h>
#include <math.h>
#include<stdlib.h>
#include<fstream.h>
#include<time.h>
#define TN 360 // 测试样点数
#define Pi 3.14159
#define N 17 //学习样本个数
#define IN 1 //输入层神经元数目
#define HN 50 //隐层神经元数目
#define ON 1 //输出层神经元数目
double P[IN]; //单个样本输入数据
double T[ON]; //单个样本教师数据
double W[HN][IN]; //输入层至隐层权值
double V[ON][HN]; //隐层至输出层权值
double X[HN]; //隐层的输入
double Y[ON]; //输出层的输入
double H[HN]; //隐层的输出
double O[ON]; //输出层的输出
double sita[HN]; //隐层的阈值
double gama[ON]; //输出层的阈值
double err_m[N]; //第m个样本的总误差
double alpha; //输出层至隐层的学习效率
double beta; //隐层至输入层学习效率
double d_err[ON]; // 输出层各神经元的一般化误差
//int i,j,k,m;
//double tan();
struct{
double input[IN];
double teach[ON];
}Study_Data[N][IN];//定义一个放学习样本的结构
//初始化权、阈值子程序//
void initial()
{
for(int j=0;j<HN;j++)
for(int i=0;i<IN;i++)
{
W[j][i]= (float)rand()/RAND_MAX;//隐层权值初始化。
}
for(int i=0;i<IN;i++)
{
sita[i]= (float)rand()/RAND_MAX;//隐层阈值初始化
}
for (int k=0;k<ON;k++)
{ for (int j=0;j<HN;j++)
{
V[k][j]=(float)rand()/RAND_MAX;//第m个样本输出层权值初始化
}
for(int i=0;i<IN;i++)
{
gama[i]=(float)rand()/RAND_MAX;//输出层阈值初始化
}
}
}
//第m个学习样本输入子程序//
void input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m]->input[i];
}
//第m个样本教师信号子程序//
void input_T(int m)
{
for (int k=0;k<ON;k++)
T[k]=Study_Data[m]->teach[k];
}
//隐层各单元输入、输出值子程序//
void H_I_O()
{
double sigma;
int i,j;
for (j=0;j<HN;j++)
{
sigma=0.0;
for (i=0;i<IN;i++)
sigma+=W[j][i]*P[i];//求隐层内积
X[j]=sigma - sita[j];//求隐层净输入
H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出
}
}
//输出层各单元输入、输出值子程序//
void O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
{
sigma=0.0;
for (int j=0;j<HN;j++)
sigma+=V[k][j]*H[j];//求输出层内积
Y[k]=sigma-gama[k]; //求输出层净输入
O[k]=Y[k];//1.0/(1.0+exp(-Y[k]));
}
}
//输出层至隐层的一般化误差子程序//
void Err_O_H(int m)
{
double abs_err[ON];//每个样本的绝对误差都是从0开始的
double sqr_err=0;//每个样本的平方误差计算都是从0开始的
for (int k=0;k<ON;k++)
{
abs_err[k]=T[k]-O[k];//求第m个样本下的第k个神经元的绝对误差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
d_err[k]=abs_err[k];
}
err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
}
//隐层至输入层的一般化误差子程序//
double e_err[HN];
void Err_H_I()
{
double sigma;
for (int j=0;j<HN;j++)
{
sigma=0.0;
for (int k=0;k<ON;k++)
sigma+=d_err[k]*V[k][j];
e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
}
}
//输出层至隐层的权值调整、输出层阈值调整计算子程序//
void Delta_O_H(int m/*,FILE* fp*/)
{
for (int k=0;k<ON;k++)
{
for (int j=0;j<HN;j++)
V[k][j]+=alpha*d_err[k]*H[j];//输出层至隐层的权值调整
gama[k]-=alpha*d_err[k];//输出层至隐层的阈值调整
}
}
//隐层至输入层的权值调整、隐层阈值调整计算子程序//
void Delta_H_I(int m)
{
for (int j=0;j<HN;j++)
{
for (int i=0;i<IN;i++)
W[j][i]+=beta*e_err[j]*P[i];//隐层至输入层的权值调整
sita[j]-=beta*e_err[j]; // 注意这里是负号
}
}
//N个样本的全局误差计算子程序//
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++)
total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
return total_err;
}
void main()
{
//double tan(double x);
double sum_err=0;
alpha=0.2;
beta =0.2;
int study=0; //学习次数
double Pre_error ; //预定误差
Pre_error = 0.001;
int Pre_times;
Pre_times =65536;
Study_Data[0]->input[0] = (-8)*(Pi/(N-1));
Study_Data[1]->input[0] = (-7)*(Pi/(N-1));
Study_Data[2]->input[0] = (-6)*(Pi/(N-1));
Study_Data[3]->input[0] = (-5)*(Pi/(N-1));
Study_Data[4]->input[0] = (-4)*(Pi/(N-1));
Study_Data[5]->input[0] = (-3)*(Pi/(N-1));
Study_Data[6]->input[0] = (-2)*(Pi/(N-1));
Study_Data[7]->input[0] = (-1)*(Pi/(N-1));
Study_Data[8]->input[0] = 0.9*(Pi/(N-1));
Study_Data[9]->input[0] = 1*(Pi/(N-1));
Study_Data[10]->input[0] = 2*(Pi/(N-1));
Study_Data[11]->input[0] = 3*(Pi/(N-1));
Study_Data[12]->input[0] = 4*(Pi/(N-1));
Study_Data[13]->input[0] = 5*(Pi/(N-1));
Study_Data[14]->input[0] = 6*(Pi/(N-1));
Study_Data[15]->input[0] = 7*(Pi/(N-1));
Study_Data[16]->input[0] = 8*(Pi/(N-1));
// Study_Data[17]->input[0] = 7.5*(2*Pi/(N-1));
Study_Data[0]->teach[0] = 1/tan(Study_Data[0]->input[0]);
Study_Data[1]->teach[0] = 1/tan(Study_Data[1]->input[0]);
Study_Data[2]->teach[0] = 1/tan(Study_Data[2]->input[0]);
Study_Data[3]->teach[0] = 1/tan(Study_Data[3]->input[0]);
Study_Data[4]->teach[0] = 1/tan(Study_Data[4]->input[0]);
Study_Data[5]->teach[0] = 1/tan(Study_Data[5]->input[0]);
Study_Data[6]->teach[0] = 1/tan(Study_Data[6]->input[0]);
Study_Data[7]->teach[0] = 1/tan(Study_Data[7]->input[0]);
Study_Data[8]->teach[0] = 1/tan(Study_Data[8]->input[0]);
Study_Data[9]->teach[0] = 1/tan(Study_Data[9]->input[0]);
Study_Data[10]->teach[0] = 1/tan(Study_Data[10]->input[0]);
Study_Data[11]->teach[0] = 1/tan(Study_Data[11]->input[0]);
Study_Data[12]->teach[0] = 1/tan(Study_Data[12]->input[0]);
Study_Data[13]->teach[0] = 1/tan(Study_Data[13]->input[0]);
Study_Data[14]->teach[0] = 1/tan(Study_Data[14]->input[0]);
Study_Data[15]->teach[0] = 1/tan(Study_Data[15]->input[0]);
Study_Data[16]->teach[0] = 1/tan(Study_Data[16]->input[0]);
// Study_Data[17]->teach[0] = 1/tan(Study_Data[18]->input[0]);
initial(); //隐层、输出层权、阈值初始化 (1)
do
{
++study;
for (int m=0;m<N;m++)
{
input_P(m); //输入第m个学习样本 (2)
input_T(m);//输入第m个样本的教师信号 (3)
H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6)
Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7)
Delta_O_H(m); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
Delta_H_I(m); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
}
sum_err=Err_Sum(); //全部样本全局误差计算 (10)
cout<<"误差:"<<sum_err<<endl;
}
while(sum_err>Pre_error);
cout<<"网络已经学习了"<<study<<"次"<<endl;
cout<<"学习均方误差为"<<sum_err<<endl;
}
BP.rar_bp 函数逼近
版权申诉
200 浏览量
2022-09-22
18:14:16
上传
评论
收藏 2KB RAR 举报
寒泊
- 粉丝: 75
- 资源: 1万+
最新资源
- unity控制对象移动.rar
- TortoiseSVN-1.14.3.29387-x64-svn-1.14.2
- jdk-8u411-macosx-aarch64.dmg
- docker安装.rar
- 美赛数学建模算法-使用Matlab实现常微分方程OridinaryDifferentialEquation-国赛-题解.zip
- FileUploadTestController.java
- 基于MATLAB的数字水印系统源码+GUI操作界面+全部数据资料+使用文档(高分课程设计).zip
- 美赛数学建模算法-使用Matlab实现非线性规划NonLinearProgramming-国赛-题解.zip
- linux安装java8环境资源包
- pcb问题和3D猴制作外壳.7z
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈