建立反向传播算法的 神经网络,使用 23 函数,其一般的使用方法如下
$23*%!*+&隐层的神经元的个数,输出层的神经元的个数(4隐层神经元的传输函数,输出层的传输
函数}5反向传播的训练函数5+其中 为输入数据, 为输出数据
6 为神经网络的传输函数,默认为5%75函数为隐层的传输函数,
8% 函数为输出层的传输函数
一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
9:$5%75"9:;$57%75"
9:$57%75"9:;$58%5"
9:$57%75"9:;$57%75"
9:$58%5"9:;$58%5"
9:$5%75"9:;$58%5"
$23*%!*+&-(49:9:;<5%75+"网络创建
网络参数的设置
% =$----"训练次数设置
% 7$',"训练目标设置
% $- -"学习率设置应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产
生动荡,而致使无法收敛
% $- >"动量因子的设置,默认为 - >
% =2$;."显示的间隔次数
指定训练参数
%:$5%75"梯度下降算法
%:$5%75"动量梯度下降算法
%:$5%75"变学习率梯度下降算法
%:$5%7!5"变学习率动量梯度下降算法
*大型网络的首选算法+
%:$5%5"11?*弹性 +算法内存需求最小
共轭梯度算法
%:$5%765":='1# 修正算法
%:$5%75"'1%% 修正算法内存需求比 :='1# 修正算法略大
%:$5%75"2' 复位算法内存需求比 '1%% 修正算法略大
评论0
最新资源