sigmoid函数

1星(超过10%的资源)
所需积分/C币:50 2013-02-05 19:59:40 710KB PDF
688
收藏 收藏
举报

sigmoid函数 柔性神经网络采用了柔性的sigmoid函数
230 先进控制理论及其应用 显然,式(9-5)只是式(9-8)的特例,由式(9-8)表示的 Sigmoid函 数可以修改两个参数,不仅将改变函数的斜率,而且改变函数的幅值,体现了更 强的灵活性,如图9-7所示。当分别对参数a及b求微分时,得 af(x, a,b2-201-62f2(r, a, b) (9-10) a b af(x, a,b) f(x,a,b) (9-11) a=02,b=0.1 a=0.1,b=0.1 叶a=01,b-02 a=02,b=0.2 图9-7柔性 Sigmoid函数式(9-8)的形状 对式(9-2)研究可以发现,该柔性 Sigmoid函数在调节参数a的过程中, 不仅函数幅值变化,而且在未饱和区函数对变量x的变化率也同步变化,幅值 与变化率相互耦合、相互制约。为了改变这一状况,实现函数幅值与斜率的多自 由度调整,对式(9-2)进行修改,得 2|a g (9-12) 1+e 可见,通过改变参数a和c,可以灵活改变此函数的幅值与未饱和段斜率, 而且式(9-2)是式(9-12)的特例,在c=1时二者一致,如图9-8所示。 若分别对变量x、a以及c求微分,得 ag(x,a,c) =g(x,a,c)〔2| g(x,a,c)〕 (9-13) dI C ag(r,a, c)1 g(x,a,c)+ a g (9-14) da a dr (x,a, (9-15) Oe 1 92.4学习算法 柔性神经网络以传统神经网络为基础,对其网络联接权矩阵及 Sigmoid函数 参数矩阵的训练与调整仍然可借助传统BP算法的思想。在调整连接权方面,柔 第9章神经网络控制 231 0.25,c=4 a=2,c=025 a=l,c=0.5 0.5 a=1,c=0.25 a=0.5,c=0.5 0 10 图9-8柔性 Sigmoid函数式(9-12)的形状 性神经网络具有和传统神经网络同样的算法,此处不再赘述。下面以柔性双极性 Sigmoid函数为例,重点介绍有关 Sigmoid函数参数的学习算法。 考虑如下目标函数 ∑(d;-ON) (9-16) 式中d2—样本输出; O、网络输出层第i个神经元的输出; N——表示输出层; 输出层的节点数 算法的目的就是寻找一套 Sigmoid函数的参数,使目标函数Jp最小。若釆 用式(9-5)表示的 Sigmoid函数,应用梯度下降法,第k层第i个单元Sig moid函数的参数a4有增量△a aj 72 (9-17 式中n—学习率,且m2>0。 在输出层,有 a aJ,a0 aa ao aaN 9-18) 定义 aJ (9-19) 则得 9-20) 利用式(9-17)~式(9-20),可得调整输出层 Sigmoid函数参数的算 法为 232 先进控制理论及其应用 a:(t+1)=aN()W4引f(x, 9-21) da 对于隐含层,设第k层与k十1层中第L个神经元间有图9-9所示输入输出 关系,其中a记为k层第i个神经元 Sigmoid函数的参数。则在隐含层k有 9J, ao aJ.af(xi,ak) aa: a0 (9-22) a0 式中O}一一第k层第i个神经元的输出 v4+1 Σ)f(对 *6+l 图9-9第k层与k+1层第l个神经元间的非线性输人输出关系 定义 J 9-23) aC 则有 a, a0+ ok+I ac 2 点+O+1k+1 anti ao k十1k+1 ∑ k+1(x k,k+1 2k+10 (9-24) 综上,可得调整隐含层k中第i个神经元 Sigmoid函数参数的算法为 a2(t+1)=a(t)+mO af(xf,af) k (9-25) 若选择式(9-8)表述的柔性 Sigmoid函数,以式(9-16)为目标函数, 则联接权与 Sigmoid函数参数的增量为 aj △ a/ 72 aa aJ △ 73 第9章神经网络控制 233 式中,k+1—第k层第i个神经元与第k+1层第j个神经元间的联接权; b——第k层第i个神经元 Sigmoid函数参数 n、v、n——学习速率,均为小正数。 以调整参数a为例,需要计算 aJ, aJpao ∂f(x,a,b aa: a0 aa k=1,2,…N 式中 N di-O: 。+78f(x+1,a+1,b+1 k+1 kk=1,2,…,N-1 修改 Sigmoid函数参数a与b的算法为 f(x;,a;,b) a(t+1)=a(t)+m 价(t+1)=6(t)+m0 x;,4: a 调整网络联接权的算法为 +1(t+1) ,k十1 )+na+19f(x41,a+1,b+1 ax k+1 输出层和隐含层间联接权的修改算法为 -1,N(t+1)=v N 71可 O N-1 上述算法以一组样本为基础,若样本总数为L,则需要依据算法对样本进行 逐个训练,每训练一组样本修改一次参数和联接权,训练完一次全部样本为完成 一次训练,直至使网络误差达到目标。 当然,也可以采用9.1.4节批量训练方式,定义总目标函数 根据梯度下降法,得 ,十1 aJ 7+ ∑ 六=1Ouk,k+ aJ aj 72 aa aa △b 73 ab ∑ ab 在此基础上,可推导出网络联接权与各神经元 Sigmoid函数参数的学习 234 先进控制理论及其应用 算法。 9.3神经网终控制 神经网络控制是20世纪80年代以来发展起来的智能控制的一个分支,对解 决复杂的非线性、不确定、不确知系统的控制问题提供了途径,它是神经网络与 控制理论相结合的结果。 由于神经网络具有非线性特性、学习能力和自适应性,能对一个过程或对象 的未知特征所固有的信息进行学习,并将得到的经验用于进一步的估计、分类 决策或控制,从而使系统性能得到改善。所以,在控制系统中神经网络通常被用 作控制器与(或)辨识器,主要是为了解决复杂的非线性、不确定、不确知系统 在不确定、不确知环境中的控制问题,使控制系统稳定、鲁棒性好,具有要求的 动态和静态(或称稳态)性能。 93.1神经自校正控制 如图9-10所示,神经自校正控制系统与传统的自校正控制(见图3-3)类 似,所不同的是被控对象由神经网络辨识器进行在线辨识,系统也包含两个 回路: 1)控制器与被控对象构成的反馈回路 2)神经网络辨识器与控制器参数设计回路,用以修改控制器参数。 「控制器參数设计 神经网络辨识器 控制器参数 控制器 被控对象 图9-10神经自校正控制系统结构 设被控对象为 y(k+1)=gt〔y(k),…,y(k-n+1);u(k-1),“,(k-m+1) gr(y(k),…,y(k-n+1);u(k-1),…,u(k一m+1)u(k) (9-26) 式中u(k)、y(k)——被控对象在k时刻的输入与输出; gf、gr非零函数。 若函数g、φr已知,希望控制系统的输出y(k)精确地跟踪输入yrf(k),则 控制器的算法为 (k) gt +-yref(k+1) (9-27) 第9章神经网络控制 235 但是,由于g、φ未知,所以需要通过在线训练神经网络辨识器,即 j(k+1)=g+qu() (9-28) 使其逐渐逼近被控对象。然后,用神经网络辨识器的g、φ分别代替被控对象的 gf、Pf,得 (k)=、8f,1 。yre(k+1) (9-29) Pf r 至此,问题的关键是构建神经网络辨识器满足式(9-28)。 为了演示,考虑如下一阶被控对象 y(k+1)=gr[y(k))+pr [y(k)Ju(k) 可建立图9-11所示神经网络辨识器。设两个网络均为三层结构,输出层神 经元线性,隐含层神经元非线性,权系数矩阵分别为 W〔k)=[ve v(k)=〔 U2 式中w、w—分别为两网络输出神经元的阈值; 隐含层神经元数 与式(9-28)对应的神经网络辨识器为 j(+1)=gy(更)W十qy(k),va(k) 控制作用为 ()s、8r〔y(k),啊 ry(k),V〕r〔y(k),Dyr(k+1) 代人被控对象,得 g[y(k),W〕,ye(k+1) y(+1)=gf[y(k)〕+ + (9-30) y(),V]y(k),V〕 可见,只有当gry(k),W→gy(k)和q〔y(k),V]→gry(k)时,才能实 现y(k)→yr(k)。设目标函数为 E(k)=〔yk+1)-y(k+1) (k+1) (9-31) 神经网络的训练过程就是通过调整权系数,使E(k)趋近于零。 利用BP学习算法,联接权的调整增量为 △T;(k) ae(k aw (k) △v(k) E〔k) h av; (k) 式中n、m-—学习速率,为小正实数。 236 先进控制理论及其应用 pe uk y() f(k+1) W y(k) 图9-11神经网络辨识器 利用式(9-30)可推导得 Aw: (k) qy(k)]agf〔y(k),w e(k+1) PrLy(k),v) aw: (k △v;(足)=一7 pr lyk)) ar[y(k),V q〔y(k),v]3v;(k) e(k+1)u(k) 由于y()]未知,但如果在k时刻其符号已知,记为sgn{py(k)]},则 只取其符号时,联接权的修改算法为 senior ly(k)〕}agr〔y(),V〕 re;(k十1)=v;(k) PrLy(k),V] av()e(k+1) sgnir [y(k)))a%rCy(k),V) v(+1)=v(k)-7=、D prLy avi(k)e(k+1)u(k) 综合上述,图9-12给出一阶被控对象的神经网络自校正控制框图。 学习算法 0(+1)=8++u(k) ref(k+) n(k)=(Hr(+1)-8r y(+1)=8+ql(k) 图9-12神经自校正控制框图 9.3.2神经PID控制器 1.常规PID控制器 PID控制器的输出为 第9章神经网络控制 237 u(k)=Kpe(k)+Ki > e()+kDe(k)-e(k-1)] 式中媛(k)—控制器在k时刻的输出; e(k)—控制系统在k时刻的误差; Kp、K1、KD—比例、积分和微分系数 2.神经网络PID控制器 对于非线性、不确定、不确知对象,参数KP、K1和KD应能自适应调整, 确保对象输出跟踪参考绐定。 应用神经网络的学习能力,可使PID参数能够自动适应对象的变化特性或 克服扰动的影响,确保系统的控制性能。一种普遍的方法是,将PID的三个参 数KP、K1和KD作为神经网络的联接权,即W=〔en,v2,3]=KP,K1,KD], 通过在线学习予以调整,建立的网络结构如图9-13所示。 ∑ej 被控对象 e(k)-e(k-1) 学习算法 图9-13神经PID控制系统结构 控制器的输出为 u(k)=w1(k)+u2(k)+t3l3(k) 设准则函数为 E(k)=1(yn4(k+1)-y(k+1)2=12(k+1) 1)如果对象已知,可表达为 (k+1)=gf〔y(k),…,y(k-n+1);tu(k-1),…,(k-m+1) gr〔y(k),…,y(k-n+1);u(k1),…,a(k一m+1)n() 则将其代入准则函数,得 E(k)={y(k+1)-g〔y(k),…,y(k-n+1);(k-1),…,a(-m+1) fry(k),…,y(k-n+1);(k (k—m+1)(k)} 釆用梯度下降法调节联接权,得 (k+1)=v1(k)十△:(k) 1,2,3

...展开详情
试读 10P sigmoid函数
立即下载 低至0.43元/次 身份认证VIP会员低至7折
一个资源只可评论一次,评论内容不能少于5个字
zztcdayspring 该资料有问题,在PDF中打不开
2013-06-19
回复
您会向同学/朋友/同事推荐我们的CSDN下载吗?
谢谢参与!您的真实评价是我们改进的动力~
上传资源赚钱or赚积分
最新推荐
sigmoid函数 50积分/C币 立即下载
1/10
sigmoid函数第1页
sigmoid函数第2页

试读结束, 可继续读1页

50积分/C币 立即下载