系统辨识大作业
学号: 2013200258
班级: 13202-1 班
姓名: 樊健平
系统辩识大作业
一. 设 SISO 系统差分方程为
y(k) =
)()2()1()2()1(
2121
kkubkubkyakya
�
���������
辨识参数向量为
�
=
1
[a
2
a
1
b
2
b
]
T
,输入输出数据详见数据文件
uy1.txt—uy3.txt。
)(k
�
为噪声方差各异的白噪声或有色噪声。
试求解:
1)用最小二乘及递推最小二乘法估计
�
;
2)用辅助变量法及其递推算法估计
�
;
3)用广义最小二乘法及其递推算法估计
�
;
4)用夏氏偏差修正法、夏氏改良法及其递推算法估计
�
;
5)用增广矩阵法估计
�
;
7)分析噪声
)(k
�
特性;
二.用极大似然法估计
�
。
三.以上题的结果为例,进行:
1.分析比较各种方法估计的精度;
2.分析其计算量;
3.分析噪声方差的影响;
4.比较白噪声和有色噪声对辨识的影响。
四.系统模型阶次的辨识:
1. 用三种方法确定系统的阶次并辨识;
2. 分析噪声对定阶的影响;
3. 比较所用三种方法的优劣及有效性;
解答:
一、各种方法系统辨识结果
表 1 uy1 辨识结果
辨识参数
辨识方法
1
a
2
a
1
b
2
b
1
f
2
f
最小二乘法
1.4854
0.7869
0.4837
0.1982
递推最小二乘法
1.4855
0.7869
0.4837
0.1982
辅助变量法
1.5348
0.8325
0.4873
0.2153
递推辅助变量法
1.4597
0.7357
0.4898
0.1841
广义最小二乘法
1.5022
0.7998
0.4844
0.2034
-0.0484
-0.0042
递推广义最小二乘
1.4731
0.7802
0.4873
0.1942
-0.0056
-0.0805
夏氏偏差修正法
1.4886
0.7973
0.4822
0.2022
-0.0482
-0.0671
夏氏改良法
1.4886
0.7973
0.4822
0.2022
-0.0483
-0.0669
夏氏递推法
1.4825
0.7945
0.4797
0.2018
-0.0374
-0.0699
增广矩阵法
1.4836
0.7864
0.4828
0.1991
-0.0015
-0.0187
表 2 uy2 辨识结果
辨识参数
辨识方法
1
a
2
a
1
b
2
b
1
f
2
f
最小二乘法
1.1113
0.4963
0.3791
0.1879
递推最小二乘法
1.1113
0.4963
0.3791
0.1879
辅助变量法
1.3995
0.7106
0.3801
0.2986
递推辅助变量法
1.2532
0.5949
0.3806
0.2400
广义最小二乘法
1.2382
0.5884
0.3777
0.2368
-0.1447
0.0712
递推广义最小二乘
1.2891
0.6464
0.3851
0.2601
-0.3165
0.0617
夏氏偏差修正法
1.3834
0.7146
0.3884
0.2873
-0.3872
0.1249
夏氏改良法
1.3834
0.7146
0.3884
0.2873
-0.3873
0.1248
夏氏递推法
1.3574
0.6954
0.3998
0.2719
-0.3492
0.0925
增广矩阵法
1.1674
0.5579
0.3862
0.2133
-0.0010
0.0040
表 3 uy3 辨识结果
辨识参数
辨识方法
1
a
2
a
1
b
2
b
1
f
2
f
最小二乘法
1.1158
0.4801
0.4254
0.1245
递推最小二乘法
1.1158
0.4801
0.4254
0.1245
辅助变量法
1.4952
0.775
0.4307
0.2681
递推辅助变量法
0.8646
0.2973
0.4201
0.0337
广义最小二乘法
1.2763
0.6117
0.4257
0.1898
-0.1834
0.0598
递推广义最小二乘
1.0399
0.4588
0.4239
0.1167
0.0359
-0.1883
夏氏偏差修正法
1.4628
0.7749
0.4711
0.2252
-0.5218
0.1743
夏氏改良法
1.4628
0.7749
0.4711
0.2252
-0.5217
0.1743
夏氏递推法
1.3088
0.6295
0.4642
0.1864
-0.4962
-0.00931
增广矩阵法
1.2565
0.6140
0.4482
0.1699
0.0518
0.0267
噪声特性
( )k
x
分析
对上面表 1-表 3 的辨识结果进行分析,可以看出,uy1 的噪声近似为白噪声,
因为其他辨识方法的辨识结果和最小二乘法的结果很接近。而 uy2 和 uy3 的噪声
是有色噪声,其他辨识方法的结果和最小二乘法的结果出入较大。
另外,从广义最小二乘法和增广矩阵法中滤波器参数的辨识结果可以看出,
uy1 中,f1 和 f2 接近 0,说明噪声更接近白噪声,而 uy2 和 uy3 中滤波器参数皆
不为零,所以 uy2 和 uy3 对应的噪声模型是有色噪声,而且 uy3 更为剧烈。
二、用极大似然法估计结果
表 4 极大似然法辨识结果
a1
a2
b1
b2
c1
c2
uy1
1.4630
0.7861
0.4793
0.1956
0.2382
0.3530
uy2
1.8196
0.9711
0.3888
0.4478
1.1479
0.0574
uy3
1.6559
0.9770
0.4175
0.3879
1.0662
0.4991
三、根据以上结果,
1.分析比较各种方法估计精度。
(1)最小二乘法:根据辨识结果可知,最小二乘法在噪声模型为白噪声时可
以获得较精确的估值。但噪声模型为有色噪声时,辨识结果精度损失较大。适合
理论分析。
(2)递推最小二乘法:该方法为在线辨识方法。理论上讲,其辨识精度应等
于采用离线辨识的最小二乘法,但是由于在递推被辨识参数的初值中,P 的取值
相当大时,递推最小二乘法的结果很接近于最小二乘法的结果。其基本思想可以
概括成:新的估计值=旧的估计值+修整项。
(3)辅助变量法:该方法理论上可以克服最小二乘的有偏估计问题。但根据
给定数据的辨识结果可知,在相同的噪声环境下该方法辨识精度不如最小二乘法,
而且在噪声方差较大时会发散。
(4)递推辅助变量法:白噪声时可获较为精确的估计值。有色噪声情况下估
值精度下降,噪声加大时,其辨识结果不如同等条件下的基本最小二乘法。
(5)广义最小二乘法:白噪声时该方法辨识精度较高,当噪声模型为有色噪
声时也能获得较为满意的辨识结果,但与离线计算结果不完全一样。
(6)递推广义最小二乘法:广义最小二乘的在线算法,白噪声时能取得较好
的辨识结果。通过 uy2 与 uy3 辨识结果对比可知,在噪声方差增大时,精度损失
比离线算法严重。
(7)夏氏偏差修正法:也是为了克服输入为有色噪声而导致辨识的有偏性而
提出的,对于本题,它的优缺点基本同广义最小二乘法,其辨识结果同广义最小
二乘法差不多。
(8)夏氏改良法:与夏氏偏差修正法辨识结果十分接近,二者只是在计算量
不同。
(9)夏氏递推法:由辨识结果数据可知,该在线辨识方法与离线算法的辨识
精度近似,而且在有色噪声时仍能获得较为满意的辨识结果。
(10)增广矩阵法:白噪声情况下与广义最小二乘法效果近似。当噪声模型为
有色噪声时,增广矩阵法比其他最小二乘法辨识精度高。
(11)极大似然法:辨识精度与增广矩阵法近似,辨识结果表明,在输入为白
噪声的情况下,结果精度与最小二乘法不相上下;在输入为有色噪声的情况下,
精度比最小二乘法好。
2.分析计算量
(1)最小二乘法:算法最简单,但是当输入输出数据量较大时,会出现维数
较高的矩阵求逆和相乘。 所以数据量越大计算量将明显增加。
(2)递推最小二乘法:递推最小二乘法在每一次迭代过程中都不需要矩阵求
逆,只需要做矩阵或向量乘法,故每次迭代过程中,递推最小二乘法的计算量较
小。
(3)辅助变量法:每一次迭代都需要求辅助模型的输出变量,并由此构造求
辅助变量矩阵 Z,做一次(2n+1) *(2n+1)的矩阵求逆,故计算量是最小二乘法的计
算量整数倍。计算量较大。
(4)递推辅助变量法:每次计算不需要矩阵求逆,计算量比离线算法小。总
的计算量比递推最小二乘法稍有增加。
(5)广义最小二乘法:计算比较复杂。同时迭代过程中需要数据滤波,数据
较多时计算量比较大,因此广义最小二乘的计算量很大。
(6)递推广义最小二乘法:由于在线算法每步需要处理的数据比较少,因此
评论0