没有合适的资源?快使用搜索试试~ 我知道了~
现代信号处理2-统计估计的性能下限(克拉美劳下限CRLB)(CSDN-20240324)
需积分: 0 0 下载量 79 浏览量
2024-03-17
16:43:06
上传
评论
收藏 471KB PDF 举报
温馨提示
试读
11页
统计估计性能下限,克拉美劳界,Cramer-Rao下限,Fisher信息量
资源推荐
资源详情
资源评论
1
3. Lower Bound of Performance(统计估计的性能下限)
假设一组数据
独立同分布(IID),
是对参数
的估计,由前面的分析已知,
,是估计的
误差,其中
,表示估计的偏差,当
时,估计是无偏
的,此时
当表示样本均值时,通常取
则估计的方差
假设对有两个无偏的估计:
和
,且
,
为了减小估计的方差,考虑两个估计的线性组合
,并假设这个线性
组合也是无偏的,即
所以
下面考虑线性组合的方差
其中
是一个关于
的函数。上式成立的前提是得到
和
两个估计时所用
的样本是相互独立的。为了获得
的最值,可对
求导,并令其为 0
得到
2
上式中,
和
是对两个估计的加权,而加权的目的是尽可能减小组合的
方差
,假如
比较大,则
比较大,即
的权值较大,而
的权值较小,最终使
尽可能的小。
当然,类似于上述的线性变换,我们还可以进行其他变换,但目的是一致
的,使误差尽可能小,那么当样本长度(N)固定时,估计的误差能否不断减
小,直至为 0 呢?答案是否,在实际问题中,误差的减小是有下限的,本节介
绍一种估计的性能下限:Cramer-Rao 下限
3.1 标量参数的 CRLB
3.1.1 用一个样本估计标量参数
对一个标量参数
进行估计,假设一个无偏估计为
,即
,也
即
上式对求导,得到
()
由于
所以
()
由(1),(2)得到
引理:Cauchy-Schwarz 不等式
3
为了使用 Cauchy-Schwarz 不等式,对(3)进行适当的变换。
所以
上式说明,估计的误差有一个下限,我们称这个下限为 Cramer-Rao 下限
(CRLB)。由 CRLB 的表达式可以看出,我们对一个参数进行估计时,估计
的精度总存在一个误差下界,且这个误差下界仅与模型
有关,而与统计方
法、估计方法无关。
例 1. 设
,其中
已知,未知,用一个样本对进行估计。
解:由题设可知
在这个估计中,
非常重要,它可以决定估计的精度。那么它是怎样起作用的
呢?
根据上面的分析,首先对概率密度函数取对数:
由于只有一个样本,
对的估计起着至关重要的作用。为了对进行准确的估
计,应该提高模型()对的灵敏度,即当有微小的变化时,有较
大的变化,这样才能准确捕捉到的变化细节,并较好地对其进行跟踪,进而对其
进行准确的估计,上面所讲的灵敏度,仅仅与模型有关,不论采用什么样的统计
方法、估计方法,最终都要面临灵敏度的问题,如果灵敏度过低,则当在较大范
围内变化时,也不会发生太大变动。下面考虑关于的导数。
曲线的导数表示其切线的斜率,是在局部用直线逼近曲线。上式除了和有关
外,还和样本数据有关,不利于分析对
的影响,所以再进行一次求
导。
剩余10页未读,继续阅读
资源评论
woaixuexi428
- 粉丝: 146
- 资源: 4
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功