没有合适的资源?快使用搜索试试~ 我知道了~
** Bootstrap置信区间和GEV拟合pdf ** 1. 置信区间 置信区间是总体参数估计的一个界限,用于量化估计的不确定性。另外,置信区间是一个范围的可能性。 真正的模型性能可能在这个范围之外。 1.1 分类精度的置信区间 如果给定输入数据,预测它们的标签,通常用分类准确率(accuracy)或分类误差(Error,与准确率相反)来描述分类预测模型的性能,分类准确率或分类误差是一个比例,别名:伯努利审判(Bernoulli trial)。eg: 董某人用Wrf模式模拟了10次兰州沙尘过程,但是只有7次模拟成功,那么模型的分类准确率为70%。分类误差区间半径计算公式:interval
资源详情
资源评论
资源推荐
Bootstrap置信区间和置信区间和GEV拟合拟合pdf
** Bootstrap置信区间和置信区间和GEV拟合拟合pdf **
1. 置信区间置信区间
置信区间是总体参数估计的一个界限界限,用于量化估计的不确定性量化估计的不确定性。另外,置信区间是一个范围的可能性。 真正的模型性能可
能在这个范围之外。
1.1 分类精度的置信区间分类精度的置信区间
如果给定输入数据给定输入数据,预测它们的标签,通常用分类准确率分类准确率(accuracy)或分类误差分类误差(Error,与准确率相反)来描述分类预测
模型的性能性能,分类准确率或分类误差是一个比例比例,别名:伯努利审判(Bernoulli trial)。eg: 董某人用Wrf模式模拟了10次兰州沙
尘过程,但是只有7次模拟成功,那么模型的分类准确率为70%。分类误差区间半径计算公式:interval = z * sqrt( (error * (1 - error))
/ n)分类准确率区间半径计算公式:interval = z * sqrt( (accuracy * (1 - accuracy)) / n) 公式中的interval是置信区间的半径,error和
accuracy是分类误差和分类准确率,n是样本大小,sqrt是平方根函数,z是高斯分布的临界值。用术语表述,这就是二项式比
例置信区间。
1.2 非参数置信区间非参数置信区间
如果我们不知道性能指标的分布情况不知道性能指标的分布情况或者不知道计算置信区间的具体方法不知道计算置信区间的具体方法或者所拥有数据量太少数据量太少,在这些情况下我们可以采用
bootstrap重采样方法计算置信区间。 任意总体统计的置信区间都可以用***bootstrap***以一种分布无关法(distribution-
free)进行估计。 bootstrap
是一种模拟蒙特卡罗方法,其中样本是从固定的有限数据集中
有放回的抽取有放回的抽取出来的,并且在每个
样本上估计一个参数。
Python
代码实现:代码实现:
```python
import numpy as np
def average(data):
return sum(data) / len(data)
def bootstrap(data, B, c, func):
**#计算bootstrap置信区间
#:param data: array 保存样本数据
# :param B: 抽样次数 通常B>=1000
#:param c: 置信水平
#:param func: 样本估计量
# :retrn: bootstrap置信区间上下限
array = np.array(data)
#将数据赋值到np的array数组里
n = len(array)
#数据长度
sample_result_arr = [] #建立空数组,动态数组
for i in range(B):
index_arr = np.random.randint(0, n, size=n)
#生成0-1000的随机整数,作为数据序列位置号。
#此函数精髓就是利用数组位置号来再抽样
data_sample = array[index_arr] #根据生成的随机数据序列号,来再次抽样赋值新数组。
sample_result = func(data_sample)
sample_result_arr.append(sample_result)
#append函数是将重采样的sample_result数据添加到sample_result_arr数组后面
a = 1 - c
#如果是95%置信度,那就是 c = 0.95 ,a = 1- c= 0.05
k1 = int(B * a / 2)
#如果B是1000,则k1代表从小到大排列,第2.5%个分位处的序列位置号。
k2 = int(B * (1 - a / 2))
#如果B是1000,则k1代表从小到大排列,第97.5%个分位处的序列位置号。
auc_sample_arr_sorted = sorted(sample_result_arr)
#将1000次重新抽样的数据从大到小排列。
lower = auc_sample_arr_sorted[k1] #取2.5%分位处的值
higher = auc_sample_arr_sorted[k2] #取2.5%分位处的值
return lower, higher
#返回上下置信度。
#-----------自定义函数结束
if __name__ == '__main__':
result = bootstrap(np.random.randint(0, 50, 50), 1000, 0.95, average)
#构建0-50之间的50个随机数,1000次重采样,95%置信度,平均值输出
print(result)
#输出结果;平均值信度区间为(CI:20.48, 28.32)
```**
**
NCL
代码实现:代码实现:
**
begin
weixin_38590989
- 粉丝: 8
- 资源: 940
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于Vue+Echarts实现风力发电机中传感器的数据展示监控可视化系统+源代码+文档说明(高分课程设计)
- 基于单片机的风力发电机转速控制源码
- 基于C++实现的风力发电气动平衡监测系统+源代码+测量数据(高分课程设计)
- 毕业设计- 基于STM32F103C8T6 单片机,物联网技术的太阳能发电装置+源代码+文档说明+架构图+界面截图
- 基于 LSTM(长短期记忆)(即改进的循环神经网络)预测风力发电厂中风力涡轮机产生的功率+源代码+文档说明
- 基于stm32f103+空心杯电机+oled按键+运动算法
- 《CKA/CKAD应试指南/从docker到kubernetes 完全攻略》学习笔记 第1章docker基础(1.1-1.4)
- 基于python实现的水下压缩空气储能互补系统建模仿真与经济效益分析+源代码+论文
- 华中科技大学-自然语言处理实验,Bi-LSTM+CRF的中文分词框架,并且利用基于深度学习的方法进行中文命名实体识别++源码报告
- 基于动态罚函数的铁路车流分配与径路优化模型python源码
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0