没有合适的资源?快使用搜索试试~ 我知道了~
资源详情
资源评论
资源推荐
Python 数据挖掘入门与实践
一、开启数据挖掘之旅
1.3.1 简单的排序规则
支持度:指数据集中规则应验的次数,统计起来很简单。有时候,还需要对支持度进行规范化,即
再除以规则有效前提下的总数量。
置信度:符合给定条件(即规则的“如果”语句所表示的前提条件)的所有规则里,跟当前规则结论
一致的比例有多大。计算方法为首先统计当前规则的出现次数,再用它来除以条件(“如果”语句)
相同的规则数量。
1.5.2 OneR算法
根据已有数据中,具有相同特征值的个体最可能属于哪个类别进行分类
算法首先遍历每个特征的每一个取值,对于每一个特征值,统计它在各个类别中的出现次数,找到
它出现次数最多的类别,并统计它在其他类别中的出现次数。
统计完所有的特征值及其在每个类别的出现次数后,我们再来计算每个特征的错误率。
计算方法为把它的各个取值的错误率相加,选取错误率最低的特征作为唯一的分类准则
(OneR),用于接下来的分类。
二、scikit-learn
估计器(Estimator):用于分类、聚类和回归分析。
转换器(Transformer):用于数据预处理和数据转换。
流水线(Pipeline):组合数据挖掘流程,便于再次使用。
2.1 估计器
fit():训练算法,设置内部参数。该函数接收训练集及其类别两个参数。
predict():参数为测试集。预测测试集类别,并返回一个包含测试集各条数据类别的数组。
2.2.2 标准预处理
MinMaxScaler类进行基于特征的规范化
from sklearn.preprocessing import MinMaxScaler
把每个特征的值域规范化为0到1之间。最小值用0代替,最大值用1代替,其余值介于两者之间。
X_transformed = MinMaxScaler().fit_transform(X)
为使每条数据各特征值的和为1,使用sklearn.preprocessing.Normalizer。
为使各特征的均值为0,方差为1,使用sklearn.preprocessing.StandardScaler,常用作规范化的
基准。
为将数值型特征的二值化,使用sklearn.preprocessing.Binarizer,大于阈值的为1,反之为0。
开眼旅行精选
- 粉丝: 12
- 资源: 327
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 使用PYTHON编写一个程序,识别数字和字母的程序
- chuanghanshu.m
- 3-1same.cbp
- 电路硬件PCB设计-EMC电磁兼容PCB防干扰与防静电设计pcb电磁兼容EMC设计等文档资料合集(18个).zip
- tudou-android-release (2).apk
- 三维重建-基于NeRF实现的稳定+实时3D说话人脸生成-附项目源码-优质项目实战.zip
- oracle-10g-32bit.zip
- com.aesq.zb_v1.0.35_danji100.com.apk
- 760996331259605建立门派1.360.apk
- 下面提供一些C语言的入门示例代码,并附有注释,以帮助理解每个部分的功能 1. Hello World程序 #include
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0