- python大小:342KBpython数据分析,因为股票价格的影响因素太多,通过k线数据预测未来的价格变化基本不可行,只有当天之内的数据还有一定的关联,故feature与target都选择的是当天的数据。 加载数据 为了加快数据的处理速度,提前将mariadb数据库中的数据查询出来,保存成feather格式的数据,以提高加载数据的速度。 经过处理,不同股票的数据保存在了不同的文件中,列名还保持着数据库中的字段名。我选择了股票代码为sh600010的这只股票作为数据分析的数据来源。预测出来的结果与真实值变化趋势相近,说明线性回归模型在一定程度上能够解释收盘价与选取的feature之间的关系python数据分析,因为股票价格的影响因素太多,通过k线数据预测未来的价格变化基本不可行,只有当天之内的数据还有一定的关联,故feature与target都选择的是当天的数据。 加载数据 为了加快数据的处理速度,提前将mariadb数据库中的数据查询出来,保存成feather格式的数据,以提高加载数据的速度。 经过处理,不同股票的数据保存在了不同的文件中,列名还保持着数据库中的字段名。我选择了股票代码为sh600010的这只股票作为数据分析的数据来源。预测出来的结果与真实值变化趋势相近,说明线性回归模型在一定程度上能够解释收盘价与选取的feature之间的关系3 2623浏览免费
- 数据集大小:1MB该新闻数据集与 https://blog.csdn.net/weixin_47176703/article/details/124304692?spm=1001.2014.3001.5501此篇python项目-新闻文本分类详细对应,代码详尽,读者可自取实现。该新闻数据集与 https://blog.csdn.net/weixin_47176703/article/details/124304692?spm=1001.2014.3001.5501此篇python项目-新闻文本分类详细对应,代码详尽,读者可自取实现。0 1172浏览免费
- 数据分析大小:1MB这个数据集对应我写的一篇博客,下载此数据集即可运行我的代码。这个数据集对应我写的一篇博客,下载此数据集即可运行我的代码。0 1022浏览免费
- opencv大小:12MB在这个实战项目中,我们将利用Python结合OpenCV库来实现车牌识别功能。整个过程涵盖图像预处理、车牌定位、车牌字符分割以及模板匹配识别等关键步骤,对智能交通、车辆管理等实际应用领域具有显著价值。 首先,我们需要对获取的车辆图像进行预处理,这通常包括灰度化、二值化、滤波去噪等操作,以便更好地凸显车牌区域。接着,利用OpenCV的图像处理功能,我们可以实现车牌定位。这通常涉及边缘检测、轮廓查找以及形态学操作,以准确提取出车牌区域。 在车牌定位完成后,我们需要对车牌进行字符分割。这一步的目的是将车牌中的每个字符独立提取出来,以便后续进行识别。常用的字符分割方法包括垂直投影法、滑动窗口法等。通过这些方法,我们可以将车牌图像划分为多个字符区域。 最后,我们利用模板匹配的方法对分割出的字符进行识别。通过预先准备的字符模板库,我们将每个字符区域与模板库中的字符进行匹配,从而确定字符的具体内容。经过这一过程,我们可以得到完整的车牌号码。 该项目不仅可用于车牌识别技术的学习和研究,还具有实际应用价值。通过自动识别车牌号码,我们可以实现车辆追踪、违章查询、停车场管理等功能,从而提高交通管理的在这个实战项目中,我们将利用Python结合OpenCV库来实现车牌识别功能。整个过程涵盖图像预处理、车牌定位、车牌字符分割以及模板匹配识别等关键步骤,对智能交通、车辆管理等实际应用领域具有显著价值。 首先,我们需要对获取的车辆图像进行预处理,这通常包括灰度化、二值化、滤波去噪等操作,以便更好地凸显车牌区域。接着,利用OpenCV的图像处理功能,我们可以实现车牌定位。这通常涉及边缘检测、轮廓查找以及形态学操作,以准确提取出车牌区域。 在车牌定位完成后,我们需要对车牌进行字符分割。这一步的目的是将车牌中的每个字符独立提取出来,以便后续进行识别。常用的字符分割方法包括垂直投影法、滑动窗口法等。通过这些方法,我们可以将车牌图像划分为多个字符区域。 最后,我们利用模板匹配的方法对分割出的字符进行识别。通过预先准备的字符模板库,我们将每个字符区域与模板库中的字符进行匹配,从而确定字符的具体内容。经过这一过程,我们可以得到完整的车牌号码。 该项目不仅可用于车牌识别技术的学习和研究,还具有实际应用价值。通过自动识别车牌号码,我们可以实现车辆追踪、违章查询、停车场管理等功能,从而提高交通管理的0 546浏览免费
- python大小:231MB交通时空大数据分析、挖掘与可视化(Python版)书本源码交通时空大数据分析、挖掘与可视化(Python版)书本源码5 598浏览免费
- python大小:76MBPython机器学习(数据fx与评分卡jm)代码与数据Python机器学习(数据fx与评分卡jm)代码与数据0 480浏览免费
- 数据挖掘大小:17KB数据挖掘kmeans算法数据挖掘kmeans算法0 1086浏览免费
- 大数据大小:7MB中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。中国城市统计年鉴面板数据。来源:各城市面板数据。0 816浏览免费
- kettle大小:962MBKettle是一款国外开源的ETL工具,使用Java语言编写,可以运行在Windows、Linux、Unix上,数据抽取高效、稳定。Kettle包含Spoon、Pan、Chef、Encr和Kitchen等组件,Spoon是一个图形用户界面,可以方便直观地完成数据转换任务。Spoon可以运行转换和任务,转换用Pan来运行,任务用Kitchen运行。Kettle是一款国外开源的ETL工具,使用Java语言编写,可以运行在Windows、Linux、Unix上,数据抽取高效、稳定。Kettle包含Spoon、Pan、Chef、Encr和Kitchen等组件,Spoon是一个图形用户界面,可以方便直观地完成数据转换任务。Spoon可以运行转换和任务,转换用Pan来运行,任务用Kitchen运行。5 536浏览免费
- python大小:304KB爬取携程网(www.ctrip.com)与南京(可选择感兴趣的城市)相关的游记数据,南京游记列表页面链接如下:http://you.ctrip.com/travels/nanjing9.html。通过列表中的游记标题链接可以打开详细内容页面(见图11-21),采集页面头部的行程单数据存储到列表、字典或文件中,包括游玩天数、游玩时间、人均花费、同游对象、玩法、游玩景点等。获取前50页列表的游记数据后,对数据做适当分析,如计算平均花费、游玩时间在给予分最多、游玩景点的排序等。爬取携程网(www.ctrip.com)与南京(可选择感兴趣的城市)相关的游记数据,南京游记列表页面链接如下:http://you.ctrip.com/travels/nanjing9.html。通过列表中的游记标题链接可以打开详细内容页面(见图11-21),采集页面头部的行程单数据存储到列表、字典或文件中,包括游玩天数、游玩时间、人均花费、同游对象、玩法、游玩景点等。获取前50页列表的游记数据后,对数据做适当分析,如计算平均花费、游玩时间在给予分最多、游玩景点的排序等。4 1098浏览免费
- ZIP大小:5MBpython数据挖掘pandas,matplot,numpy等基础教程,是根据b站的黑马教程并参考一些博客做的markdown笔记,博客网址https://blog.csdn.net/m0_52987303/article/details/123609939python数据挖掘pandas,matplot,numpy等基础教程,是根据b站的黑马教程并参考一些博客做的markdown笔记,博客网址https://blog.csdn.net/m0_52987303/article/details/1236099390 311浏览免费
- 数据挖掘大小:2MB数据挖掘:概念与技术,英文版,未加密数据挖掘:概念与技术,英文版,未加密0 60浏览免费
- 数据挖掘_-_概念与技术数据挖掘_-_概念与技术大小:2MB数据挖掘_-_概念与技术数据挖掘_-_概念与技术数据挖掘_-_概念与技术数据挖掘_-_概念与技术4 82浏览免费
- 数据挖掘大小:4MB数据挖掘全套课件 数据挖掘算法介绍 150道数据挖掘习题 常用的数据挖掘算法,有源码,还有一篇关于决策系统支持的论文。超值!!数据挖掘全套课件 数据挖掘算法介绍 150道数据挖掘习题 常用的数据挖掘算法,有源码,还有一篇关于决策系统支持的论文。超值!!4 55浏览免费
- nltk大小:49MBnltk相关语料资源,包含punkt、wordnet、omw-1.4、stopwords。 资源包导入教程https://blog.csdn.net/qq_42276781/article/details/127951032nltk相关语料资源,包含punkt、wordnet、omw-1.4、stopwords。 资源包导入教程https://blog.csdn.net/qq_42276781/article/details/1279510320 370浏览免费
- 地铁数据大小:2MB四十多个市级地铁 shp 数据 地铁有色值四十多个市级地铁 shp 数据 地铁有色值4 237浏览免费
- 模式识别大小:8MB模式识别原理方法及应用,清华大学出版。对于有兴趣于图形图像及数据挖掘的朋友们应该有所帮助。模式识别原理方法及应用,清华大学出版。对于有兴趣于图形图像及数据挖掘的朋友们应该有所帮助。5 40浏览免费
- autojs大小:11MBAuto.js是一款安卓手机应用,和微信一样,安装在手机上使用。 Auto.js是一款自动化软件,根据脚本内容便可以自动地执行相关的操作,并且手机无需root。 Auto.js的脚本需要使用JavaScript编写。Auto.js是一款安卓手机应用,和微信一样,安装在手机上使用。 Auto.js是一款自动化软件,根据脚本内容便可以自动地执行相关的操作,并且手机无需root。 Auto.js的脚本需要使用JavaScript编写。0 261浏览免费
- 轴承故障数据集大小:21MBResearch and Application of Bearing Fault Diagnosis Based on Deep Encoder Classification ModelResearch and Application of Bearing Fault Diagnosis Based on Deep Encoder Classification Model0 959浏览免费
- 大数据大小:542MBNGSIM 的全称为 Next Generation Simulation,是由美国联邦公路局发起的一项数据采集项目,被交通界学者广泛用于车辆跟驰换道等驾驶行为研究,交通流分析,微观交通模型构建,车辆运动轨迹预测,驾驶员意图识别,自动驾驶决策规划等。所有数据均为在美国高速公路国道101上采集的实际运行轨迹数据。NGSIM 的全称为 Next Generation Simulation,是由美国联邦公路局发起的一项数据采集项目,被交通界学者广泛用于车辆跟驰换道等驾驶行为研究,交通流分析,微观交通模型构建,车辆运动轨迹预测,驾驶员意图识别,自动驾驶决策规划等。所有数据均为在美国高速公路国道101上采集的实际运行轨迹数据。5 440浏览免费
- IMvigor210CoreBi大小:132MBIMvigor210CoreBiologies在文档中已经不能下载,整理之后,放在此处。 (1)压缩包中,Rdata数据是从IMvigor210CoreBiologies提取出来的相关数据,包括相关的测序数据、临床表型数据。 (2)IMvigor210CoreBiologies_1.0.0.tar是IMvigor210CoreBiologies的安装包。IMvigor210CoreBiologies在文档中已经不能下载,整理之后,放在此处。 (1)压缩包中,Rdata数据是从IMvigor210CoreBiologies提取出来的相关数据,包括相关的测序数据、临床表型数据。 (2)IMvigor210CoreBiologies_1.0.0.tar是IMvigor210CoreBiologies的安装包。0 372浏览免费
- 数据挖掘教程大小:5MB数据仓库技术和数据挖掘技术数据仓库技术和数据挖掘技术3 92浏览免费
- 大数据大小:19MB大数据-数据挖掘大数据-数据挖掘5 46浏览免费
- 数据集大小:752MB共约250w条简体中文语料共约250w条简体中文语料0 201浏览免费
- python大小:62MB实现对豆瓣,电影天堂的电影数据爬取,使用Echarts图表可视化展示,前端使用js,css,html.后端采用python. 1.爬虫框架采用etree,beautiful-soup等。 2.将数据爬取成功后保存在txt文件中。 3.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 4.课程设计改造请与作者在csdn聊天界面联系。 5.爬虫框架采用etree,beautiful-soup等。 6.将数据爬取成功后保存在txt文件中。 7.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 8.课程设计改造请与作者在csdn聊天界面联系。 9.爬虫框架采用etree,beautiful-soup等。 10.将数据爬取成功后保存在txt文件中。 11.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 12.课程设计改造请与作者在csdn聊天界面联系。实现对豆瓣,电影天堂的电影数据爬取,使用Echarts图表可视化展示,前端使用js,css,html.后端采用python. 1.爬虫框架采用etree,beautiful-soup等。 2.将数据爬取成功后保存在txt文件中。 3.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 4.课程设计改造请与作者在csdn聊天界面联系。 5.爬虫框架采用etree,beautiful-soup等。 6.将数据爬取成功后保存在txt文件中。 7.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 8.课程设计改造请与作者在csdn聊天界面联系。 9.爬虫框架采用etree,beautiful-soup等。 10.将数据爬取成功后保存在txt文件中。 11.详细介绍可进入作者主页,搜索电影数据爬取可视化展示的文件介绍 12.课程设计改造请与作者在csdn聊天界面联系。0 378浏览免费
- 光盘源码大小:2MB自己动手写搜索引擎第2章源码,欢迎下载和使用自己动手写搜索引擎第2章源码,欢迎下载和使用5 60浏览免费
- 语音处理大小:28KB采用python预测指数走势采用python预测指数走势0 298浏览免费
- 数据挖掘大小:11MB关联 分类 聚类 神经网络 聚类算法等等详细介绍以及 以及在SQL中的建模关联 分类 聚类 神经网络 聚类算法等等详细介绍以及 以及在SQL中的建模0 27浏览免费
- python大小:5MB网络爬虫爬取商品评论+nlp情感分析+数据可视化网络爬虫爬取商品评论+nlp情感分析+数据可视化0 172浏览免费
- r语言大小:301KBGEO基因表达数据箱线图可视化GEO基因表达数据箱线图可视化0 796浏览免费
- 数据分析大小:3MB内容包括2015至2023年的国内汽车销售数据,包含3张表,涉及年份、月份、车型、售价、厂商、销量、同比增长情况等字段,可以用于数据分析练习使用,可用于数据清洗、相关性分析、回归分析等Python练习内容包括2015至2023年的国内汽车销售数据,包含3张表,涉及年份、月份、车型、售价、厂商、销量、同比增长情况等字段,可以用于数据分析练习使用,可用于数据清洗、相关性分析、回归分析等Python练习0 79浏览免费
- 《特征工程入门与实践》大小:237MB《特征工程入门与实践》data《特征工程入门与实践》data0 139浏览免费
- 数据集大小:87MB赛题:https://challenge.xfyun.cn/topic/info?type=mobile-devices 赛题数据由训练集、测试集、事件数据组成。总设备id超过2w,包含设备信息、APP信息和事件信息,其中device_id为用户的唯一标识符,gender为用户性别,age为用户年龄。 从中抽取2w条设备id为训练集,3千多个设备id作为测试集,同时会对部分字段信息进行脱敏。赛题:https://challenge.xfyun.cn/topic/info?type=mobile-devices 赛题数据由训练集、测试集、事件数据组成。总设备id超过2w,包含设备信息、APP信息和事件信息,其中device_id为用户的唯一标识符,gender为用户性别,age为用户年龄。 从中抽取2w条设备id为训练集,3千多个设备id作为测试集,同时会对部分字段信息进行脱敏。0 385浏览免费
- data大小:15MB英文PPT 初学者很有用 而且里面例子很基础很容易理解 涉及到分类、聚类等的很多算法与实现过程。英文PPT 初学者很有用 而且里面例子很基础很容易理解 涉及到分类、聚类等的很多算法与实现过程。0 57浏览免费
- 数据分析大小:2MBPython课程设计大作业,2010~2014年北京市PM2.5数据分析。课程设计分为五个任务,分别进行了数据读取及预处理、数据选择及导出、数据分类汇总、数据转存和数据统计和可视化;使用了pandas、matplotlib等库完成了课设。 资源包括了python程序代码和课设报告以及程序运行过程中使用到的数据集及程序运行导出的数据,可以完成运行。Python课程设计大作业,2010~2014年北京市PM2.5数据分析。课程设计分为五个任务,分别进行了数据读取及预处理、数据选择及导出、数据分类汇总、数据转存和数据统计和可视化;使用了pandas、matplotlib等库完成了课设。 资源包括了python程序代码和课设报告以及程序运行过程中使用到的数据集及程序运行导出的数据,可以完成运行。0 159浏览免费
- 阿里巴巴大小:192KB2015年4月阿里巴巴数据挖掘工程师实习生招聘附加题2015年4月阿里巴巴数据挖掘工程师实习生招聘附加题0 65浏览免费
- 数据处理大小:3MBLSTM自编码器异常检测模型LSTM自编码器异常检测模型0 177浏览免费
- ZIP大小:11MB压缩包里包括:推荐引擎实践,如何做好推荐系统,数据挖掘技术在推荐系统的应用,腾讯的推荐引擎的设计与实现,推荐技术在百度UCG产品中的应用。压缩包里包括:推荐引擎实践,如何做好推荐系统,数据挖掘技术在推荐系统的应用,腾讯的推荐引擎的设计与实现,推荐技术在百度UCG产品中的应用。0 101浏览免费
- weka中的代码大小:7MB关于weka中的详细内部代码,通过分析weka代码,自助修改数据挖掘的程序代码关于weka中的详细内部代码,通过分析weka代码,自助修改数据挖掘的程序代码0 62浏览免费
- elasticsearch大小:64MBelasticsearch-7.10.2 源码elasticsearch-7.10.2 源码0 78浏览免费
- matlab大小:2KB利用遗传算法(GA)做权重优化的MATLAB代码(等式约束)利用遗传算法(GA)做权重优化的MATLAB代码(等式约束)0 133浏览免费
- matlab大小:2KB多元线性回归是一种统计建模方法,用于建立多个自变量和一个因变量之间的线性关系。与简单线性回归只涉及一个自变量不同,多元线性回归考虑了两个或多个自变量对因变量的影响。多元线性回归是一种统计建模方法,用于建立多个自变量和一个因变量之间的线性关系。与简单线性回归只涉及一个自变量不同,多元线性回归考虑了两个或多个自变量对因变量的影响。0 153浏览免费
- 数据集大小:71MB数据集有有时间数据、季节数据、温度湿度风速等数据。那么我们可以想到 1、总体使用共享单车的用户的趋势是什么呢?总体在上升还是下降 2、季节对于共享单车的使用有影响吗?夏季炎热冬季寒冷,春秋适宜的天气是否能收到骑行人群的喜爱呢 3、一天24小时,使用单车的人数是否有大的变化呢?时间与共享单侧的使用有什么关系呢? 4、天气对于共享单车的使用影响是什么呢?就常识而言,应该好天气骑行人数较多与不好的天气吧,刮风下雨骑车本身就不方便且安全系数高。所以真的是这样吗,那也要考数据在亲眼验证了。 5、风速、温度等对共享单车是的使用有什么影响呢?什么样的风速、怎么样的温度是最合适人群骑行的呢? 6、注册用户数、非注册用户数、总租车数他们之间隐藏着什么秘密呢? 从数据概览那部分可以知道,本数据集是几乎完善的一个数据集,没有缺失值,没有什么特殊的字符作乱,所以就没有如一些数据般进行处理缺失值、处理杂乱数据等那样的预处理。count (总数)和 registered(注册租用)、casual(非注册)高度正相关,相关系数分别为0.69 与0.97,春季是1-3月,而1-3月多数都是春节的时候,数据集有有时间数据、季节数据、温度湿度风速等数据。那么我们可以想到 1、总体使用共享单车的用户的趋势是什么呢?总体在上升还是下降 2、季节对于共享单车的使用有影响吗?夏季炎热冬季寒冷,春秋适宜的天气是否能收到骑行人群的喜爱呢 3、一天24小时,使用单车的人数是否有大的变化呢?时间与共享单侧的使用有什么关系呢? 4、天气对于共享单车的使用影响是什么呢?就常识而言,应该好天气骑行人数较多与不好的天气吧,刮风下雨骑车本身就不方便且安全系数高。所以真的是这样吗,那也要考数据在亲眼验证了。 5、风速、温度等对共享单车是的使用有什么影响呢?什么样的风速、怎么样的温度是最合适人群骑行的呢? 6、注册用户数、非注册用户数、总租车数他们之间隐藏着什么秘密呢? 从数据概览那部分可以知道,本数据集是几乎完善的一个数据集,没有缺失值,没有什么特殊的字符作乱,所以就没有如一些数据般进行处理缺失值、处理杂乱数据等那样的预处理。count (总数)和 registered(注册租用)、casual(非注册)高度正相关,相关系数分别为0.69 与0.97,春季是1-3月,而1-3月多数都是春节的时候,0 198浏览免费
- lstm大小:10MBLSTM天气预测数据集LSTM天气预测数据集0 130浏览免费
- ZIP大小:22MB欢迎试用欢迎试用0 209浏览免费
- 数据挖掘大小:25MB一个挺牛的导师的课件,包含了数据挖掘所有的入门知识,讲解了很多有趣的算法,结合了当前各大企业在这方面的发展,很适合想了解数据挖掘的人学习一个挺牛的导师的课件,包含了数据挖掘所有的入门知识,讲解了很多有趣的算法,结合了当前各大企业在这方面的发展,很适合想了解数据挖掘的人学习3 55浏览免费
- django大小:132MB农产品数据分析及爬虫 # Create a boxplot using Seaborn and Matplotlib plt.figure(figsize=(8, 6)) sns.boxplot(y=df['最高价']) plt.title('Boxplot of Highest Prices') plt.xlabel('Prices') plt.ylabel('Highest Price') # Save the plot to a BytesIO object buffer = BytesIO() plt.savefig(buffer, format='png') buffer.seek(0) # Encode the bytes as a base64 string plot_data = base64.b64encode(buffer.getvalue()).decode() buffer.close() 这段代码使用Seaborn和Matplotlib创建了一个箱线图(boxplot)。以下是代码的解析: 1.plt.figure(figsize=(8, 6)): 这行代农产品数据分析及爬虫 # Create a boxplot using Seaborn and Matplotlib plt.figure(figsize=(8, 6)) sns.boxplot(y=df['最高价']) plt.title('Boxplot of Highest Prices') plt.xlabel('Prices') plt.ylabel('Highest Price') # Save the plot to a BytesIO object buffer = BytesIO() plt.savefig(buffer, format='png') buffer.seek(0) # Encode the bytes as a base64 string plot_data = base64.b64encode(buffer.getvalue()).decode() buffer.close() 这段代码使用Seaborn和Matplotlib创建了一个箱线图(boxplot)。以下是代码的解析: 1.plt.figure(figsize=(8, 6)): 这行代0 101浏览免费
- 数据挖掘大小:937KBVC开发的数据挖掘 联系qq:630677179 网址:www.fs526.comVC开发的数据挖掘 联系qq:630677179 网址:www.fs526.com2 67浏览免费
- 数据挖掘大小:642KB数据挖掘的实验报告,共含五个实验,有具体的实验代码以及截图,自带实验感想。五个实验分别为数据预处理、数据立方体与联机分析处理构建、应用 Apriori 算法挖掘频繁项集、贝叶斯决策分类算法、k-均值聚类算法。数据挖掘的实验报告,共含五个实验,有具体的实验代码以及截图,自带实验感想。五个实验分别为数据预处理、数据立方体与联机分析处理构建、应用 Apriori 算法挖掘频繁项集、贝叶斯决策分类算法、k-均值聚类算法。0 254浏览免费
- arcgis大小:5MB中国边界、省会、九段线、南海诸岛、河流等中国边界、省会、九段线、南海诸岛、河流等0 115浏览免费
- 大数据大小:181KB按照餐饮的分类来爬虫的,数量不多,但是可以自己改餐饮分类一直爬。 可视化运用的是pyecharts。 大数据处理技术的课程项目数据预处理。按照餐饮的分类来爬虫的,数量不多,但是可以自己改餐饮分类一直爬。 可视化运用的是pyecharts。 大数据处理技术的课程项目数据预处理。0 262浏览免费
- 数据挖掘分析大小:85MB十几万条电话、短信、网络以及app数据资源集合。配合"Python数据挖掘处理完整项目及详细解释"这篇博客使用。十几万条电话、短信、网络以及app数据资源集合。配合"Python数据挖掘处理完整项目及详细解释"这篇博客使用。0 211浏览免费
- 课程资源大小:385KB我在读大学期间有幸修过时间序列的课程,需要利用R语言建立各种时序模型,稍作整理之前发布了两篇时间序列的博客,有很多网友私信我需要数据,特在此上传到资源。另外给大家推荐一个网站,https://www.math.pku.edu.cn/teachers/lidf/course/fts/ftsnotes/html/_ftsnotes/rsoft.html 此讲义为北京大学数学科学学院金融数学系金融数学应用硕士《金融时间序列分析》授课备课资料。 课程采用Ruey S. Tsay的《金融数据分析导论:基于R语言》 (An Introduction to Analysis of Financial Data with R)作为主要教材之一。比博主本科学习的内容拓展了很多,有兴趣的朋友可以去看看学习一下。备课笔记的PDF版本可以通过点击页面最上方的PDF图标下载。我在读大学期间有幸修过时间序列的课程,需要利用R语言建立各种时序模型,稍作整理之前发布了两篇时间序列的博客,有很多网友私信我需要数据,特在此上传到资源。另外给大家推荐一个网站,https://www.math.pku.edu.cn/teachers/lidf/course/fts/ftsnotes/html/_ftsnotes/rsoft.html 此讲义为北京大学数学科学学院金融数学系金融数学应用硕士《金融时间序列分析》授课备课资料。 课程采用Ruey S. Tsay的《金融数据分析导论:基于R语言》 (An Introduction to Analysis of Financial Data with R)作为主要教材之一。比博主本科学习的内容拓展了很多,有兴趣的朋友可以去看看学习一下。备课笔记的PDF版本可以通过点击页面最上方的PDF图标下载。0 258浏览免费
- 数学建模大小:84KB电脑已经无时无刻都渗透在我们日常的生活中,选取一个符合自己心意的电脑也是非常重要的。电脑品牌、配置、外观、价格等的多种多样,已经让人们不知道该如何做出正确的选择。所以制定一个全面且有说服力的购买电脑的标准是有较高现实意义和研究价值的。这需要广泛的收集各方面的数据,对数据进行筛选以及分析,然后做出最优的选择。购买电脑层次结构如图1所示,选购电脑的方案在层次分析法中分为三层,分别为目标层、准则层和方案层,按有关因素自上而下分层,下层受上层影响,层内因素基本独立。电脑已经无时无刻都渗透在我们日常的生活中,选取一个符合自己心意的电脑也是非常重要的。电脑品牌、配置、外观、价格等的多种多样,已经让人们不知道该如何做出正确的选择。所以制定一个全面且有说服力的购买电脑的标准是有较高现实意义和研究价值的。这需要广泛的收集各方面的数据,对数据进行筛选以及分析,然后做出最优的选择。购买电脑层次结构如图1所示,选购电脑的方案在层次分析法中分为三层,分别为目标层、准则层和方案层,按有关因素自上而下分层,下层受上层影响,层内因素基本独立。0 151浏览免费
- 决策树大小:97KB利用python自带的wine数据集进行决策树的一些代码的复现,包含剪枝学习,找到最大化验证集分类精度的ccp_alphas值,绘制二维的决策边界,代码全部调试过,如果有什么问题可私信,谢谢。利用python自带的wine数据集进行决策树的一些代码的复现,包含剪枝学习,找到最大化验证集分类精度的ccp_alphas值,绘制二维的决策边界,代码全部调试过,如果有什么问题可私信,谢谢。0 376浏览免费
- 生物信息学大小:3MB文章《从NCBI refseq 中下载特定物种的蛋白质数据》对应的文件和代码,经供参考。文章《从NCBI refseq 中下载特定物种的蛋白质数据》对应的文件和代码,经供参考。0 441浏览免费
- matlab大小:543B逐步回归(Stepwise Regression)是一种逐渐选择或剔除变量以建立最佳回归模型的方法。逐步回归分为前向逐步回归和后向逐步回归两种类型。这两种方法都旨在通过逐步添加或移除变量来改进模型的性能,直到满足某个预定的标准或达到最佳的模型。 ### 前向逐步回归: 1. **开始模型:** 空模型,没有包含任何自变量。 2. **选择最佳变量:** 逐步添加一个自变量,选择能够最大程度提高模型性能的变量。 3. **更新模型:** 将选定的自变量添加到模型中,并重新拟合模型。 4. **循环迭代:** 重复步骤2和步骤3,逐步添加自变量,直到满足某个预定的标准(例如,AIC、BIC、交叉验证误差等),或者添加新的变量不再显著提高模型性能。 ### 后向逐步回归: 1. **开始模型:** 包含所有自变量的完整模型。 2. **选择最不重要的变量:** 逐步移除对模型贡献最小的自变量。 3. **更新模型:** 移除选定的自变量,并重新拟合模型。 4. **循环迭代:** 重复步骤2和步骤3,逐步移除自变量,直到满足某个预定的标准或者移除变量不再显著降逐步回归(Stepwise Regression)是一种逐渐选择或剔除变量以建立最佳回归模型的方法。逐步回归分为前向逐步回归和后向逐步回归两种类型。这两种方法都旨在通过逐步添加或移除变量来改进模型的性能,直到满足某个预定的标准或达到最佳的模型。 ### 前向逐步回归: 1. **开始模型:** 空模型,没有包含任何自变量。 2. **选择最佳变量:** 逐步添加一个自变量,选择能够最大程度提高模型性能的变量。 3. **更新模型:** 将选定的自变量添加到模型中,并重新拟合模型。 4. **循环迭代:** 重复步骤2和步骤3,逐步添加自变量,直到满足某个预定的标准(例如,AIC、BIC、交叉验证误差等),或者添加新的变量不再显著提高模型性能。 ### 后向逐步回归: 1. **开始模型:** 包含所有自变量的完整模型。 2. **选择最不重要的变量:** 逐步移除对模型贡献最小的自变量。 3. **更新模型:** 移除选定的自变量,并重新拟合模型。 4. **循环迭代:** 重复步骤2和步骤3,逐步移除自变量,直到满足某个预定的标准或者移除变量不再显著降0 205浏览免费
- 软件/插件大小:137KBxpath软件的快捷键已更改为CTRL+ALT+X,避免与浏览器的快捷键起冲突,所以更改了一下快捷键。xpath软件的快捷键已更改为CTRL+ALT+X,避免与浏览器的快捷键起冲突,所以更改了一下快捷键。0 72浏览免费
- 数据挖掘大小:12KB微博爬虫 指定关键词及检索日期微博爬虫 指定关键词及检索日期0 51浏览免费
- python大小:2KB用于获取股票市场数据的Python爬虫项目。该爬虫使用了Beautiful Soup和Scrapy等爬虫技术,从指定的股票网站或API获取实时和历史股票数据,包括股票价格、交易量等。爬取到的数据经过清洗和转换后,,方便进一步分析。项目提供了示例代码和演示,帮助用户理解如何运行爬虫。用于获取股票市场数据的Python爬虫项目。该爬虫使用了Beautiful Soup和Scrapy等爬虫技术,从指定的股票网站或API获取实时和历史股票数据,包括股票价格、交易量等。爬取到的数据经过清洗和转换后,,方便进一步分析。项目提供了示例代码和演示,帮助用户理解如何运行爬虫。0 226浏览免费