![](https://csdnimg.cn/release/downloadcmsfe/public/img/no-data.51c5211b.png)
![](https://csdnimg.cn/release/downloadcmsfe/public/img/good-course.ff455529.png)
- PY爬虫代码,针对有反爬机制的网站非常好用,更能定义头部软件/插件大小:879B遇到有反爬机制的网站怎么办,用我这个python爬虫代码,能解决大部份问题,当然IP问题不在这个代码中。非常好用,更能定义头部。遇到有反爬机制的网站怎么办,用我这个python爬虫代码,能解决大部份问题,当然IP问题不在这个代码中。非常好用,更能定义头部。
0 14浏览
会员免费 - 数据挖掘-序列模式挖掘及其算法的python实现数据挖掘大小:3KB数据挖掘|序列模式挖掘及其算法的python实现数据挖掘|序列模式挖掘及其算法的python实现
0 83浏览
会员免费 - 大数据作业homework-master.zip大数据大小:15MB大数据作业homework-master.zip大数据作业homework-master.zip
0 6浏览
会员免费 - 主题探索用的图片.Rdatar语言大小:2MB用于探索学习如何使用ggplot2的主题用于探索学习如何使用ggplot2的主题
0 7浏览
会员免费 - 数据挖掘-关联分析与Apriori算法详解数据挖掘大小:21KB数据挖掘|关联分析与Apriori算法详解数据挖掘|关联分析与Apriori算法详解
0 99浏览
会员免费 - 小白读《R语言实战》写的读书笔记(第八章)R语言大小:40KB小白读《R语言实战》写的读书笔记(第八章)小白读《R语言实战》写的读书笔记(第八章)
0 13浏览
会员免费 - 德塔数据分析ETL源代码数据可视化数据分析ETL数据分析大小:1MBDeta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率Deta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率
0 16浏览
免费 - 数据挖掘算法软件(ID3、K-means)揭示隐藏在数据背后的有价值信息数据挖掘大小:324KB数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类
0 23浏览
免费 - 使用Python实现给图片添加水印python大小:622B使用Python实现给图片添加水印使用Python实现给图片添加水印
0 20浏览
会员免费 - 聚类分析-基于密度的聚类方法DBSCAN及其Python实现 包含数据集python大小:724KB数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现
0 65浏览
会员免费 - DBN-DeepL.rarDBN大小:43MBDBN-DeepL.rarDBN-DeepL.rar
0 7浏览
会员免费 - MatlabCNN.rarmatlabcnn大小:18MBMatlabCNN.rarMatlabCNN.rar
0 16浏览
会员免费 - 聚类分析-基于密度的聚类方法DBSCAN及其Python实现python大小:213KB数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现
0 51浏览
会员免费 - MATLAB-RNN预测.rarmatlab大小:5KBMATLAB-RNN预测.rarMATLAB-RNN预测.rar
0 16浏览
会员免费 - load-123.rarload大小:40MBload-123.rarload-123.rar
0 9浏览
会员免费 - BPNN-预测.rarRAR大小:13KBBPNN-预测.rarBPNN-预测.rar
0 8浏览
会员免费 - 预测-AE-1.rarRAR大小:16KB预测-AE-1.rar预测-AE-1.rar
0 11浏览
会员免费 - python数据分析企业实战案例与源码,与专栏 python数据分析可视化匹配python大小:1MB本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。
0 129浏览
会员免费 - scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解编程语言大小:534KBscratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。
0 15浏览
会员免费 - 大数据的前世今生:大数据特征与发展历程大数据大小:665KB【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程
0 16浏览
会员免费 - 量化投资-获取净利润过100亿的公司.ipynb金融商贸大小:9KB在A股市场中,有一些公司凭借其强大的盈利能力,成为了真正的赚钱机器。这些公司的净利润已经突破了200亿元大关,并且还在持续增长中。 首先,我们要提到的是中国平安。作为国内最大的保险公司之一,中国平安的...(此处省略具体内容)。 其次,我们来看看阿里巴巴。作为国内最大的互联网公司,阿里巴巴的业务遍布各个领域,包括电商、云计算、数字媒体和娱乐等。这使得阿里巴巴有着非常丰富的收入来源,从而实现了高额的净利润。 再次,我们要提到的是腾讯控股。腾讯控股是中国最大的社交平台和移动工具提供商,拥有QQ、微信等多款热门产品。通过这些产品,腾讯控股吸引了大量的用户,从而实现了广告和游戏等多种形式的盈利。 最后,我们来看看工商银行。作为国内最大的商业银行,工商银行的业务涵盖了储蓄、贷款、投资等多个领域。这使得工商银行有着稳定的收入来源,从而实现了高额的净利润。 总的来说,这些A股中的赚钱机器之所以能够实现高额的净利润,主要是因为它们都有着强大的盈利能力和丰富的收入来源。这也为投资者提供了很好的投资机会。然而,投资者在选择投资这些公司时,也需要注意风险,做好充分的研究和分析。在A股市场中,有一些公司凭借其强大的盈利能力,成为了真正的赚钱机器。这些公司的净利润已经突破了200亿元大关,并且还在持续增长中。 首先,我们要提到的是中国平安。作为国内最大的保险公司之一,中国平安的...(此处省略具体内容)。 其次,我们来看看阿里巴巴。作为国内最大的互联网公司,阿里巴巴的业务遍布各个领域,包括电商、云计算、数字媒体和娱乐等。这使得阿里巴巴有着非常丰富的收入来源,从而实现了高额的净利润。 再次,我们要提到的是腾讯控股。腾讯控股是中国最大的社交平台和移动工具提供商,拥有QQ、微信等多款热门产品。通过这些产品,腾讯控股吸引了大量的用户,从而实现了广告和游戏等多种形式的盈利。 最后,我们来看看工商银行。作为国内最大的商业银行,工商银行的业务涵盖了储蓄、贷款、投资等多个领域。这使得工商银行有着稳定的收入来源,从而实现了高额的净利润。 总的来说,这些A股中的赚钱机器之所以能够实现高额的净利润,主要是因为它们都有着强大的盈利能力和丰富的收入来源。这也为投资者提供了很好的投资机会。然而,投资者在选择投资这些公司时,也需要注意风险,做好充分的研究和分析。
0 11浏览
免费 - 思维导图第四章 数据仓库的决策支持数据挖掘大小:339KB数据仓库与数据挖掘(第三版)陈文伟思维导图第四章 数据仓库的决策支持数据仓库与数据挖掘(第三版)陈文伟思维导图第四章 数据仓库的决策支持
0 13浏览
会员免费 - Pca-data.RDataRDATA大小:4MBPca-data.RDataPca-data.RData
0 11浏览
会员免费 - PLS-Manual.docxPLS-Manual.docx
0 6浏览
会员免费 - 数据挖掘-数据预处理-基于Python的数据标准化方法数据标准化大小:8KB数据挖掘-数据预处理-基于Python的数据标准化方法数据挖掘-数据预处理-基于Python的数据标准化方法
0 77浏览
会员免费 - 箱线图汇总-多组箱线图的Rdata文件RDATA大小:20MB多组箱线图的Rdata文件多组箱线图的Rdata文件
0 20浏览
会员免费 - 指标中台-为企业建设统一规范的指标体系指标中台大小:20MB指标中台-为企业建设统一规范的指标体系指标中台-为企业建设统一规范的指标体系
0 12浏览
会员免费 - matlab实现svm代码matlab大小:5KB% y - 训练目标; % a - 拉格朗日乘子 % % Xt 测试样本,n×d的矩阵,n为样本个数,d为样本维数 % 输出参数: % Yd 测试输出,n×1的矩阵,n为样本个数,值为+1或-1% y - 训练目标; % a - 拉格朗日乘子 % % Xt 测试样本,n×d的矩阵,n为样本个数,d为样本维数 % 输出参数: % Yd 测试输出,n×1的矩阵,n为样本个数,值为+1或-1
0 63浏览
会员免费 - RSNNS-1234.rarRAR大小:1MBRSNNS-1234.rarRSNNS-1234.rar
0 17浏览
会员免费 - neuralnet包-R实现神经网络构建神经网络大小:36KBneuralnet包-R实现神经网络构建neuralnet包-R实现神经网络构建
0 43浏览
会员免费 - 利用MATLAB中OSC处理光谱数据PLS大小:73MB利用MATLAB中OSC处理光谱数据利用MATLAB中OSC处理光谱数据
0 13浏览
会员免费 - 数据挖掘与分析学习笔记数据数据挖掘大小:2MB数据挖掘与分析学习笔记数据数据挖掘与分析学习笔记数据
0 28浏览
会员免费 - 滴普数据智能平台和医药行业案例分享.pdf数据智能平台和医药行业案例分享
0 6浏览
会员免费 - 从零开始:零基础者如何快速掌握数据可视化技能?.zip求职面试大小:237KB数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。
0 12浏览
会员免费 - 数据挖掘-数据集成-基于Python的数据集成关键问题处理数据挖掘大小:12KB基于Python的数据集成关键问题处理基于Python的数据集成关键问题处理
0 56浏览
会员免费 - 【tensorflow】tensorflow-resnet-master.ziptensorflow大小:658KB【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r
0 13浏览
会员免费 - 学习用go去实现日志读取、解析、写入数据库 流程数据库大小:8KB学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块
0 20浏览
会员免费 - 思维导图第三章 联机分析处理 (整理复习)数据挖掘大小:405KB数据仓库与数据挖掘(第三版)陈文伟思维导图第三章 联机分析处理 (整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图第三章 联机分析处理 (整理复习)
0 18浏览
会员免费 - 思维导图第二章 数据仓库原理(整理复习)数据挖掘大小:518KB数据仓库与数据挖掘(第三版)陈文伟思维导图第二章 数据仓库原理(整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图第二章 数据仓库原理(整理复习)
0 16浏览
会员免费 - 爬虫高阶(一):解决验证码及爬取知网论文数据毕业设计大小:5KB用于实现爬取论文数据用于实现爬取论文数据
0 32浏览
会员免费 - 思维导图 第一章数据仓库与数据挖掘概述(整理复习)数据挖掘大小:307KB数据仓库与数据挖掘(第三版)陈文伟思维导图 第一章数据仓库与数据挖掘概述(整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图 第一章数据仓库与数据挖掘概述(整理复习)
0 30浏览
会员免费 - 数据挖掘graphviz-install-2.44.1-win64安装数据挖掘大小:4MB数据挖掘graphviz-install-2.44.1-win64安装数据挖掘graphviz-install-2.44.1-win64安装
0 12浏览
会员免费 - 完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM数据集大小:25KB完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM
0 14浏览
会员免费 - 小白读《R语言实战》写的读书笔记(第七章)R语言大小:24KB小白读《R语言实战》写的读书笔记(第七章)小白读《R语言实战》写的读书笔记(第七章)
0 15浏览
会员免费 - 美国大学生数学建模竞赛.pdf美国大学生数学建模竞赛(Mathematical Contest in Modeling,简称MCM,以及Interdisciplinary Contest in Modeling,简称ICM)是一项国际性的大学生竞赛,旨在通过团队合作解决实际问题来提升学生的数学建模能力、团队协作能力和论文写作能力。本教程将详细介绍美赛的准备、参赛过程和策略,帮助新手快速入门
0 20浏览
会员免费 - 数据挖掘与机器学习-实验数据挖掘大小:5MB数据挖掘与机器学习-实验,上课代码+实验数据挖掘与机器学习-实验,上课代码+实验
0 27浏览
会员免费 - 分类算法数据分析检测-心脏病数据分析数据分析大小:66KB分类算法数据分析检测-心脏病数据分析分类算法数据分析检测-心脏病数据分析
0 21浏览
会员免费 - Doris使用规范(最佳实践)Doris使用规范(最佳实践)
0 79浏览
会员免费 - 数据预处理-数据清洗-使用Pandas进行异常值清洗pandas大小:360KB使用pandas对数据进行异常值清洗使用pandas对数据进行异常值清洗
0 31浏览
会员免费 - 数据预处理-数据清洗-使用Pandas进行缺失值清洗数据清洗大小:11KB使用pandas进行数据清洗的缺失值清洗操作使用pandas进行数据清洗的缺失值清洗操作
0 111浏览
会员免费 - 超详细!基于 Apriori 关联规则挖掘算法实现商品购物篮分析(数据+代码+5k字项目报告)软件/插件大小:912KB基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。
0 171浏览
会员免费 - 第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析数据分析大小:6MB第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析
0 22浏览
会员免费 - Uplift Modeling方法Uplift Modeling采用随机科学控制,不仅可以衡量事务行为的有 效性,还可以建立预测模型、预测行为的增量响应。它是一种数据挖 掘技术,主要应用于金融服务、电信和零售直销行业,用于追加销 售、交叉销售、客户流失和扣除留置。通常的Propensity Model和Response Model只是给目标用户打了 个分,并没有确保模型的结果可以使得活动的提升最大化,它没有告 诉市场营销人员哪个用户最有可能提升活动响应,因此需要另一个统 计模型来定位那些可以被营销推广活动明显驱动他们偏好响应的用 户,也就是“营销敏感”用户。 Uplift Model的最终目标就是找到最 有可能被营销活动影响的用户,从而提升活动的反响(r(test)- r(control)),提升ROI(投资回收率),提升整体的市场响应率。 下面说明进行Uplift Modeling的方法。
0 28浏览
会员免费 - 异常检测常用的方法及算法基于统计:基于泊松分布、正态分布找到异常分布点。 基于距离:K-means。 基于密度:KNN、LOF(Local Outlier Factor)、隔离森 林。 一类支持向量机(One-Class SVM)。 隐马尔可夫模型(HMM)。
0 41浏览
会员免费 - 大数据实践项目 - nginx 日志分析可视化flask大小:1MB大数据实践项目 - nginx 日志分析可视化 功能说明 通过流、批两种方式,分析 nginx 日志,将分析结果通过 flask + echarts 进行可视化展示大数据实践项目 - nginx 日志分析可视化 功能说明 通过流、批两种方式,分析 nginx 日志,将分析结果通过 flask + echarts 进行可视化展示
0 25浏览
会员免费 - 2018年华为杯数学建模C题题目以及优秀论文篇6华为杯大小:84MB数学建模 华为杯数学建模 华为杯
0 13浏览
会员免费 - 大数据与统计分析实验报告.zip大数据大小:7KB大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip
0 31浏览
会员免费 - 数据挖掘睡眠分期SharpWaves电信号分类(Python脚本 运算结果)数据挖掘大小:1MB文件包括: 1.睡眠分期SharpWaves电信号分类Python脚本 2.SharpWaves电信号数据文件 3.相似度与相异性计算结果 4.分类结果并绘图文件包括: 1.睡眠分期SharpWaves电信号分类Python脚本 2.SharpWaves电信号数据文件 3.相似度与相异性计算结果 4.分类结果并绘图
0 17浏览
会员免费 - 数学建模2020年C题 睡眠分期题目 Python处理代码(全)python大小:12KB内容概要: 本资源为【数学建模】2020年C题——睡眠分期题目的Python处理代码。该代码旨在帮助参赛者分析和处理与睡眠分期相关的数据,包括数据加载、预处理、特征提取、模型构建与训练,以及结果输出等步骤。代码采用了Python语言编写,充分利用了pandas、numpy、scipy等科学计算库的功能,实现了对睡眠数据的自动化处理和分析。 使用人群: 本资源适用于参加数学建模竞赛的参赛者,特别是针对睡眠分期类似题目的参赛者。 使用场景及目标: 本资源的使用场景为数学建模竞赛中的数据处理和分析环节。使用本代码可以帮助参赛者快速有效地处理睡眠分期数据,提取有用的特征,并构建分类模型来识别不同的睡眠阶段。 其他说明: 本代码仅为示例代码,具体实现可能需要根据实际数据和题目要求进行适当的修改和调整。 在使用本代码前,请确保已经安装了Python及其相关科学计算库,pandas、numpy、scipy等。 本代码仅为参赛者提供一个参考和起点,参赛者需要根据自己的理解和创新,进一步完善和优化代码,以达到更好的竞赛效果。内容概要: 本资源为【数学建模】2020年C题——睡眠分期题目的Python处理代码。该代码旨在帮助参赛者分析和处理与睡眠分期相关的数据,包括数据加载、预处理、特征提取、模型构建与训练,以及结果输出等步骤。代码采用了Python语言编写,充分利用了pandas、numpy、scipy等科学计算库的功能,实现了对睡眠数据的自动化处理和分析。 使用人群: 本资源适用于参加数学建模竞赛的参赛者,特别是针对睡眠分期类似题目的参赛者。 使用场景及目标: 本资源的使用场景为数学建模竞赛中的数据处理和分析环节。使用本代码可以帮助参赛者快速有效地处理睡眠分期数据,提取有用的特征,并构建分类模型来识别不同的睡眠阶段。 其他说明: 本代码仅为示例代码,具体实现可能需要根据实际数据和题目要求进行适当的修改和调整。 在使用本代码前,请确保已经安装了Python及其相关科学计算库,pandas、numpy、scipy等。 本代码仅为参赛者提供一个参考和起点,参赛者需要根据自己的理解和创新,进一步完善和优化代码,以达到更好的竞赛效果。
0 84浏览
会员免费 - 数据挖掘 出租车轨迹数据分析Python源码 生成统计图分析图数据挖掘大小:2KB本资源提供了一份用于数据挖掘和分析出租车轨迹数据的Python源码。数据挖掘在当今信息时代扮演着重要的角色,而出租车轨迹数据分析则在交通领域中具有广泛的应用。该源码通过使用Python编程语言,提供了一套完整的分析工具,可以帮助用户对出租车轨迹数据进行深入挖掘和分析。 该源码使用数据集为纽约出租车轨迹数据2016.7-2016.12,包含了多种数据挖掘算法和技术,可以根据用户的需求生成各种统计图和分析图。例如,可以生成出租车轨迹的热力图、密度图、时间序列图等,以及对轨迹数据进行聚类分析、异常检测等。源码具有高效性和可扩展性,可以适应不同规模和类型的出租车轨迹数据。 此外,该资源还具有开源的特点,用户可以自由下载和使用,本资源提供了一份用于数据挖掘和分析出租车轨迹数据的Python源码。数据挖掘在当今信息时代扮演着重要的角色,而出租车轨迹数据分析则在交通领域中具有广泛的应用。该源码通过使用Python编程语言,提供了一套完整的分析工具,可以帮助用户对出租车轨迹数据进行深入挖掘和分析。 该源码使用数据集为纽约出租车轨迹数据2016.7-2016.12,包含了多种数据挖掘算法和技术,可以根据用户的需求生成各种统计图和分析图。例如,可以生成出租车轨迹的热力图、密度图、时间序列图等,以及对轨迹数据进行聚类分析、异常检测等。源码具有高效性和可扩展性,可以适应不同规模和类型的出租车轨迹数据。 此外,该资源还具有开源的特点,用户可以自由下载和使用,
0 257浏览
会员免费