- 数据挖掘大小:107KB数据中台整体架构设计图,从数据汇聚到数据分析到数据体系到数据挖掘到数据资产等,刻画出数据中台整体架构。数据中台整体架构设计图,从数据汇聚到数据分析到数据体系到数据挖掘到数据资产等,刻画出数据中台整体架构。0 19浏览会员免费
- golang大小:55KB使用go语言进行爬虫的小案例(爬取CSDN,哔哩哔哩,豆瓣电影等) CSDN/blink :爬取CSDN的blink的评论 CSDN/blog:爬取CSDN的博客评论 concurrency:实现单线程爬虫、channel并发爬虫、waitgroup并发爬虫 king_rank : 爬取 BiliBili 国王排名评论使用go语言进行爬虫的小案例(爬取CSDN,哔哩哔哩,豆瓣电影等) CSDN/blink :爬取CSDN的blink的评论 CSDN/blog:爬取CSDN的博客评论 concurrency:实现单线程爬虫、channel并发爬虫、waitgroup并发爬虫 king_rank : 爬取 BiliBili 国王排名评论0 9浏览会员免费
- Fortran大小:147KBFortran 2018 standard examples with broad applications Fortran 2018 standard examples with broad applications Fortran 2018 standard examples with broad applicationsFortran 2018 standard examples with broad applications Fortran 2018 standard examples with broad applications Fortran 2018 standard examples with broad applications0 3浏览会员免费
- 大数据大小:40KB数仓建模数仓建模0 15浏览会员免费
- tensorflow大小:14MB该资源是基于Python实现的大创项目,中医药知识图谱构建,资源下载者可以根据说明文档对项目的结构有一个大致的了解,主要实现如下: 1. 通过利用pandas库对数据清洗等初步处理后以实现基本实体及实体关系的确认,可实现将现有数据导入neo4j数据库形成基本的图谱; 2. 利用TensorFlow建立训练模型对【来源】,【用法用量】,【主治功能】,【性味】等存在大段文字的实体进行进一步的抽取,做到抽出准确词语; 3. 利用远程监督的方式(或者是其他的方式),对实体关系进行抽取。该资源是基于Python实现的大创项目,中医药知识图谱构建,资源下载者可以根据说明文档对项目的结构有一个大致的了解,主要实现如下: 1. 通过利用pandas库对数据清洗等初步处理后以实现基本实体及实体关系的确认,可实现将现有数据导入neo4j数据库形成基本的图谱; 2. 利用TensorFlow建立训练模型对【来源】,【用法用量】,【主治功能】,【性味】等存在大段文字的实体进行进一步的抽取,做到抽出准确词语; 3. 利用远程监督的方式(或者是其他的方式),对实体关系进行抽取。0 3628浏览会员免费
- 软件/插件大小:6KB开源光谱分析仪项目的代码,作出了一些改进: 1.添加了详细的中文注释; 2.把图片中的英文图例说明改成了中文图例,图例字体设置为宋体;开源光谱分析仪项目的代码,作出了一些改进: 1.添加了详细的中文注释; 2.把图片中的英文图例说明改成了中文图例,图例字体设置为宋体;0 12浏览会员免费
- uml大小:268KB数据流图和UML图有什么区别数据流图和UML图有什么区别0 21浏览会员免费
- 数据挖掘大小:218KB数据挖掘18大算法实现以及其他相关经典DM算法 算法目录 18大DM算法 包名 目录名 算法名 AssociationAnalysis DataMining_Apriori Apriori-关联规则挖掘算法 AssociationAnalysis DataMining_FPTree FPTree-频繁模式树算法 BaggingAndBoosting DataMining_AdaBoost AdaBoost-装袋提升算法 Classification DataMining_CART CART-分类回归树算法 Classification DataMining_ID3 ID3-决策树分类算法 Classification DataMining_KNN KNN-k最近邻算法工具类 Classification DataMining_NaiveBayes NaiveBayes-朴素贝叶斯算法 Clustering DataMining_BIRCH BIRCH-层次聚类算法 Clustering DataMining_KMeans KMeans-K均值算法 GraphMining DataMin数据挖掘18大算法实现以及其他相关经典DM算法 算法目录 18大DM算法 包名 目录名 算法名 AssociationAnalysis DataMining_Apriori Apriori-关联规则挖掘算法 AssociationAnalysis DataMining_FPTree FPTree-频繁模式树算法 BaggingAndBoosting DataMining_AdaBoost AdaBoost-装袋提升算法 Classification DataMining_CART CART-分类回归树算法 Classification DataMining_ID3 ID3-决策树分类算法 Classification DataMining_KNN KNN-k最近邻算法工具类 Classification DataMining_NaiveBayes NaiveBayes-朴素贝叶斯算法 Clustering DataMining_BIRCH BIRCH-层次聚类算法 Clustering DataMining_KMeans KMeans-K均值算法 GraphMining DataMin0 4浏览免费
- 数据集大小:217MB本资源为2020年 “华为杯”中国研究生数学建模大赛,C题数据集。 C题为脑机接口数据分析,睡眠分期分析。 该数据集包含原题目所有数据: 1.P300脑机接口数据 2.睡眠分期新数据 3.睡眠脑电数据 该数据集适用于对数学建模、数据分析有需求的人员,可以配合数据分析代码,实现睡眠分期项目开发。本资源为2020年 “华为杯”中国研究生数学建模大赛,C题数据集。 C题为脑机接口数据分析,睡眠分期分析。 该数据集包含原题目所有数据: 1.P300脑机接口数据 2.睡眠分期新数据 3.睡眠脑电数据 该数据集适用于对数学建模、数据分析有需求的人员,可以配合数据分析代码,实现睡眠分期项目开发。0 12浏览会员免费
- 机器学习大小:41MB机器学习入门KNN的案例机器学习入门KNN的案例0 7浏览会员免费
- python大小:260KB本书的中文名是利用python进行数据分析——第二版,学习所需要安装的环境是Anaconda,是2017年10月20号正式出版的,和第1版的不同之处有: 包括Python教程内的所有代码升级为Python 3.6(第1版使用的是Python 2.7) 更新了Anaconda和其它包的Python安装方法 更新了Pandas为2017最新版 新增了一章,关于更高级的Pandas工具,外加一些tips 简要介绍了使用StatsModels和scikit-learn 对有些内容进行了重新排版。最大的改变是把第1版附录中的Python教程,单列成了现在的第2章和第3章,并且进行了扩充。本书的中文名是利用python进行数据分析——第二版,学习所需要安装的环境是Anaconda,是2017年10月20号正式出版的,和第1版的不同之处有: 包括Python教程内的所有代码升级为Python 3.6(第1版使用的是Python 2.7) 更新了Anaconda和其它包的Python安装方法 更新了Pandas为2017最新版 新增了一章,关于更高级的Pandas工具,外加一些tips 简要介绍了使用StatsModels和scikit-learn 对有些内容进行了重新排版。最大的改变是把第1版附录中的Python教程,单列成了现在的第2章和第3章,并且进行了扩充。0 5浏览会员免费
- 大模型大小:46MBhttps://github.com/labring/FastGPT/blob/main/README.md code ziphttps://github.com/labring/FastGPT/blob/main/README.md code zip0 22浏览会员免费
- 大模型大小:34MBhttps://github.com/infiniflow/ragflow/ code文件https://github.com/infiniflow/ragflow/ code文件0 28浏览会员免费
- html大小:2MBJekyll 是一个简单的、博客感知的静态站点生成器,非常适合个人、项目或组织站点。可以将其视为基于文件的 CMS,但没有任何复杂性。 Jekyll 获取您的内容,呈现 Markdown 和 Liquid 模板,并生成一个完整的静态网站,可供 Apache、Nginx 或其他 Web 服务器提供服务。 Jekyll 是 GitHub Pages 背后的引擎,您可以使用它直接从 GitHub 存储库托管站点。 Jekyll 会按照你的指示去做——不多也不少。它不会试图通过做出大胆的假设来智取用户,也不会给他们带来不必要的复杂性和配置负担。简而言之,Jekyll 不会妨碍您,让您专注于真正重要的事情:您的内容。 请参阅:https://jekyllrb.com/philosophy 入门 安装宝石 了解其用法和配置 看看一些现有的网站 分叉并贡献您自己的修改 有疑问吗?查看我们的官方论坛社区 Jekyll Talk 和 Libera IRC 上的 #jekyll 频道Jekyll 是一个简单的、博客感知的静态站点生成器,非常适合个人、项目或组织站点。可以将其视为基于文件的 CMS,但没有任何复杂性。 Jekyll 获取您的内容,呈现 Markdown 和 Liquid 模板,并生成一个完整的静态网站,可供 Apache、Nginx 或其他 Web 服务器提供服务。 Jekyll 是 GitHub Pages 背后的引擎,您可以使用它直接从 GitHub 存储库托管站点。 Jekyll 会按照你的指示去做——不多也不少。它不会试图通过做出大胆的假设来智取用户,也不会给他们带来不必要的复杂性和配置负担。简而言之,Jekyll 不会妨碍您,让您专注于真正重要的事情:您的内容。 请参阅:https://jekyllrb.com/philosophy 入门 安装宝石 了解其用法和配置 看看一些现有的网站 分叉并贡献您自己的修改 有疑问吗?查看我们的官方论坛社区 Jekyll Talk 和 Libera IRC 上的 #jekyll 频道0 8浏览免费
- 机器学习大小:141KB机器学习与数据分析+python读取excel数据+北京市空气质量数据+通过多元线性回归模型对 PM2.5 进行预测。基于空气质量监测数据(北京市空气质量数据xlsx),讨论如何对PM2.5的浓度进行预测。由于 PM2.5 为数值型变量,其预测属于回归预测问题。首先,建立一元线性回归模型,通过分析 CO 对 PM2.5 的数量影响,对 PM2.5进行预测;然后,将SO,的影响考虑进来,通过多元线性回归模型对 PM2.5 进行预测。机器学习与数据分析+python读取excel数据+北京市空气质量数据+通过多元线性回归模型对 PM2.5 进行预测。基于空气质量监测数据(北京市空气质量数据xlsx),讨论如何对PM2.5的浓度进行预测。由于 PM2.5 为数值型变量,其预测属于回归预测问题。首先,建立一元线性回归模型,通过分析 CO 对 PM2.5 的数量影响,对 PM2.5进行预测;然后,将SO,的影响考虑进来,通过多元线性回归模型对 PM2.5 进行预测。0 67浏览会员免费
- 商业资料大小:159MB关于数据集 描述 这个合成数据集“欺诈性电子商务交易”旨在模拟来自电子商务平台的交易数据,重点是欺诈检测。它包含交易数据中常见的各种功能,以及专门设计用于支持欺诈检测算法的开发和测试的附加属性。 变量详情 交易ID:每笔交易的唯一标识符。 客户 ID:每个客户的唯一标识符。 交易金额:交易中交换的总金额。 交易日期:交易发生的日期和时间。 付款方式:用于完成交易的方式(例如信用卡、PayPal 等)。 产品类别:交易涉及的产品类别。 数量:交易涉及的产品数量。 客户年龄:进行交易的客户的年龄。 客户位置:客户的地理位置。 使用的设备:用于进行交易的设备类型(例如移动设备、桌面设备)。 IP 地址:用于交易的设备的 IP 地址。 送货地址:产品的发货地址。 帐单地址:与付款方式关联的地址。 Is Fraudulent:交易是否欺诈的二进制指标(1 表示欺诈,0 表示合法)。 账户期限天数:交易时客户账户的期限(以天为单位)。 交易时间:交易发生的时间。 目的 该数据集旨在用于开发和测试电子商务交易中欺诈检测的机器学习模型。它还可用于探索性数据分析、特征工程和基准欺诈检测算法。关于数据集 描述 这个合成数据集“欺诈性电子商务交易”旨在模拟来自电子商务平台的交易数据,重点是欺诈检测。它包含交易数据中常见的各种功能,以及专门设计用于支持欺诈检测算法的开发和测试的附加属性。 变量详情 交易ID:每笔交易的唯一标识符。 客户 ID:每个客户的唯一标识符。 交易金额:交易中交换的总金额。 交易日期:交易发生的日期和时间。 付款方式:用于完成交易的方式(例如信用卡、PayPal 等)。 产品类别:交易涉及的产品类别。 数量:交易涉及的产品数量。 客户年龄:进行交易的客户的年龄。 客户位置:客户的地理位置。 使用的设备:用于进行交易的设备类型(例如移动设备、桌面设备)。 IP 地址:用于交易的设备的 IP 地址。 送货地址:产品的发货地址。 帐单地址:与付款方式关联的地址。 Is Fraudulent:交易是否欺诈的二进制指标(1 表示欺诈,0 表示合法)。 账户期限天数:交易时客户账户的期限(以天为单位)。 交易时间:交易发生的时间。 目的 该数据集旨在用于开发和测试电子商务交易中欺诈检测的机器学习模型。它还可用于探索性数据分析、特征工程和基准欺诈检测算法。0 51浏览会员免费
- postgresql大小:755KB【kettle012】kettle访问FTP服务器文件并处理数据至PostgreSQL【kettle012】kettle访问FTP服务器文件并处理数据至PostgreSQL0 18浏览会员免费
- r语言大小:12MBR语言数据分析案例 【作品名称】:使用R语言对疫情大数据进行自然语言处理和分析建模 【适用人群】:适用于希望学习不同技术领域的小白或进阶学习者。可作为毕设项目、课程设计、大作业、工程实训或初期项目立项。R语言数据分析案例 【作品名称】:使用R语言对疫情大数据进行自然语言处理和分析建模 【适用人群】:适用于希望学习不同技术领域的小白或进阶学习者。可作为毕设项目、课程设计、大作业、工程实训或初期项目立项。0 38浏览免费
- 数据分析大小:4MB【数据分析】说明:建模分析股票市场数据,利用R语言进行数据分析,包括画图 文件列表: 4建模分析股票市场数据\.RData(2448278,2017-11-27) 4建模分析股票市场数据\.Rhistory(19776,2017-11-27) 4建模分析股票市场数据\AAN.csv(463709,2017-11-27) 4建模分析股票市场数据\codes.R(5493,2017-11-27) 4建模分析股票市场数据\finviz.csv(2776275,2014-08-02) 4建模分析股票市场数据\MAIN.csv(105464,2017-11-27) 4建模分析股票市场数据\NRCIB.csv(252867,2017-11-27) 4建模分析股票市场数据\OMI.csv(482704,2017-11-27) 4建模分析股票市场数据\stock_price_0.png(59114,2017-11-27) 4建模分析股票市场数据\stock_price_1.png(71885,2017-11-27) 4建模分析股票市场数据\stock_price_2.png(66500,2017-11【数据分析】说明:建模分析股票市场数据,利用R语言进行数据分析,包括画图 文件列表: 4建模分析股票市场数据\.RData(2448278,2017-11-27) 4建模分析股票市场数据\.Rhistory(19776,2017-11-27) 4建模分析股票市场数据\AAN.csv(463709,2017-11-27) 4建模分析股票市场数据\codes.R(5493,2017-11-27) 4建模分析股票市场数据\finviz.csv(2776275,2014-08-02) 4建模分析股票市场数据\MAIN.csv(105464,2017-11-27) 4建模分析股票市场数据\NRCIB.csv(252867,2017-11-27) 4建模分析股票市场数据\OMI.csv(482704,2017-11-27) 4建模分析股票市场数据\stock_price_0.png(59114,2017-11-27) 4建模分析股票市场数据\stock_price_1.png(71885,2017-11-27) 4建模分析股票市场数据\stock_price_2.png(66500,2017-110 42浏览会员免费
- 数据集大小:49MB关于数据集 该数据集包含从该地区的普吉特海湾、湖泊和溪流收集的水质样本。 样品 ID:每个采集样品的唯一标识符。 抓取 ID:与样本关联的特定抓取实例的标识符。 配置文件 ID:与样本关联的配置文件的标识符。 样品编号:分配给每个样品的序列号。 收集日期时间:收集样本的日期和时间。 深度(米):收集样本的深度,以米为单位。 地点类型:样本采集地点的类型(例如河流、湖泊、水井)。 区域:收集样本的地理区域或区域。 定位器:指示样本精确位置的定位器信息。 地点:收集样本的特定地点或位置。 参数:样品中测量或分析的参数(例如,pH、溶解氧)。 值:样品中测量的参数值。 单位:参数值的测量单位。 QualityId:指示数据质量的标识符。 实验室限定符:由实验室指定的限定符,表明样品的任何特殊条件或特征。 MDL(方法检测限):参数的方法检测限。 RDL(报告检测限):报告参数的检测限。 文本值:参数值的文本表示。 样本信息:与样本相关的附加信息。 管理员注释:数据管理员提供的注释或评论。 重复次数:样本的重复次数。 重复项:指示重复样本的标识符。 方法:用于分析或测量的方法。关于数据集 该数据集包含从该地区的普吉特海湾、湖泊和溪流收集的水质样本。 样品 ID:每个采集样品的唯一标识符。 抓取 ID:与样本关联的特定抓取实例的标识符。 配置文件 ID:与样本关联的配置文件的标识符。 样品编号:分配给每个样品的序列号。 收集日期时间:收集样本的日期和时间。 深度(米):收集样本的深度,以米为单位。 地点类型:样本采集地点的类型(例如河流、湖泊、水井)。 区域:收集样本的地理区域或区域。 定位器:指示样本精确位置的定位器信息。 地点:收集样本的特定地点或位置。 参数:样品中测量或分析的参数(例如,pH、溶解氧)。 值:样品中测量的参数值。 单位:参数值的测量单位。 QualityId:指示数据质量的标识符。 实验室限定符:由实验室指定的限定符,表明样品的任何特殊条件或特征。 MDL(方法检测限):参数的方法检测限。 RDL(报告检测限):报告参数的检测限。 文本值:参数值的文本表示。 样本信息:与样本相关的附加信息。 管理员注释:数据管理员提供的注释或评论。 重复次数:样本的重复次数。 重复项:指示重复样本的标识符。 方法:用于分析或测量的方法。0 47浏览会员免费
- 数据集大小:5MB关于数据集 该数据集包括所有拥有 TLC 许可且信誉良好且能够驾驶的出租车辆。 TLC 授权的可用出租车辆。此列表准确至“上次更新日期”和“上次更新时间”字段中显示的日期和时间。 对于数据科学家来说,该数据集是分析出租汽车行业构成、了解服务分布(例如轮椅无障碍车辆的流行程度)以及根据许可证到期和续签评估市场动态的丰富资源。此外,它还可用于: 空间分析,根据基址了解不同区域出租车辆的分布情况。 时间分析通过比较不同日期的数据集来跟踪 FHV 行业随时间的变化。 监管合规性监控,例如确保车辆获得适当许可并满足轮椅无障碍等特定服务标准。关于数据集 该数据集包括所有拥有 TLC 许可且信誉良好且能够驾驶的出租车辆。 TLC 授权的可用出租车辆。此列表准确至“上次更新日期”和“上次更新时间”字段中显示的日期和时间。 对于数据科学家来说,该数据集是分析出租汽车行业构成、了解服务分布(例如轮椅无障碍车辆的流行程度)以及根据许可证到期和续签评估市场动态的丰富资源。此外,它还可用于: 空间分析,根据基址了解不同区域出租车辆的分布情况。 时间分析通过比较不同日期的数据集来跟踪 FHV 行业随时间的变化。 监管合规性监控,例如确保车辆获得适当许可并满足轮椅无障碍等特定服务标准。0 44浏览会员免费
- 数据集大小:6MB关于数据集 该数据集显示了目前通过华盛顿州许可部 (DOL) 注册的电池电动汽车 (BEV) 和插电式混合动力电动汽车 (PHEV)。 电池电动汽车 (BEV) 是一种全电动汽车,使用一个或多个电池来存储电能,为电机提供动力,并通过将车辆插入电源进行充电。插电式混合动力汽车 (PHEV) 是一种使用一个或多个电池为电动机提供动力的车辆;使用另一种燃料,例如汽油或柴油,为内燃机或其他推进源提供动力;并通过将车辆插入电源来充电。 清洁替代燃料汽车 (CAFV) 资格基于 RCW 82.08.809 和 RCW 82.12.809 中概述的燃料要求和纯电动续航里程要求,才有资格获得替代燃料汽车零售和华盛顿州使用税豁免。这些车辆的销售或租赁必须在 2019 年 8 月 1 日或之后进行,并满足购买价格要求,才有资格获得替代燃料汽车零售和华盛顿州使用税豁免。 某个县的每月车辆数量可能与本报告和之前的报告相比有所变化。实施流程是为了在注册时更准确地分配县。 更新日期:2024 年 3 月 12 日关于数据集 该数据集显示了目前通过华盛顿州许可部 (DOL) 注册的电池电动汽车 (BEV) 和插电式混合动力电动汽车 (PHEV)。 电池电动汽车 (BEV) 是一种全电动汽车,使用一个或多个电池来存储电能,为电机提供动力,并通过将车辆插入电源进行充电。插电式混合动力汽车 (PHEV) 是一种使用一个或多个电池为电动机提供动力的车辆;使用另一种燃料,例如汽油或柴油,为内燃机或其他推进源提供动力;并通过将车辆插入电源来充电。 清洁替代燃料汽车 (CAFV) 资格基于 RCW 82.08.809 和 RCW 82.12.809 中概述的燃料要求和纯电动续航里程要求,才有资格获得替代燃料汽车零售和华盛顿州使用税豁免。这些车辆的销售或租赁必须在 2019 年 8 月 1 日或之后进行,并满足购买价格要求,才有资格获得替代燃料汽车零售和华盛顿州使用税豁免。 某个县的每月车辆数量可能与本报告和之前的报告相比有所变化。实施流程是为了在注册时更准确地分配县。 更新日期:2024 年 3 月 12 日0 55浏览会员免费
- python大小:62MBPython 图机器学习算法库graphkit-learn-master.zipPython 图机器学习算法库graphkit-learn-master.zip0 19浏览会员免费
- 数据挖掘大小:332KBpanda练习文件2panda练习文件20 13浏览会员免费
- 数据挖掘大小:152MBpanda练习文件环境panda练习文件环境0 8浏览会员免费
- 数据挖掘大小:23KBpanda练习文件panda练习文件0 25浏览会员免费
- pandas大小:108KB数据可视化(六):Pandas爬取NBA球队排名、爬取历年中国人口数据、爬取中国大学排名、爬取sina股票数据、绘制精美函数图像数据可视化(六):Pandas爬取NBA球队排名、爬取历年中国人口数据、爬取中国大学排名、爬取sina股票数据、绘制精美函数图像0 67浏览会员免费
- 数据集大小:14KB【数据可视化】说明:按照给定的数据集,采用Python可视化软件,独立完成一个数据可视化案例 【数据可视化】说明:按照给定的数据集,采用Python可视化软件,独立完成一个数据可视化案例【数据可视化】说明:按照给定的数据集,采用Python可视化软件,独立完成一个数据可视化案例 【数据可视化】说明:按照给定的数据集,采用Python可视化软件,独立完成一个数据可视化案例0 34浏览会员免费
- 大数据大小:1MB大数据平台前端开发(Front end development of big data platform,) 说明:大数据平台前端开发, (Front end development of big data platform,) 文件列表: .DS_Store (10244, 2023-09-16) .browserslistrc (30, 2023-09-16) .editorconfig (713, 2023-09-16) .env.development (40, 2023-09-16) .env.production (208, 2023-09-16) .env.staging (113, 2023-09-16) .eslintignore (56, 2023-09-16) .eslintrc.js (1538, 2023-09-16) LICENSE (1066, 2023-09-16) babel.config.js (468, 2023-09-16) demo/ (0, 2023-09-16) demo/dashboard.png (573068, 2023-09-16)大数据平台前端开发(Front end development of big data platform,) 说明:大数据平台前端开发, (Front end development of big data platform,) 文件列表: .DS_Store (10244, 2023-09-16) .browserslistrc (30, 2023-09-16) .editorconfig (713, 2023-09-16) .env.development (40, 2023-09-16) .env.production (208, 2023-09-16) .env.staging (113, 2023-09-16) .eslintignore (56, 2023-09-16) .eslintrc.js (1538, 2023-09-16) LICENSE (1066, 2023-09-16) babel.config.js (468, 2023-09-16) demo/ (0, 2023-09-16) demo/dashboard.png (573068, 2023-09-16)0 6浏览会员免费
- 大数据大小:203MB大数据分析思维是一种结构化的分析方法,它涉及到从不同角度理解和解析数据,以便更好地支持决策过程。这种思维方式通常包括以下几个核心方面: 结构化分析:将复杂问题分解成小部分,逐步解决。 公式化方法:使用数学和统计模型来理解数据关系。 业务化理解:将数据分析与实际业务需求相结合,确保分析结果具有实际应用价值。 数据分析思维的目标是通过对数据的深入分析,发现潜在的模式、趋势和关联,从而提供有力的业务洞察。这种思维方式对于数据科学家、分析师和业务决策者来说都是非常重要的。它不仅帮助他们更好地理解数据,还能够指导他们如何利用数据来优化业务流程和策略。在大数据时代,掌握数据分析思维是成功的关键。大数据分析思维是一种结构化的分析方法,它涉及到从不同角度理解和解析数据,以便更好地支持决策过程。这种思维方式通常包括以下几个核心方面: 结构化分析:将复杂问题分解成小部分,逐步解决。 公式化方法:使用数学和统计模型来理解数据关系。 业务化理解:将数据分析与实际业务需求相结合,确保分析结果具有实际应用价值。 数据分析思维的目标是通过对数据的深入分析,发现潜在的模式、趋势和关联,从而提供有力的业务洞察。这种思维方式对于数据科学家、分析师和业务决策者来说都是非常重要的。它不仅帮助他们更好地理解数据,还能够指导他们如何利用数据来优化业务流程和策略。在大数据时代,掌握数据分析思维是成功的关键。0 20浏览会员免费
- 人工智能大小:217KB大模型Sora:开启人工智能视频生成新时代 一、Sora简介大模型Sora:开启人工智能视频生成新时代 一、Sora简介0 53浏览会员免费
- flask大小:2MB下载完对应的数据集之后需解压对应的zip包 本项目下面有四个.ipynb的文件,下面分别阐述各个文件所对应的功能:(有py版本 可后台留言) 数据采集:分别从前程无忧网站和猎聘网上以关键词数据挖掘爬取相关数据。其中,前程无忧上爬取了270页,有超过1万多条数据;而猎聘网上只爬取了400多条数据,主要为岗位要求文本数据,最后将爬取到的数据全部储存到csv文件中。 数据清洗:对爬取到的数据进行清洗,包括去重去缺失值、变量重编码、特征字段创造、文本分词等。 数据库存储:将清洗后的数据全部储存到MySQL中,其中对文本数据使用jieba.analyse下的extract_tags来获取文本中的关键词和权重大小,方便绘制词云。 基于Flask的前后端交互:使用Python一个小型轻量的Flask框架来进行Web可视化系统的搭建,在static中有css和js文件,js中大多为百度开源的ECharts,再通过自定义controller.js来使用ajax调用flask已设定好的路由,将数据异步刷新到templates下的main.html中。下载完对应的数据集之后需解压对应的zip包 本项目下面有四个.ipynb的文件,下面分别阐述各个文件所对应的功能:(有py版本 可后台留言) 数据采集:分别从前程无忧网站和猎聘网上以关键词数据挖掘爬取相关数据。其中,前程无忧上爬取了270页,有超过1万多条数据;而猎聘网上只爬取了400多条数据,主要为岗位要求文本数据,最后将爬取到的数据全部储存到csv文件中。 数据清洗:对爬取到的数据进行清洗,包括去重去缺失值、变量重编码、特征字段创造、文本分词等。 数据库存储:将清洗后的数据全部储存到MySQL中,其中对文本数据使用jieba.analyse下的extract_tags来获取文本中的关键词和权重大小,方便绘制词云。 基于Flask的前后端交互:使用Python一个小型轻量的Flask框架来进行Web可视化系统的搭建,在static中有css和js文件,js中大多为百度开源的ECharts,再通过自定义controller.js来使用ajax调用flask已设定好的路由,将数据异步刷新到templates下的main.html中。0 24浏览会员免费
- 毕业设计大小:128KB2024mathorcup2024MathorCup数学建模竞赛是一个面向全球大学生的数学建模竞赛,旨在提高学生的数学建模能力和创新思维。它由清华大学、中国科学院数学与系统科学研究院等单位共同举办,分为本科组和研究生组。参赛者需要在规定的时间内完成数学建模题目,并提交论文。 2024MathorCup的核心功能包括赛题发布、在线提交、评审机制和获奖公示。这些功能帮助参赛者了解比赛情况,提交作品,并了解评审结果。 此外,2024MathorCup还提供了高级功能,如在线讨论区、赛事直播、专家点评和获奖作品展示。这些功能可以进一步提高参赛者的数学建模能力和解决问题能力,结识志同道合的朋友,获得行业认可。 参与2024MathorCup非常简单。首先,需要在MathorCup官方网站注册账号,并报名参加相应的组别。报名成功后,根据赛题要求,在规定的时间内完成数学建模题目,并提交论文。 2024MathorCup适用于多种实际应用场景,如提高数学建模能力、展示个人才华、结识业界精英和获得行业认可。在实际应用中,2024MathorCup可以帮助参赛者提高数学建模能力,结识志同道合的朋友,获得行2024mathorcup2024MathorCup数学建模竞赛是一个面向全球大学生的数学建模竞赛,旨在提高学生的数学建模能力和创新思维。它由清华大学、中国科学院数学与系统科学研究院等单位共同举办,分为本科组和研究生组。参赛者需要在规定的时间内完成数学建模题目,并提交论文。 2024MathorCup的核心功能包括赛题发布、在线提交、评审机制和获奖公示。这些功能帮助参赛者了解比赛情况,提交作品,并了解评审结果。 此外,2024MathorCup还提供了高级功能,如在线讨论区、赛事直播、专家点评和获奖作品展示。这些功能可以进一步提高参赛者的数学建模能力和解决问题能力,结识志同道合的朋友,获得行业认可。 参与2024MathorCup非常简单。首先,需要在MathorCup官方网站注册账号,并报名参加相应的组别。报名成功后,根据赛题要求,在规定的时间内完成数学建模题目,并提交论文。 2024MathorCup适用于多种实际应用场景,如提高数学建模能力、展示个人才华、结识业界精英和获得行业认可。在实际应用中,2024MathorCup可以帮助参赛者提高数学建模能力,结识志同道合的朋友,获得行0 80浏览会员免费
- opencv大小:54KB识别猫脸 haarcascade_frontalcatface_extended.xml识别猫脸 haarcascade_frontalcatface_extended.xml0 10浏览会员免费
- 大数据大小:112KB大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip0 19浏览会员免费
- docker大小:111KB大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip 大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip大数据开发学习环境.zip 大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip大数据开发学习环境docker.zip0 26浏览会员免费
- docker大小:103KBdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境docker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境.zipdocker构建大数据开发学习环境0 16浏览会员免费
- 大数据大小:15MB大数据作业homework-master.zip大数据作业homework-master.zip0 6浏览会员免费
- 数据分析大小:1MBDeta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率Deta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率0 16浏览免费
- 数据挖掘大小:324KB数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类0 23浏览免费
- python大小:622B使用Python实现给图片添加水印使用Python实现给图片添加水印0 20浏览会员免费
- python大小:724KB数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现0 65浏览会员免费
- python大小:1MB本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。0 129浏览会员免费
- 编程语言大小:534KBscratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。0 15浏览会员免费
- 大数据大小:665KB【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程0 16浏览会员免费
- 数据挖掘大小:2MB数据挖掘与分析学习笔记数据数据挖掘与分析学习笔记数据0 28浏览会员免费
- 求职面试大小:237KB数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。0 12浏览会员免费
- tensorflow大小:658KB【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r0 13浏览会员免费
- 数据库大小:8KB学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块0 20浏览会员免费
- 数据挖掘大小:4MB数据挖掘graphviz-install-2.44.1-win64安装数据挖掘graphviz-install-2.44.1-win64安装0 12浏览会员免费
- 数据集大小:25KB完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM0 14浏览会员免费
- 数据挖掘大小:5MB数据挖掘与机器学习-实验,上课代码+实验数据挖掘与机器学习-实验,上课代码+实验0 27浏览会员免费
- 软件/插件大小:912KB基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。0 171浏览会员免费
- 数据分析大小:6MB第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析0 22浏览会员免费
- flask大小:1MB大数据实践项目 - nginx 日志分析可视化 功能说明 通过流、批两种方式,分析 nginx 日志,将分析结果通过 flask + echarts 进行可视化展示大数据实践项目 - nginx 日志分析可视化 功能说明 通过流、批两种方式,分析 nginx 日志,将分析结果通过 flask + echarts 进行可视化展示0 25浏览会员免费
- 大数据大小:7KB大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip大数据与统计分析实验报告.zip0 31浏览会员免费
- 数据挖掘大小:1MB文件包括: 1.睡眠分期SharpWaves电信号分类Python脚本 2.SharpWaves电信号数据文件 3.相似度与相异性计算结果 4.分类结果并绘图文件包括: 1.睡眠分期SharpWaves电信号分类Python脚本 2.SharpWaves电信号数据文件 3.相似度与相异性计算结果 4.分类结果并绘图0 17浏览会员免费
- python大小:12KB内容概要: 本资源为【数学建模】2020年C题——睡眠分期题目的Python处理代码。该代码旨在帮助参赛者分析和处理与睡眠分期相关的数据,包括数据加载、预处理、特征提取、模型构建与训练,以及结果输出等步骤。代码采用了Python语言编写,充分利用了pandas、numpy、scipy等科学计算库的功能,实现了对睡眠数据的自动化处理和分析。 使用人群: 本资源适用于参加数学建模竞赛的参赛者,特别是针对睡眠分期类似题目的参赛者。 使用场景及目标: 本资源的使用场景为数学建模竞赛中的数据处理和分析环节。使用本代码可以帮助参赛者快速有效地处理睡眠分期数据,提取有用的特征,并构建分类模型来识别不同的睡眠阶段。 其他说明: 本代码仅为示例代码,具体实现可能需要根据实际数据和题目要求进行适当的修改和调整。 在使用本代码前,请确保已经安装了Python及其相关科学计算库,pandas、numpy、scipy等。 本代码仅为参赛者提供一个参考和起点,参赛者需要根据自己的理解和创新,进一步完善和优化代码,以达到更好的竞赛效果。内容概要: 本资源为【数学建模】2020年C题——睡眠分期题目的Python处理代码。该代码旨在帮助参赛者分析和处理与睡眠分期相关的数据,包括数据加载、预处理、特征提取、模型构建与训练,以及结果输出等步骤。代码采用了Python语言编写,充分利用了pandas、numpy、scipy等科学计算库的功能,实现了对睡眠数据的自动化处理和分析。 使用人群: 本资源适用于参加数学建模竞赛的参赛者,特别是针对睡眠分期类似题目的参赛者。 使用场景及目标: 本资源的使用场景为数学建模竞赛中的数据处理和分析环节。使用本代码可以帮助参赛者快速有效地处理睡眠分期数据,提取有用的特征,并构建分类模型来识别不同的睡眠阶段。 其他说明: 本代码仅为示例代码,具体实现可能需要根据实际数据和题目要求进行适当的修改和调整。 在使用本代码前,请确保已经安装了Python及其相关科学计算库,pandas、numpy、scipy等。 本代码仅为参赛者提供一个参考和起点,参赛者需要根据自己的理解和创新,进一步完善和优化代码,以达到更好的竞赛效果。0 84浏览会员免费
- 数据挖掘大小:2KB本资源提供了一份用于数据挖掘和分析出租车轨迹数据的Python源码。数据挖掘在当今信息时代扮演着重要的角色,而出租车轨迹数据分析则在交通领域中具有广泛的应用。该源码通过使用Python编程语言,提供了一套完整的分析工具,可以帮助用户对出租车轨迹数据进行深入挖掘和分析。 该源码使用数据集为纽约出租车轨迹数据2016.7-2016.12,包含了多种数据挖掘算法和技术,可以根据用户的需求生成各种统计图和分析图。例如,可以生成出租车轨迹的热力图、密度图、时间序列图等,以及对轨迹数据进行聚类分析、异常检测等。源码具有高效性和可扩展性,可以适应不同规模和类型的出租车轨迹数据。 此外,该资源还具有开源的特点,用户可以自由下载和使用,本资源提供了一份用于数据挖掘和分析出租车轨迹数据的Python源码。数据挖掘在当今信息时代扮演着重要的角色,而出租车轨迹数据分析则在交通领域中具有广泛的应用。该源码通过使用Python编程语言,提供了一套完整的分析工具,可以帮助用户对出租车轨迹数据进行深入挖掘和分析。 该源码使用数据集为纽约出租车轨迹数据2016.7-2016.12,包含了多种数据挖掘算法和技术,可以根据用户的需求生成各种统计图和分析图。例如,可以生成出租车轨迹的热力图、密度图、时间序列图等,以及对轨迹数据进行聚类分析、异常检测等。源码具有高效性和可扩展性,可以适应不同规模和类型的出租车轨迹数据。 此外,该资源还具有开源的特点,用户可以自由下载和使用,0 257浏览会员免费
- 大数据大小:103KB当谈到大数据分析和预测时,纽约出租车轨迹数据是一个非常有价值的资源。这些数据包含了纽约市出租车的行驶轨迹、时间、地点等信息,可以用于各种分析和预测任务。以下资源简介: 数据来源:纽约出租车管理委员会官方的乘车数据 数据概述:包含2016.7-2016.12 纽约出租车轨迹数据,乘用时间,距离,人数,付费方式,付费金额等 数据格式:CSV文件 数据质量:数据完整可靠 数据用途:纽约出租车轨迹数据可以用于交通流量分析、乘客行为模式分析、交通拥堵预测等。当谈到大数据分析和预测时,纽约出租车轨迹数据是一个非常有价值的资源。这些数据包含了纽约市出租车的行驶轨迹、时间、地点等信息,可以用于各种分析和预测任务。以下资源简介: 数据来源:纽约出租车管理委员会官方的乘车数据 数据概述:包含2016.7-2016.12 纽约出租车轨迹数据,乘用时间,距离,人数,付费方式,付费金额等 数据格式:CSV文件 数据质量:数据完整可靠 数据用途:纽约出租车轨迹数据可以用于交通流量分析、乘客行为模式分析、交通拥堵预测等。0 46浏览会员免费