![](https://csdnimg.cn/release/downloadcmsfe/public/img/no-data.51c5211b.png)
![](https://csdnimg.cn/release/downloadcmsfe/public/img/good-course.ff455529.png)
- 劳动节庆祝活动矢量海报范文/模板/素材大小:681KB劳动节庆祝活动矢量海报适用于劳动节庆祝活动宣传、劳动节主题演讲或报告、工会或劳工组织的品牌材料、劳动节社交媒体和网站图形等相关设计的AI格式素材。劳动节庆祝活动矢量海报适用于劳动节庆祝活动宣传、劳动节主题演讲或报告、工会或劳工组织的品牌材料、劳动节社交媒体和网站图形等相关设计的AI格式素材。
0 18浏览
会员免费 - 二手车交易数据分析与可视化系统.rar数据分析大小:2MB该系统项目涉及Python爬虫、前后端、Mysql数据库该系统项目涉及Python爬虫、前后端、Mysql数据库
0 113浏览
会员免费 - 爬取前程无忧网中大数据相关岗位数据并可视化分析.rar大数据大小:6MB# 51job_spiders 前程无忧爬虫 【程序运行前确保项目需要的库都已下载】 # 数据爬取: ``` 1、修改51job_info.py代码66行,根据需要修改页数,默认2页,数据分析需要海量数据时可修改成1000页 2、运行51job_info.py 3、输入职位关键词 如:大数据、C语言、软件开发 4、爬取到的数据将储存在51job.xls ``` 程序中注释内容包含大量调试信息,遇到异常时可以打开注释,查看运行情况 爬取过程中因为单页内容较多,请耐心等候 如果程序未能爬取到信息,可能的原因是缺少包,或者该网页源码被修改,需要重新定义正则 # 数据清洗与数据可视化 ``` 1、运行51job_clean.py 2、代码默认对职位的清洗条件的非大数据相关的职位,需要根据你们搜索的职位自行修改 3、清洗后的数据将储存在51job2.xls,(若清洗后的数据中还有错误数据,可修改清洗条件或手动将错误数据删除) 4、运行51job_view.py 4、pyecharts动态图将生成 .html 文件,用浏览器打开即可 ```# 51job_spiders 前程无忧爬虫 【程序运行前确保项目需要的库都已下载】 # 数据爬取: ``` 1、修改51job_info.py代码66行,根据需要修改页数,默认2页,数据分析需要海量数据时可修改成1000页 2、运行51job_info.py 3、输入职位关键词 如:大数据、C语言、软件开发 4、爬取到的数据将储存在51job.xls ``` 程序中注释内容包含大量调试信息,遇到异常时可以打开注释,查看运行情况 爬取过程中因为单页内容较多,请耐心等候 如果程序未能爬取到信息,可能的原因是缺少包,或者该网页源码被修改,需要重新定义正则 # 数据清洗与数据可视化 ``` 1、运行51job_clean.py 2、代码默认对职位的清洗条件的非大数据相关的职位,需要根据你们搜索的职位自行修改 3、清洗后的数据将储存在51job2.xls,(若清洗后的数据中还有错误数据,可修改清洗条件或手动将错误数据删除) 4、运行51job_view.py 4、pyecharts动态图将生成 .html 文件,用浏览器打开即可 ```
0 124浏览
会员免费 - 花粉俱乐部Mate60手机系列用户发帖数据爬虫.rarRAR大小:103KB爬取花粉俱乐部中华为Mate60手机系列的用户发帖数据,包括'用户名','用户ID','发帖时间','类别标签','系列名称','粉丝数','帖子热度','是否有图片','图片数量', '是否有视频','帖子内容','纬度','经度','点赞数','定位城市','设备名','回复数','帖子标题','阅读量', '话题名称','话题文章数','话题简介','话题参与人数','话题阅读量'爬取花粉俱乐部中华为Mate60手机系列的用户发帖数据,包括'用户名','用户ID','发帖时间','类别标签','系列名称','粉丝数','帖子热度','是否有图片','图片数量', '是否有视频','帖子内容','纬度','经度','点赞数','定位城市','设备名','回复数','帖子标题','阅读量', '话题名称','话题文章数','话题简介','话题参与人数','话题阅读量'
0 51浏览
会员免费 - 基于Python大数据的民宿评论数据情感分析系统.rarpython大小:13MB基于Python大数据的民宿评论数据情感分析系统,设计大数据、爬虫、前后端、Mysql数据库的知识,最后做出一个可视化大屏基于Python大数据的民宿评论数据情感分析系统,设计大数据、爬虫、前后端、Mysql数据库的知识,最后做出一个可视化大屏
0 165浏览
会员免费 - txt格式和图片的批次自动化代入加处理范文/模板/素材大小:1KBtxt格式和图片的批次自动化代入加处理。下载后直接传入文件路径即可运行。txt格式和图片的批次自动化代入加处理。下载后直接传入文件路径即可运行。
0 18浏览
会员免费 - PY爬虫代码,针对有反爬机制的网站非常好用,更能定义头部软件/插件大小:879B遇到有反爬机制的网站怎么办,用我这个python爬虫代码,能解决大部份问题,当然IP问题不在这个代码中。非常好用,更能定义头部。遇到有反爬机制的网站怎么办,用我这个python爬虫代码,能解决大部份问题,当然IP问题不在这个代码中。非常好用,更能定义头部。
0 17浏览
会员免费 - 数据挖掘-序列模式挖掘及其算法的python实现数据挖掘大小:3KB数据挖掘|序列模式挖掘及其算法的python实现数据挖掘|序列模式挖掘及其算法的python实现
0 85浏览
会员免费 - 大数据作业homework-master.zip大数据大小:15MB大数据作业homework-master.zip大数据作业homework-master.zip
0 6浏览
会员免费 - 主题探索用的图片.Rdatar语言大小:2MB用于探索学习如何使用ggplot2的主题用于探索学习如何使用ggplot2的主题
0 7浏览
会员免费 - 数据挖掘-关联分析与Apriori算法详解数据挖掘大小:21KB数据挖掘|关联分析与Apriori算法详解数据挖掘|关联分析与Apriori算法详解
0 110浏览
会员免费 - 小白读《R语言实战》写的读书笔记(第八章)R语言大小:40KB小白读《R语言实战》写的读书笔记(第八章)小白读《R语言实战》写的读书笔记(第八章)
0 13浏览
会员免费 - 德塔数据分析ETL源代码数据可视化数据分析ETL数据分析大小:1MBDeta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率Deta ETL AI Workflow Tool Software是一款功能强大的系统,专为在数据挖掘操作中执行基于节点的数据工作流而设计。该软件采用了一种名为VPCS的结构,使其成为世界上最轻的ETL批处理引擎,仅有6KB的大小。这使得它具有快速启动、高效率、简单操作、轻量级结构、Web嵌入、快速执行、高并发、易于二次开发以及自由修改源代码的优点。 Deta ETL AI Workflow Tool Software的快速启动和高效率使其成为处理大量数据的理想选择。用户可以通过简单的操作来创建和管理工作流,而不需要复杂的设置和配置。软件的轻量级结构使其在资源消耗方面非常低,可以在各种环境中运行,而不会对系统的性能产生太大的影响。 另外,Deta ETL AI Workflow Tool Software还具有Web嵌入功能,可以方便地与其他应用程序集成。用户可以通过Web界面来管理和监控工作流的运行情况,从而更加便捷地进行操作和控制。 此外,该软件还支持快速执行和高并发。它可以同时处理多个任务,并能够在短时间内完成大量的数据处理操作。这使得用户可更快地完成数据挖掘工作,提高工作效率
0 16浏览
免费 - 数据挖掘算法软件(ID3、K-means)揭示隐藏在数据背后的有价值信息数据挖掘大小:324KB数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类数据挖掘算法是一种从大量数据中发现模式和关系的过程,以揭示隐藏在数据背后的有价值信息。其中,ID3和K-means是两种常用的数据挖掘算法。ID3(Iterative Dichotomiser 3)是一种用于分类的决策树算法。它通过递归地将数据集分割成较小的子集,并根据特征的信息增益选择最佳的分裂点,从而构建一个分类决策树。ID3算法简单且易于理解,适用于处理离散型数据,但对噪声和缺失值敏感。K-means是一种聚类算法,旨在将数据点分成K个不同的簇,使得同一簇内的数据点相似度较高,而不同簇之间的相似度较低。该算法通过迭代计算数据点与簇中心的距离,并不断更新簇中心,直至收敛于最优解。K-means算法简单高效,适用于处理大规模数据集,但对初始簇中心的选择敏感,且对异常值较为敏感。总的来说,ID3适用于分类问题,而K-means适用于聚类问题。它们在数据挖掘领域有着广泛的应用,并为研究人员和数据分析师提供了强大的工具来挖掘数据中的潜在模式和信息。数据挖掘算法是揭示数据内部模式和关系的利器。ID3以信息增益构建分类决策树,适用于处理离散型数据;K-means通过迭代更新簇中心实现数据聚类
0 24浏览
免费 - 使用Python实现给图片添加水印python大小:622B使用Python实现给图片添加水印使用Python实现给图片添加水印
0 21浏览
会员免费 - 聚类分析-基于密度的聚类方法DBSCAN及其Python实现 包含数据集python大小:724KB数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现
0 66浏览
会员免费 - DBN-DeepL.rarDBN大小:43MBDBN-DeepL.rarDBN-DeepL.rar
0 7浏览
会员免费 - MatlabCNN.rarmatlabcnn大小:18MBMatlabCNN.rarMatlabCNN.rar
0 16浏览
会员免费 - 聚类分析-基于密度的聚类方法DBSCAN及其Python实现python大小:213KB数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现数据挖掘|聚类分析|基于密度的聚类方法DBSCAN及其Python实现
0 54浏览
会员免费 - MATLAB-RNN预测.rarmatlab大小:5KBMATLAB-RNN预测.rarMATLAB-RNN预测.rar
0 16浏览
会员免费 - load-123.rarload大小:40MBload-123.rarload-123.rar
0 9浏览
会员免费 - BPNN-预测.rarRAR大小:13KBBPNN-预测.rarBPNN-预测.rar
0 9浏览
会员免费 - 预测-AE-1.rarRAR大小:16KB预测-AE-1.rar预测-AE-1.rar
0 11浏览
会员免费 - python数据分析企业实战案例与源码,与专栏 python数据分析可视化匹配python大小:1MB本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。本资源集合精选了一系列精彩的Python数据分析企业实战案例与源码,旨在为数据分析入门、数据分析师、数据科学家及对数据分析有浓厚兴趣的个人提供实用的学习材料和灵感来源。通过深入浅出的案例演示,本资源帮助读者理解并掌握如何使用Python及其强大的数据分析库(如Pandas、NumPy、Matplotlib和Scikit-learn等)解决实际业务问题,从而在数据驱动的时代中脱颖而出。 资源的另一大特色是附带详细的源码和数据集,允许读者亲手复现案例中的分析过程,实践中学习,学习中提高。源码注释详尽,即便是Python初学者也能轻松上手,逐步深入,最终达到熟练应用的水平。 每个案例均围绕一个具体的业务场景展开,涵盖了从数据收集、数据清洗、探索性数据分析(EDA)、数据可视化完整数据分析流程。案例内容丰富多样,包括但不限于消费者行为分析、销售预测、市场细分、成本分析等领域,既有理论指导,也有代码实践,力求以最接近企业实际需求的方式,提升读者的数据分析实战能力。
0 137浏览
会员免费 - scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解编程语言大小:534KBscratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 说明:scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。 (Scratch classic programming case.) 文件列表: 飞船躲子弹.sb3 (547744, 2020-03-31) scratch经典编程案例,飞船躲子弹,有助于scratch初学者借鉴理解。
0 15浏览
会员免费 - 大数据的前世今生:大数据特征与发展历程大数据大小:665KB【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程【大数据】大数据的前世今生:大数据特征与发展历程 说明:大数据的前世今生:大数据特征与发展历程.zip 文件列表: 大数据的前世今生:大数据特征与发展历程.pdf (714822, 2022-12-11) 【大数据】大数据的前世今生:大数据特征与发展历程
0 19浏览
会员免费 - 量化投资-获取净利润过100亿的公司.ipynb金融商贸大小:9KB在A股市场中,有一些公司凭借其强大的盈利能力,成为了真正的赚钱机器。这些公司的净利润已经突破了200亿元大关,并且还在持续增长中。 首先,我们要提到的是中国平安。作为国内最大的保险公司之一,中国平安的...(此处省略具体内容)。 其次,我们来看看阿里巴巴。作为国内最大的互联网公司,阿里巴巴的业务遍布各个领域,包括电商、云计算、数字媒体和娱乐等。这使得阿里巴巴有着非常丰富的收入来源,从而实现了高额的净利润。 再次,我们要提到的是腾讯控股。腾讯控股是中国最大的社交平台和移动工具提供商,拥有QQ、微信等多款热门产品。通过这些产品,腾讯控股吸引了大量的用户,从而实现了广告和游戏等多种形式的盈利。 最后,我们来看看工商银行。作为国内最大的商业银行,工商银行的业务涵盖了储蓄、贷款、投资等多个领域。这使得工商银行有着稳定的收入来源,从而实现了高额的净利润。 总的来说,这些A股中的赚钱机器之所以能够实现高额的净利润,主要是因为它们都有着强大的盈利能力和丰富的收入来源。这也为投资者提供了很好的投资机会。然而,投资者在选择投资这些公司时,也需要注意风险,做好充分的研究和分析。在A股市场中,有一些公司凭借其强大的盈利能力,成为了真正的赚钱机器。这些公司的净利润已经突破了200亿元大关,并且还在持续增长中。 首先,我们要提到的是中国平安。作为国内最大的保险公司之一,中国平安的...(此处省略具体内容)。 其次,我们来看看阿里巴巴。作为国内最大的互联网公司,阿里巴巴的业务遍布各个领域,包括电商、云计算、数字媒体和娱乐等。这使得阿里巴巴有着非常丰富的收入来源,从而实现了高额的净利润。 再次,我们要提到的是腾讯控股。腾讯控股是中国最大的社交平台和移动工具提供商,拥有QQ、微信等多款热门产品。通过这些产品,腾讯控股吸引了大量的用户,从而实现了广告和游戏等多种形式的盈利。 最后,我们来看看工商银行。作为国内最大的商业银行,工商银行的业务涵盖了储蓄、贷款、投资等多个领域。这使得工商银行有着稳定的收入来源,从而实现了高额的净利润。 总的来说,这些A股中的赚钱机器之所以能够实现高额的净利润,主要是因为它们都有着强大的盈利能力和丰富的收入来源。这也为投资者提供了很好的投资机会。然而,投资者在选择投资这些公司时,也需要注意风险,做好充分的研究和分析。
0 11浏览
免费 - 思维导图第四章 数据仓库的决策支持数据挖掘大小:339KB数据仓库与数据挖掘(第三版)陈文伟思维导图第四章 数据仓库的决策支持数据仓库与数据挖掘(第三版)陈文伟思维导图第四章 数据仓库的决策支持
0 13浏览
会员免费 - Pca-data.RDataRDATA大小:4MBPca-data.RDataPca-data.RData
0 11浏览
会员免费 - PLS-Manual.docxPLS-Manual.docx
0 6浏览
会员免费 - 数据挖掘-数据预处理-基于Python的数据标准化方法数据标准化大小:8KB数据挖掘-数据预处理-基于Python的数据标准化方法数据挖掘-数据预处理-基于Python的数据标准化方法
0 79浏览
会员免费 - 箱线图汇总-多组箱线图的Rdata文件RDATA大小:20MB多组箱线图的Rdata文件多组箱线图的Rdata文件
0 20浏览
会员免费 - 指标中台-为企业建设统一规范的指标体系指标中台大小:20MB指标中台-为企业建设统一规范的指标体系指标中台-为企业建设统一规范的指标体系
0 12浏览
会员免费 - matlab实现svm代码matlab大小:5KB% y - 训练目标; % a - 拉格朗日乘子 % % Xt 测试样本,n×d的矩阵,n为样本个数,d为样本维数 % 输出参数: % Yd 测试输出,n×1的矩阵,n为样本个数,值为+1或-1% y - 训练目标; % a - 拉格朗日乘子 % % Xt 测试样本,n×d的矩阵,n为样本个数,d为样本维数 % 输出参数: % Yd 测试输出,n×1的矩阵,n为样本个数,值为+1或-1
0 63浏览
会员免费 - RSNNS-1234.rarRAR大小:1MBRSNNS-1234.rarRSNNS-1234.rar
0 17浏览
会员免费 - neuralnet包-R实现神经网络构建神经网络大小:36KBneuralnet包-R实现神经网络构建neuralnet包-R实现神经网络构建
0 45浏览
会员免费 - 利用MATLAB中OSC处理光谱数据PLS大小:73MB利用MATLAB中OSC处理光谱数据利用MATLAB中OSC处理光谱数据
0 13浏览
会员免费 - 数据挖掘与分析学习笔记数据数据挖掘大小:2MB数据挖掘与分析学习笔记数据数据挖掘与分析学习笔记数据
0 30浏览
会员免费 - 滴普数据智能平台和医药行业案例分享.pdf数据智能平台和医药行业案例分享
0 7浏览
会员免费 - 从零开始:零基础者如何快速掌握数据可视化技能?.zip求职面试大小:237KB数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。数据可视化【2024年数据可视化面试指南简介】 内容概要: 本文为零基础的面试者提供了一个全面的数据可视化面试准备指南。通过通俗易懂的语言,本文介绍了数据可视化的基本概念、实战技巧、工具推荐、最佳实践以及面试中可能遇到的问题和应对策略。旨在帮助零基础的面试者更好地准备数据可视化相关的职位面试,提高面试技巧和自信心。 适用人群: 本篇文章主要面向零基础的面试者,特别是那些即将参加春招的应届毕业生和没有或仅有少量工作经验的人。它为求职者提供了一个实用的指南,帮助他们掌握数据可视化面试中可能遇到的关键问题和概念。 使用场景及目标: 本篇文章适用于求职者准备涉及数据可视化的面试场景。它的目标是帮助求职者理解并掌握这些概念,从而在面试中更好地展示自己的技术能力和问题解决能力。 其他说明: 文章采用通俗易懂、口语化的语言风格,旨在让读者轻松理解并吸收内容。同时,文章还强调了准备理论知识、实际案例和编码实践的重要性,鼓励求职者在面试中展示自己的实际操作能力和项目经验。此外,文章还提供了心态调整建议,帮助求职者全面提升面试技巧。最后,文章鼓励求职者保持积极的心态,将面试视为自我发现和成长的机会。
0 12浏览
会员免费 - 数据挖掘-数据集成-基于Python的数据集成关键问题处理数据挖掘大小:12KB基于Python的数据集成关键问题处理基于Python的数据集成关键问题处理
0 56浏览
会员免费 - 【tensorflow】tensorflow-resnet-master.ziptensorflow大小:658KB【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r【tensorflow】tensorflow-resnet-master.zip 【实例简介】 tensorflow-resnet-master.zip 非常高的准确率,非常好的神经网络 【实例截图】 【核心代码】 tensorflow-resnet-master └── tensorflow-resnet-master ├── config.py ├── convert.py ├── data │ ├── cat.jpg │ ├── ResNet-101-deploy.prototxt │ ├── ResNet-152-deploy.prototxt │ ├── ResNet-50-deploy.prototxt │ ├── ResNet_mean.binaryproto │ └── tensorflow-resnet-pretrained-20160509.tar.gz.torrent ├── forward.py ├── image_processing.py ├── __init__.py ├── LICENSE ├── README.md ├── r
0 13浏览
会员免费 - 学习用go去实现日志读取、解析、写入数据库 流程数据库大小:8KB学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块学习用go去实现日志读取、解析、写入数据库 流程。尝试用go 协程并行执行读取模块 解析模块、写入模块
0 20浏览
会员免费 - 思维导图第三章 联机分析处理 (整理复习)数据挖掘大小:405KB数据仓库与数据挖掘(第三版)陈文伟思维导图第三章 联机分析处理 (整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图第三章 联机分析处理 (整理复习)
0 18浏览
会员免费 - 思维导图第二章 数据仓库原理(整理复习)数据挖掘大小:518KB数据仓库与数据挖掘(第三版)陈文伟思维导图第二章 数据仓库原理(整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图第二章 数据仓库原理(整理复习)
0 16浏览
会员免费 - 爬虫高阶(一):解决验证码及爬取知网论文数据毕业设计大小:5KB用于实现爬取论文数据用于实现爬取论文数据
0 32浏览
会员免费 - 思维导图 第一章数据仓库与数据挖掘概述(整理复习)数据挖掘大小:307KB数据仓库与数据挖掘(第三版)陈文伟思维导图 第一章数据仓库与数据挖掘概述(整理复习)数据仓库与数据挖掘(第三版)陈文伟思维导图 第一章数据仓库与数据挖掘概述(整理复习)
0 30浏览
会员免费 - 数据挖掘graphviz-install-2.44.1-win64安装数据挖掘大小:4MB数据挖掘graphviz-install-2.44.1-win64安装数据挖掘graphviz-install-2.44.1-win64安装
0 12浏览
会员免费 - 完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM数据集大小:25KB完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM完整的鸢尾花数据集,适合多种算法,便于练手,淘宝电商数据集,可以做RFM
0 15浏览
会员免费 - 小白读《R语言实战》写的读书笔记(第七章)R语言大小:24KB小白读《R语言实战》写的读书笔记(第七章)小白读《R语言实战》写的读书笔记(第七章)
0 15浏览
会员免费 - 美国大学生数学建模竞赛.pdf美国大学生数学建模竞赛(Mathematical Contest in Modeling,简称MCM,以及Interdisciplinary Contest in Modeling,简称ICM)是一项国际性的大学生竞赛,旨在通过团队合作解决实际问题来提升学生的数学建模能力、团队协作能力和论文写作能力。本教程将详细介绍美赛的准备、参赛过程和策略,帮助新手快速入门
0 20浏览
会员免费 - 数据挖掘与机器学习-实验数据挖掘大小:5MB数据挖掘与机器学习-实验,上课代码+实验数据挖掘与机器学习-实验,上课代码+实验
0 27浏览
会员免费 - 分类算法数据分析检测-心脏病数据分析数据分析大小:66KB分类算法数据分析检测-心脏病数据分析分类算法数据分析检测-心脏病数据分析
0 21浏览
会员免费 - Doris使用规范(最佳实践)Doris使用规范(最佳实践)
0 81浏览
会员免费 - 数据预处理-数据清洗-使用Pandas进行异常值清洗pandas大小:360KB使用pandas对数据进行异常值清洗使用pandas对数据进行异常值清洗
0 34浏览
会员免费 - 数据预处理-数据清洗-使用Pandas进行缺失值清洗数据清洗大小:11KB使用pandas进行数据清洗的缺失值清洗操作使用pandas进行数据清洗的缺失值清洗操作
0 120浏览
会员免费 - 超详细!基于 Apriori 关联规则挖掘算法实现商品购物篮分析(数据+代码+5k字项目报告)软件/插件大小:912KB基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。基于 Apriori 关联规则挖掘算法实现商品购物篮分析,有运行出来的结果以及完整代码解释和项目报告。
0 180浏览
会员免费 - 第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析数据分析大小:6MB第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析第六届“泰迪杯”数据分析技能赛-档案数字化加工流程数据分析
0 23浏览
会员免费 - Uplift Modeling方法Uplift Modeling采用随机科学控制,不仅可以衡量事务行为的有 效性,还可以建立预测模型、预测行为的增量响应。它是一种数据挖 掘技术,主要应用于金融服务、电信和零售直销行业,用于追加销 售、交叉销售、客户流失和扣除留置。通常的Propensity Model和Response Model只是给目标用户打了 个分,并没有确保模型的结果可以使得活动的提升最大化,它没有告 诉市场营销人员哪个用户最有可能提升活动响应,因此需要另一个统 计模型来定位那些可以被营销推广活动明显驱动他们偏好响应的用 户,也就是“营销敏感”用户。 Uplift Model的最终目标就是找到最 有可能被营销活动影响的用户,从而提升活动的反响(r(test)- r(control)),提升ROI(投资回收率),提升整体的市场响应率。 下面说明进行Uplift Modeling的方法。
0 31浏览
会员免费 - 异常检测常用的方法及算法基于统计:基于泊松分布、正态分布找到异常分布点。 基于距离:K-means。 基于密度:KNN、LOF(Local Outlier Factor)、隔离森 林。 一类支持向量机(One-Class SVM)。 隐马尔可夫模型(HMM)。
0 42浏览
会员免费