Spark机器学习进阶实战
电子书推荐
-
Hadoop+Spark大数据巨量分析与机器学习 评分:
Hadoop+Spark大数据巨量分析与机器学习 整合开发实战 书本源码 练习 详细
上传时间:2018-09 大小:64B
- 49B
《Hadoop/Spark大数据处理技巧》(完美书签/完整版200M)
2018-02-26大数据处理必看必会的书籍,本资源完美高清带书签,非常适合学习
- 1.40MB
大数据(spark+hadoop)教程
2017-12-27大数据开发的准备步骤,各个大数据安装的说明书,hadoop,saprk等
- 14.56MB
大数据Hadoop与Spark技术应用实践
2018-02-02学习和掌握Hadloop和Spark技术,学习大数据知识。不仅仅原理还有实战
- 71.54MB
数据算法:Hadoop+Spark大数据 中文版
2017-12-06数据算法:Hadoop+Spark大数据 中文版 高清版 良心资源
- 99.88MB
Hadoop Spark大数据巨量分析与机器学习整合开发实战 ,林大贵
2018-11-23Hadoop Spark大数据巨量分析与机器学习整合开发实战 ,林大贵 扫描版
- 53KB
毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip
2023-10-16毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+...
- 100.0MB
Hadoop Spark大数据处理技巧
2018-04-15大数据开发技巧,包括聚类、关联、回归、共同好友算法等。有两部分,要同时解压才有用。
- 5.25MB
Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署
2022-06-221、内容概要:Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+Elasticsearch+Redash等大数据集群及组件搭建指南(详细搭建步骤+实践过程问题总结)。 2、适合人群:大数据运维、大数据相关技术及组件初学者。 3、...
- 101.21MB
Python+Spark 2.0+Hadoop机器学习与大数据
2021-06-08Python+Spark 2.0+Hadoop机器学习与大数据实战完整高清带书签的PDF压缩包
- 23.20MB
Hadoop+Spark生态系统操作与实践指南-余辉.pdf
2019-07-17Hadoop、Spark、hive、mapReduce经典学习资料
- 14KB
spark+hadoop+kafka+zookeeper 大数据平台搭建脚本
2018-07-04spark+hadoop+zookeeper 大数据平台搭建脚本,亲测通过,适用于大数据初学者在虚拟机玩
- 9KB
centOS 6.10 hadoop+spark+hive+HBase集群搭建
2019-07-31hadoop+spark+hive Linux centos大数据集群搭建,简单易懂,从0到1搭建大数据集群
- 4.21MB
Hadoop+Spark大数据开发零基础入门
2021-06-182020最新课程,从安装CentOS操作系统到搭建Hadoop2.x集群,结合实际案例一步一步讲解,带你零基础入门。...本套课程包含Hadoop2.x和Spark2.4.0的主要核心知识点,HDFS、MapReduce、Spark RDD Shell与API操作等。
- 546KB
大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1
2022-08-03七月在线七月在线## Note, this file is written by cloud-init on first boot of an instance
- 49B
徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari
2018-01-26徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari
- 16.20MB
毕业设计,基于Python+Spark+Hadoop大数据开发的用户画像电影推荐系统,内含Python完整源代码,数据库脚本
2024-01-24毕业设计,基于Python+Spark+Hadoop大数据开发的用户画像电影推荐系统,内含Python完整源代码,数据库脚本 Python+Spark+Hadoop大数据基于用户画像电影推荐系统设计 程序开发软件: Pycharm + Python3.7 + Django...
- 47B
大数据(hadoop+spark+hbase+zookeeper+kafka+scala+ambari)全套视频教程(花3000¥买的)
2017-06-24大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
- 771B
Spark3+Clickhouse+Hadoop大数据实战课程.rar
2021-10-18分享课程-Spark3+Clickhouse+Hadoop大数据实战课程。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。
- 11.66MB
Hadoop+Spark生态系统操作与实战指南.epub
2018-05-22本书用于Hadoop+Spark快速上手,全面解析Hadoop和Spark生态系统,通过原理解说和实例操作每一个组件,让读者能够轻松跨入大数据分析与开发的大门。 全书共12章,大致分为3个部分,第1部分(第1~7章)讲解Hadoop的...
- 2.53MB
清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(13页) 第1章 大数据概述.ra
2021-09-29清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(13页) 第1章 大数据概述.rar
- 175.66MB
《大数据开发工程师系列:Hadoop & Spark大数据开发实战》.pdf
2019-05-23《大数据开发工程师系列:Hadoop & Spark大数据开发实战》
- 191.6MB
项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计
2023-10-30项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。
- 685.0MB
hadoop-3.3.4.tar.gz + winutils 安装环境
2023-08-03【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils ) https://hanshuliang.blog.csdn.net/article/details/132045605 一、下载 Hadoop 二、解压 Hadoop 三、设置 Hadoop 环境变量 四、配置 Hadoop 环境脚本 五、安装 winutils 六、重启电脑 七、验证 Hadoop 安装效果
- 1.49MB
基于Hadoop的电影影评数据分析
2023-04-04是大数据课程大作业,基于Hadoop的电影影评数据分析,需要安装Hadoop,了解MapReduce 和HDFS。
- 1.65MB
基于大数据的音乐推荐系统(适合本科毕设)
2023-02-02主要是用于大家对于大数据的基本处理,适合大学生本科毕设的参考。
- 191.6MB
基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载)
2023-10-21基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,
- 21.24MB
适用于hadoop 3.3.5 3.3.6版本的winutils
2023-10-08winutils文件合集,Hadoop3.3.5以及3.3.6可用 winutils.exe是在windows系统上安装hadoop时所需要的winutils文件,内附多个版本,支持 hadoop-3.3.5 hadoop-3.3.6
- 1.26MB
数据科学导论实验报告 实验1:常用Linux操作和 Hadoop操作
2023-04-30数据科学导论 实验1:常用Linux操作和 Hadoop操作 1、Linux虚拟机安装和操作 2、Hadoop安装和操作 1)创建Hadoop用户 2)SSH登录权限设置 3)安装Java环境 4)单机安装配置 5)伪分布式安装配置
- 177.69MB
淘宝用户行为数据集
2019-01-053182257条数据,可做推荐系统,数据分析 它包含字段(id, uid,age,gender,item_id, behavior_type, item_category, date, province) //1.浏览、2.收藏、3.加购物车 4.购买 7.统计各省的前十热门关注产品(浏览+收藏+添加购物车+购买总量最多前10的产品) 8.统计各省的前十热门购买产品(销售最多前10的产品) 9.统计各省销售最好的产品类别前10(销售最多前10的产品类别) 10.统计各省男女用户数量(gender 0:男 1:女 2:未知)