Spark机器学习进阶实战
电子书推荐
-
Hadoop+Spark大数据巨量分析与机器学习 评分:
【更多关于《Spark》资料,加qq群:931257845领取!】 Hadoop+Spark大数据巨量分析与机器学习 整合开发实战 书本源码
上传时间:2018-08 大小:210.15MB
- 19KB
hadoop scala spark 例子项目,运行了单机wordcount
2017-07-28hadoop scala spark 例子项目,运行了单机wordcount
- 1.9MB
spark大数据分析
2016-07-11讲解spark hadoop大数据分析课件
- 8.64MB
Spark+Hadoop+IDE环境搭建
2015-06-26Hadoop 2.2.0 详细配置+Spark部署(ps:自己弄的文档,完全可以搭建成功)
- 49B
《Hadoop/Spark大数据处理技巧》(完美书签/完整版200M)
2018-02-26大数据处理必看必会的书籍,本资源完美高清带书签,非常适合学习
- 1.40MB
大数据(spark+hadoop)教程
2017-12-27大数据开发的准备步骤,各个大数据安装的说明书,hadoop,saprk等
- 99.88MB
Hadoop Spark大数据巨量分析与机器学习整合开发实战 ,林大贵
2018-11-23Hadoop Spark大数据巨量分析与机器学习整合开发实战 ,林大贵 扫描版
- 53KB
毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip
2023-10-16毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+Spark的大数据金融信贷风险控系统源码.zip毕业设计-基于Hadoop+...
- 71.54MB
数据算法:Hadoop+Spark大数据 中文版
2017-12-06数据算法:Hadoop+Spark大数据 中文版 高清版 良心资源
- 100.0MB
Hadoop Spark大数据处理技巧
2018-04-15大数据开发技巧,包括聚类、关联、回归、共同好友算法等。有两部分,要同时解压才有用。
- 5.25MB
Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署
2022-06-221、内容概要:Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+Elasticsearch+Redash等大数据集群及组件搭建指南(详细搭建步骤+实践过程问题总结)。 2、适合人群:大数据运维、大数据相关技术及组件初学者。 3、...
- 14.56MB
大数据Hadoop与Spark技术应用实践
2018-02-02学习和掌握Hadloop和Spark技术,学习大数据知识。不仅仅原理还有实战
- 101.21MB
Python+Spark 2.0+Hadoop机器学习与大数据
2021-06-08Python+Spark 2.0+Hadoop机器学习与大数据实战完整高清带书签的PDF压缩包
- 23.20MB
Hadoop+Spark生态系统操作与实践指南-余辉.pdf
2019-07-17Hadoop、Spark、hive、mapReduce经典学习资料
- 14KB
spark+hadoop+kafka+zookeeper 大数据平台搭建脚本
2018-07-04spark+hadoop+zookeeper 大数据平台搭建脚本,亲测通过,适用于大数据初学者在虚拟机玩
- 9KB
centOS 6.10 hadoop+spark+hive+HBase集群搭建
2019-07-31hadoop+spark+hive Linux centos大数据集群搭建,简单易懂,从0到1搭建大数据集群
- 4.21MB
Hadoop+Spark大数据开发零基础入门
2021-06-182020最新课程,从安装CentOS操作系统到搭建Hadoop2.x集群,结合实际案例一步一步讲解,带你零基础入门。...本套课程包含Hadoop2.x和Spark2.4.0的主要核心知识点,HDFS、MapReduce、Spark RDD Shell与API操作等。
- 546KB
大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1
2022-08-03七月在线七月在线## Note, this file is written by cloud-init on first boot of an instance
- 49B
徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari
2018-01-26徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari
- 47B
大数据(hadoop+spark+hbase+zookeeper+kafka+scala+ambari)全套视频教程(花3000¥买的)
2017-06-24大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
- 771B
Spark3+Clickhouse+Hadoop大数据实战课程.rar
2021-10-18分享课程-Spark3+Clickhouse+Hadoop大数据实战课程。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。
- 11.66MB
Hadoop+Spark生态系统操作与实战指南.epub
2018-05-22本书用于Hadoop+Spark快速上手,全面解析Hadoop和Spark生态系统,通过原理解说和实例操作每一个组件,让读者能够轻松跨入大数据分析与开发的大门。 全书共12章,大致分为3个部分,第1部分(第1~7章)讲解Hadoop的...
- 2.53MB
清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(13页) 第1章 大数据概述.ra
2021-09-29清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(13页) 第1章 大数据概述.rar
- 175.66MB
《大数据开发工程师系列:Hadoop & Spark大数据开发实战》.pdf
2019-05-23《大数据开发工程师系列:Hadoop & Spark大数据开发实战》
- 165KB
基于hadoop和spark 架构大数据平台搭建 24页
2017-09-03基于hadoop+spark 架构大数据平台搭建 基于hadoop+spark 架构大数据平台搭建 基于hadoop+spark 架构大数据平台搭建
- 19.13MB
高分毕业设计 基于Hadoop+Kafka+Spark大数据平台的新闻日志分析处理及可视化系统源码+部署文档+全部数据资料.
2024-04-23【资源说明】 高分毕业设计 基于Hadoop+Kafka+Spark大数据平台的新闻日志分析处理及可视化系统源码+部署文档+全部数据资料. 【备注】 1、该项目是高分毕业设计项目源码,已获导师指导认可通过,答辩评审分达到95分 2、该资源内项目代码都经过mac/window10/11/linux测试运行成功,功能ok的情况下才上传的,请放心下载使用! 3、本项目适合计算机相关专业(如软件工程、计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也可作为毕业设计、课程设计、作业、项目初期立项演示等,当然也适合小白学习进阶。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!
- 2.4MB
Scala-升级版.docx
2021-10-14Scala快速入门(适合为学Spark学习Scala的同学)Word文档
- 2.90MB
基于spark的图书推荐系统
2023-06-15推荐系统是一种信息过滤系统,能够自动预测用户对特定产品或服务的偏好,并向其提供个性化的推荐。它通常基于用户的历史行为、个人喜好、兴趣和偏好等,通过数据挖掘和机器学习算法,在大数据的支持下生成个性化的推荐内容,从而提高用户购买率和满意度。推荐系统广泛应用于电子商务、社交媒体、新闻资讯、音乐、电影等领域。推荐系统的作用是根据用户的历史行为和偏好,为用户推荐个性化的内容,以满足用户的需求和兴趣。 在推荐系统架构中,离线计算部分主要使用 Hadoop、Spark、Hive 等大数据处理技术,将海量历史数据进行离线处理,构建出推荐模型。在线计算部分则使用 Flask、Django 或 Tornado 等 Web 应用框架,将推荐模型部署到 Web 服务器上,实现实时推荐服务。
- 743KB
大数据期末课设~基于spark的气象数据处理与分析
2022-12-14大数据期末课设~基于spark的气象数据处理与分析 完整版Word 可以拿来直接交作业
- 550KB
全国职业技能大赛大数据赛项十套赛题(shtd)
2023-01-16使用Scala编写spark工程代码,将MySQL的shtd_store库中表user_info、sku_info、base_province、base_region、order_info、order_detail的数据增量抽取到Hive的ods库中对应表user_info、sku_info、base_province、base_region、order_info、order_detail中。 1、 抽取shtd_store库中user_info的增量数据进入Hive的ods库中表user_info。根据ods.user_info表中operate_time或create_time作为增量字段(即MySQL中每条数据取这两个时间中较大的那个时间作为增量字段去和ods里的这两个字段中较大的时间进行比较),只将新增的数据抽入,字段名称、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.user_info命令,将结果截图粘贴至对应报告中;