VIP会员
作者:CSDN
出版社:CSDN《程序员》
ISBN:1111111111117
VIP会员免费
(仅需0.8元/天)
¥ 40000.0
温馨提示: 价值40000元的1000本电子书,VIP会员随意看哦!
电子书推荐
-
Hadoop实战 第2版 评分:
Hadoop 实战第二版,对整个Hadoop体系进行全面的讲解。
上传时间:2018-06 大小:181.3MB
- 685.0MB
hadoop-3.3.4.tar.gz + winutils 安装环境
2023-08-03【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils ) https://hanshuliang.blog.csdn.net/article/details/132045605 一、下载 Hadoop 二、解压 Hadoop 三、设置 Hadoop 环境变量 四、配置 Hadoop 环境脚本 五、安装 winutils 六、重启电脑 七、验证 Hadoop 安装效果
- 43KB
本资源配套《Hadoop大数据技术应用综合训练》使用,包含项目源码及数据资源
2024-12-11本资源配套《Hadoop大数据技术应用综合训练》使用(https://blog.csdn.net/ppqq980532/article/details/144347272?spm=1001.2014),内容里包含了,该综合训练使用的源文件,包含数据及代码。供Hadoop初学者练习MapReduce并行计算框架使用,内也包含数据处理的源文件,也可以供学习Python数据分析初学者做练习使用。
- 191.6MB
项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计
2023-10-30项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。
- 1.49MB
基于Hadoop的电影影评数据分析
2023-04-04是大数据课程大作业,基于Hadoop的电影影评数据分析,需要安装Hadoop,了解MapReduce 和HDFS。
- 1.65MB
基于大数据的音乐推荐系统(适合本科毕设)
2023-02-02主要是用于大家对于大数据的基本处理,适合大学生本科毕设的参考。
- 191.6MB
基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载)
2023-10-21基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,
- 21.24MB
适用于hadoop 3.3.5 3.3.6版本的winutils
2023-10-08winutils文件合集,Hadoop3.3.5以及3.3.6可用 winutils.exe是在windows系统上安装hadoop时所需要的winutils文件,内附多个版本,支持 hadoop-3.3.5 hadoop-3.3.6
- 1.26MB
数据科学导论实验报告 实验1:常用Linux操作和 Hadoop操作
2023-04-30数据科学导论 实验1:常用Linux操作和 Hadoop操作 1、Linux虚拟机安装和操作 2、Hadoop安装和操作 1)创建Hadoop用户 2)SSH登录权限设置 3)安装Java环境 4)单机安装配置 5)伪分布式安装配置
- 177.69MB
淘宝用户行为数据集
2019-01-053182257条数据,可做推荐系统,数据分析 它包含字段(id, uid,age,gender,item_id, behavior_type, item_category, date, province) //1.浏览、2.收藏、3.加购物车 4.购买 7.统计各省的前十热门关注产品(浏览+收藏+添加购物车+购买总量最多前10的产品) 8.统计各省的前十热门购买产品(销售最多前10的产品) 9.统计各省销售最好的产品类别前10(销售最多前10的产品类别) 10.统计各省男女用户数量(gender 0:男 1:女 2:未知)
- 367.57MB
大数据ETL工具软件kettle-spoon 9.4
2024-05-10数据交换,抽取-转换-加载,能实现同构表、异构表之间的数据抽取、转换、加载功能
- 21.94MB
winutils-master.zip
2021-12-24hadoop各版本hadoop.dll和winutils
- 19.46MB
数据中台建设方案.docx
2021-08-29数据中台建设方案,word版本,可以用于各类技术方案编写,投标。
- 10KB
cdh6需要的allkeys.asc
2022-04-27在安装cdh6.3.2时提示找不到allkeys.asc的问题解决办法,解压出来的文件放到/var/www/html/cm6下,此目录名cm6称根据你实际配置修改即可。此文件适合cdh6所有版本。提供免费下载,欢迎下载! 把解压出来的文件allkeys.asc放到你自己目录即可
- 15.24MB
Hadoop 之 winutils
2022-01-21在windows上运行Hadoop相关程序时报错问题解决(比如Spark) 如果需要积分或者校验码,可以去百度网盘中下载,地址如下: 链接:https://pan.baidu.com/s/1RVpmbtjuQL3lbAEYfjr2EA 提取码:1234
- 322.41MB
hadoop-3.1.3.tar.gz
2022-01-24[免费]hadoop-3.1.3官网的包 你们CSDN上的这些人是有多不要脸,这玩意还要积分,怎么滴,你们写出来的hadoop?
- 5.9MB
企业数据中台建设.pdf
2020-08-12DT 时代,很多公司包括传统型企业都纷纷加入到数字化转型的队伍中来,数据的价值变现显得越来越重要。那么如何挖掘更多的企业数据价值呢,数据中台就是目前的一个最主要手段,数据中台改变了企业原来利用数据的形式(传统数仓、BI),通过业务数据化、数据资产化、资产服务化、服务业务化的四化良性高效闭环,加速了从数据资源到数据资产到价值变现的过程,提高了企业的业务响应力、创新力、价值力。通过降本增效,数据化智能运营,打造出数据驱动的智能化企业,从而更高效的为企业创造更多的价值。 本篇文章将从以下几个方面介绍整个数据中台建设的体系方案: 1. 为什么需要数据中台 2. 哪些企业适合做数据中台 3. 数据中台建设有哪些方法论和策略 4. 数据中台核心内容的建设方案 5. 业界一些数据中台建设分享资料
- 1.11MB
基于Hadoop豆瓣电影数据分析实验报告
2022-06-16豆瓣用户每天都在对“看过”的电影进行“很差”到“力荐”的评价,豆瓣根据每部影片看过的人数以及该影片所得的评价等综合数据,通过算法分析产生豆瓣电影 Top 250。 为了分析电影产业的发展趋势,本次实验需要对这些信息做统计分析。 注意:豆瓣网站的数据形式为文本文件(必须将导入到hive中做处理)。也可以为CSV文件,例如下图: 针对本次实验,我们需要用到Hadoop集群作为模拟大数据的分析软件,集群环境必须要包括,hdfs,hbase,hive,flume,sqoop等插件,最后结合分析出来的数据进行可视化展示,需要用到Python(爬取数据集,可视化展示)或者echarts等可视化工具。
- 23.38MB
牛客大数据面试题集锦+答案,共523道,46W+字。大厂必备
2022-09-04大数据面试题V3.0完成了。共523道题,679页,46w+字,来源于牛客870+篇面经。 主要分为以下几部分: Hadoop面试题:100道 Zookeeper面试题:21道 Hive面试题:47道 Flume面试题:11道 Kafka面试题:59到 HBase面试题:36道 Spark面试题:97道 Flink面试题:40道 数仓面试题:25道 综合面试题:43道 数据库(MySQL)面试题:44道 面试题总结是一个长期工作,面试不停,这份面试题总结就不会停。以后会慢慢把Java相关的面试题、计算机网络等都加进来,其实这不仅仅是一份面试题,更是一份面试参考,让你熟悉面试题各种提问情况,当然,项目部分,就只能看自己了,毕竟每个人简历、实习、项目等都不一样。面试题总结是一个长期工作,面试不停,这份面试题总结就不会停。以后会慢慢把Java相关的面试题、计算机网络等都加进来,其实这不仅仅是一份面试题,更是一份面试参考,让你熟悉面试题各种提问情况,当然,项目部分,就只能看自己了,毕竟每个人简历、实习、项目等都不一样。面试题总结是一个长期工作,面试不停,这份面试题总结就不会停。
- 27KB
hadoop课后题带答案
2023-03-19Hadoop期末考试复习
- 155.24MB
jdk1.8.0_201.rar
2021-12-07jdk1.8.0_201.rar
- 428KB
数据科学导论实验报告 实验2:熟悉常用的HDFS操作
2023-04-30数据科学导论 实验2:熟悉常用的HDFS操作 1. 编程实现以下指定功能,并利用 Hadoop 提供的 Shell 命令完成相同任务: 2. 编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取 HDFS 中指定文 件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件 一行的文本。 3. 查看 Java 帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出 HDFS 中指定文件 的文本到终端中。
- 0B
Ambari2.7.6+HDP3.3.1 离线安装网盘下载地址
2022-11-05支持x86_64和ARM64(aarch64)
- 336KB
大数据技术原理与应用【林子雨】上机实验一
2022-04-04大数据技术原理与应用【林子雨】上机实验,自己实验课上写的,可能有错,供各位参考。
- 105KB
winutils-hadoop-3.X
2024-12-11winutils
- 365.73MB
windows下的hadoop-3.1.4
2024-11-27参考文章https://blog.csdn.net/lydia88/article/details/137425541,下载解压后直接使用
- 10.62MB
豆瓣电影大数据分析-【附带爬虫豆瓣,对数据处理,数据分析,可视化】
2020-03-07平台部分主要是hadoop分布式系统,基于该系统融合了组件Spark,Hbase,Hive,Sqoop,Mahout等。继而进行相关的数据分析 该项目主要分为以下几部分: 1:数据采集 主要是基于豆瓣电影的数据,进行分析,所以首先要爬取相关的电影数据,对应的源代码在DouBan_Spider目录下,主要是采用Python + BeautifulSoup + urllib进行数据采集 2:ETL预处理 3:数据分析 4:可视化 代码封装完好, 适用于对作影视感情分析,影评分析,电影类型分析,推荐系统的建立
- 8.98MB
分布式数据库课程设计+基于Hbase的滴滴出行数据分析+Hive+Hadoop+Mysql+Sqoop+可视化
2023-03-18将爬取到的滴滴出行相关数据整理后上传存储到Hbase中,然后导入到Hive中并进行数据分析,将数据分析后的结果通过Sqoop导入到Mysql中,最后对数据进行可视化。
- 7KB
Hadoop豆瓣电影数据分析(Hadoop)操作源码
2022-06-16Hadoop豆瓣电影数据分析(Hadoop)操作源码
- 6.57MB
大数据实验报告(实验一到八)
2022-04-20实验一: 熟悉常用的Linux操作和Hadoop操作 实验二: 熟悉常用的HDFS操作 实验三: 熟悉常用的HBase操作 实验四: 熟悉常用的mongoDB数据库操作 实验五: MapReduce初级编程实践 实验六: 熟悉Hive的基本操作 实验七: Spark初级编程实践 实验八: Flink初级编程实践
- 1.27MB
大数据实验5实验报告:MapReduce 初级编程实践
2022-06-20林子雨大数据原理与技术第三版实验5实验报告 大数据技术与原理实验报告 MapReduce 初级编程实践 姓名: 实验环境: 操作系统:Linux(建议Ubuntu16.04); Hadoop版本:3.2.2; 实验内容与完成情况: (一)编程实现文件合并和去重操作 对于两个输入文件,即文件 A 和文件 B,请编写 MapReduce 程序,对两个文件进行合并, 并剔除其中重复的内容,得到一个新的输出文件 C。下面是输入文件和输出文件的一个样例 供参考。 输入文件 A 的样例如下: