- 豆瓣用户每天都在对“看过”的电影进行“很差”到“力荐”的评价,豆瓣根据每部影片看过的人数以及该影片所得的评价等综合数据,通过算法分析产生豆瓣电影 Top 250。 为了分析电影产业的发展趋势,本次实验需要对这些信息做统计分析。 注意:豆瓣网站的数据形式为文本文件(必须将导入到hive中做处理)。也可以为CSV文件,例如下图: 针对本次实验,我们需要用到Hadoop集群作为模拟大数据的分析软件,集群环境必须要包括,hdfs,hbase,hive,flume,sqoop等插件,最后结合分析出来的数据进行可视化展示,需要用到Python(爬取数据集,可视化展示)或者echarts等可视化工具。5 1w+浏览¥ 11.90
- 林子雨大数据原理与技术第三版实验5实验报告 大数据技术与原理实验报告 MapReduce 初级编程实践 姓名: 实验环境: 操作系统:Linux(建议Ubuntu16.04); Hadoop版本:3.2.2; 实验内容与完成情况: (一)编程实现文件合并和去重操作 对于两个输入文件,即文件 A 和文件 B,请编写 MapReduce 程序,对两个文件进行合并, 并剔除其中重复的内容,得到一个新的输出文件 C。下面是输入文件和输出文件的一个样例 供参考。 输入文件 A 的样例如下:5 1w+浏览¥ 5.90
- A.3实验三:熟悉常用的HBase操作 本实验对应第5章的内容。 A.3.1 实验目的 (1)理解HBase在Hadoop体系结构中的角色。(2)熟练使用HBase操作常用的 Shell命令。(3)熟悉HBase操作常用的 Java API。 A.3.2 实验平台 (1)操作系统:Linux。 (2)Hadoop 版本:2.7.1或以上版本。(3)HBase版本:1.1.2或以上版本。(4) JDK 版本:1.7或以上版本。(5) Java IDE:Eclipse。5 5086浏览¥ 5.90
- A.2实验二:熟悉常用的HDFS操作 本实验对应第4章的内容。 A.2.1 实验目的 (1)理解 HDFS在Hadoop体系结构中的角色。(2)熟练使用HDFS操作常用的 Shell命令。(3)熟悉HDFS操作常用的Java API。 A.2.2 实验平台 (1)操作系统:Linux(建议Ubuntu 16.04)。(2) Hadoop版本:2.7.1。 (3)JDK版本:1.7或以上版本。(4) Java IDE:Eclipse。5 7296浏览¥ 5.90
- 13.1实验一:熟悉常用的Linux 操作和Hadoop操作 本实验对应第3章的内容。 13.1.1 实验目的 Hadoop运行在 Linux系统上,因此,需要学习实践一些常用的 Linux命令。本实验旨在熟悉常用的 Linux操作和 Hadoop操作,为顺利开展后续其他实验奠定基础。 13.1.2 实验平台 (1)操作系统:Linux(建议Ubuntu 16.04)。(2)Hadoop版本:2.7.1。5 3713浏览¥ 5.90
- 大数据技术基础实验报告-Linux环境下hadoop集群的搭建与基本配置5 3538浏览¥ 5.90
- NIIT hadoop期末考试的题库 原题较多5 1604浏览¥ 11.90
- 较多考试原题 170题 考试必备5 786浏览¥ 11.90
- hadoop大小:10MB一、实验目的 (1)熟悉Hadoop开发包 (2)编写MepReduce程序 (3)调试和运行MepReduce程序 (4)完成上课老师演示的内容 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 二、实验内容 1.单词计数实验(wordcount) (1)输入start-all.sh启动hadoop相应进程和相关的端口号 (2)打开网站localhost:8088和localhost:50070,查看MapReduce任务启动情况 (3)写wordcount代码并把代码生成jar包 (4)运行命令 (1):把linus下的文件放到hdfs上 (2):运行MapReduce (5):查看运行结果 (6)网页上查看MapReduce任务 2.矩阵相乘实验(matrix) (1)写matrix代码并把代码生成jar包 (2)运行命令 (1):把linus下的文件放到hdfs上 (2):运行MapReduce (3):查看运行结果 3.网页排名实验(pagerank) (1):写pagerank代码并把代码生成jar包一、实验目的 (1)熟悉Hadoop开发包 (2)编写MepReduce程序 (3)调试和运行MepReduce程序 (4)完成上课老师演示的内容 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 二、实验内容 1.单词计数实验(wordcount) (1)输入start-all.sh启动hadoop相应进程和相关的端口号 (2)打开网站localhost:8088和localhost:50070,查看MapReduce任务启动情况 (3)写wordcount代码并把代码生成jar包 (4)运行命令 (1):把linus下的文件放到hdfs上 (2):运行MapReduce (5):查看运行结果 (6)网页上查看MapReduce任务 2.矩阵相乘实验(matrix) (1)写matrix代码并把代码生成jar包 (2)运行命令 (1):把linus下的文件放到hdfs上 (2):运行MapReduce (3):查看运行结果 3.网页排名实验(pagerank) (1):写pagerank代码并把代码生成jar包5 2794浏览¥ 5.90
- 本系统主要设计完成两件工作,一是搭建分布式的hadoop的集群环境,二是基于分布式的集群环境做日志分析。详细介绍参考:https://blog.csdn.net/newlw/article/details/1273327675 1177浏览¥ 54.90
- Ranger和Atlas进行数据治理,对Yarn、HDFS、Hbase、Hive、Kafka的权限控制,最全的文档整理。5 1056浏览¥ 29.90
- 基于Hadoop的大数据平台架构建设思虑: 1、数据获得 2、数据汇集和存储 3、数据的管理 4、数据的分析 5、数据的价值:决策支持系统 6、数据的使用5 1842浏览¥ 11.90
- 基于Hadoop部署实践对网站日志分析 1. 项目概述 本次要实践的数据日志来源于国内某技术学习论坛,该论坛由某培训机构主办,汇聚了众多技术学习者,每天都有人发帖、回帖。至此,我们通过Python网络爬虫手段进行数据抓取,将我们网站数据(2013-05-30,2013-05-31)保存为两个日志文件,由于文件大小超出我们一般的分析工具处理的范围,故借助Hadoop来完成本次的实践。 2. 总体设计 2.1 Hadoop插件安装及部署 第一步:Hadoop环境部署和源数据准备 安装好VMware(查看) 第二步:使用python开发的mapper reducer进行数据处理。 第三步:创建hive数据库,将处理的数据导入hive数据库 第四步:将分析数据导入mysql 3. 详细实现步骤操作纪要 3.1 hadoop环境准备 首先开启Hadoop集群:start-all.sh:开启所有的Hadoop所有进程,在主节点上进行 NameNode它是Hadoop 中的主服务器,管理文件系统名称空间和对集群中存储的文件的访问。 Secondary NameNode.....5 1913浏览¥ 54.90
- 基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分析.docx基于Hive的淘宝用户行为数据分5 909浏览¥ 49.90
- 大数据技术基础实验报告-Zookeeper的安装配置和应用实践5 693浏览¥ 4.90
- 本人亲手操作搭建Hadoop集群成功,并通过Eclipse进行MapReduce程序的开发,步骤详细完整,在相关过程中配有完整代码和解释,全程无误,只需复制粘贴即可,小白新手按步骤一步一步来也能搭建Hadoop集群成功并进行MapReduce程序开发!!!喜欢请关注本人空间动态,并会一直更新相关大数据资源和文章,谢谢!5 555浏览¥ 4.90
- 大数据技术基础实验报告-sqoop的安装配置与应用5 790浏览¥ 4.90
- 方案共40页,主要建设内容:此数据中心建设方案主要对数据中心的基础设施和网络规划部分提出整体建议,保证数据中心的高性能、安全、可靠,从而使数据中心能承载更多高品质的业务。5 654浏览¥ 20.90
- 大数据技术基础实验报告-Hadoop集群的使用和管理5 395浏览¥ 4.90
- Hadoop5 158浏览¥ 22.90
- 大数据平台和决策分析平台功能设计&开发规范。有任何问题都请私信我哈5 80浏览¥ 9.90
- 这是一篇关于分布式计算的毕业设计论文,内容摘要:分布式式计算,同样是一个宽泛的概念,在这里,它狭义的指代,按Google Map/Reduce框架所设计的分布式框架。在Hadoop中,分布式文件系统,很大程度上,是为各种分布式计算需求所服务的。我们说分布式文件系统就是加了分布式的文件系统,类似的定义推广到分布式计算上,我们可以将其视为增加了分布式支持的计算函数。从计算的角度上看,Map/Reduce框架接受各种格式的键值对文件作为输入,读取计算后,最终生成自定义格式的输出文件。而从分布式的角度上看,分布式计算的输入文件往往规模巨大,且分布在多个机器上,单机计算完全不可支撑且效率低下,因此Map/Reduce框架需要提供一套机制,将此计算扩展到无限规模的机器集群上进行。依照这样的定义,我们对整个Map/Reduce的理解,也可以分别沿着这两个流程去看。5 51浏览¥ 9.90
- hadoop大小:5MB一、实验目的 熟悉hdfs命令行基本操作 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:hdfs常见命令: (1)查看帮助:hdfs dfs -help (2)查看当前目录信息:hdfs dfs -ls / (3)创建文件夹:hdfs dfs -mkdir /文件夹名 (4)上传文件:hdfs dfs -put /本地路径 /hdfs路径 (5)下载文件到本地:hdfs dfs -get /hdfs路径 /本地路径 (6)移动hdfs文件:hdfs dfs -mv /hdfs路径 /hdfs路径 (7)复制hdfs文件:hdfs dfs -cp /hdfs路径 /hdfs路径 (8)删除hdfs文件:hdfs dfs -rm /文件名 (9)删除hdfs文件夹:hdfs dfs -rm -r /文件夹名一、实验目的 熟悉hdfs命令行基本操作 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:hdfs常见命令: (1)查看帮助:hdfs dfs -help (2)查看当前目录信息:hdfs dfs -ls / (3)创建文件夹:hdfs dfs -mkdir /文件夹名 (4)上传文件:hdfs dfs -put /本地路径 /hdfs路径 (5)下载文件到本地:hdfs dfs -get /hdfs路径 /本地路径 (6)移动hdfs文件:hdfs dfs -mv /hdfs路径 /hdfs路径 (7)复制hdfs文件:hdfs dfs -cp /hdfs路径 /hdfs路径 (8)删除hdfs文件:hdfs dfs -rm /文件名 (9)删除hdfs文件夹:hdfs dfs -rm -r /文件夹名5 1017浏览¥ 5.90
- 大数据技术基础实验报告-pig的安装配置与应用5 209浏览¥ 2.90
- Ambari安装全网最详细文档-公司大数据集群部署方案0 422浏览¥ 11.90
- 本文以在中移软件研发中心工作期间参与的大数据项目为背景,着重研究Hadoop相关系统的设计思想和基本框架,并设计和实现一个自动化、可扩展、可监控、可管理的应用于大规模Hadoop集群的部署管理系统,本文主要研究内容包含几个部分: 1.说明项目背景,分析项目的研究意义和应用前景。 2.研究Hadoop相关系统发展概况,说明现有的Hadoop集群部署管理技术,并对比分析它们的优缺点,为技术的选择和系统的设计提供依据。 3.深入分析Hadoop及其相关系统的设计思想和基本框架。重点研究 HDFS、MapReduce、HBase和Hive系统的核心算法和实现原理,分析它们运行的守护进程各自的职责和相互间协同工作模式,作为项目设计的理论基础。 4.深入研究项目所使用的技术。重点分析自动化配置和部署工具Puppet 的基本框架、运行机制和语法机制,为项目的设计和实现提供技术支持。 项目的分析、设计和实现。先对项目进行需求分析,分析大规模集群在硬件配置、操作系统、网络环境之间的异构性,分析Hadoop相关系统的服务、配置文件以及软件包之间的依赖关系。然后根据需求分析结果,对整个系统体系结构进行设计,5 160浏览¥ 69.90
- hadoop大数据培训Hadoop安装配置每一小步都写得,50页5 1906浏览¥ 4.90
- 方案很详细,共142页,主要内容: 1. 需求分析及技术方案概述 2. 机房设备系统技术方案 3. 机房工程系统技术方案 4. 施工组织及项目验收方案 5. 项目管理方案 6. 售后服务及客户培训方案5 153浏览¥ 14.90
- Hadoop云计算实验报告5 499浏览¥ 17.90
- 大数据课件从入门到精通.docx5 112浏览¥ 4.90
- 文档简述了Hadoop的分支发展,之后,重点讲述带认证与授权的CDH服务的部署操作,并记录了过程中遇到的问题以及参考资料5 100浏览¥ 19.90
- big大小:2MB原生大数据平台构建与应用原生大数据平台构建与应用0 72浏览¥ 9.90
- Hadoop 是Google MapReduce的一个Java实现。MapReduce是一种简化的分布式编程模式,让程序自动分布到一个由普通机器组成的超大集群上并发执行。就如同java程序员可以 不考虑内存泄露一样, MapReduce的run-time系统会解决输入数据的分布细节,跨越机器集群的程序执行调度,处理机器的失效,并且管理机器之间的通讯请求。这样的 模式允许程序员可以不需要有什么并发处理或者分布式系统的经验,就可以处理超大的分布式系统得资源。0 31浏览¥ 19.90
- 此资源从跟踪源代码的角度,从客户端、JobTracker、TaskTracker、Child几个方面入手,详细记录了MapReduce的全过程。内容非常详尽,图文并茂。 非常适合想深入学习其核心原理和工作机制的朋友。0 51浏览¥ 9.90
- 1 初识HADOOP 3 1.1 MAPREDUCE模型介绍 3 1.2 HADOOP介绍 5 1.2.1 Hadoop的核心MapReduce 6 1.2.2 Hadoop的分布式文件系统 7 1.3 安装HADOOP 8 1.3.1 安装的前提条件 8 1.3.2 安装Hadoop 13 1.3.3 检查你的环境 14 1.4 执行和测试HADOOP样例程序 18 1.4.1 Hadoop的样例代码 18 1.4.2 测试Hadoop 23 1.5 解决问题 24 1.6 总结 25 2 MAPREDUCE任务的基础知识 26 2.1 HADOOP MAPREDUCE作业的基本构成要素 26 2.1.1 输入分割块 30 2.1.2 一个简单的Map任务:IdentityMapper 30 2.1.3 一个简单的Reduce任务:IdentityReducer 32 2.2 配置作业 34 2.2.1 指定输入格式 43 2.2.2 设置输出参数 45 2.2.3 配置Reduce阶段 50 2.3 执行作业 52 2.4 创建客户化的MAPPER和REDUCER 54 2.4.1 设置客户化的Mapper 54 2.4.2 作业完成 60 2.4.3 创建客户化的Reducer 62 2.4.4 为什么Mapper和Reducer继承自MapReduceBase 65 2.4.5 使用客户化分割器 66 2.5 总结 680 108浏览¥ 19.90
- big大小:4MBhadoop开发案例hadoop视频教程-GreenplumHadoop大数据应用案例剖析hadoop开发案例hadoop视频教程-GreenplumHadoop大数据应用案例剖析0 85浏览¥ 19.90
- Hadoop课程设计0 15浏览¥ 9.90
- Hadoop分布式集群搭建,简单易懂,按照教程操作就可0 72浏览¥ 4.90
- 这是一篇关于MapReduce毕业设计的论文,内容摘要:MapReduce是一个编程模型,和处理,产生大数据集的相关实现.用户指定一个map函数处理一个key/value对,从而产生中间的key/value对集.然后再指定一个reduce函数合并所有的具有相同中间key的中间value.下面将列举许多可以用这个模型来表示的现实世界的工作. 以这种方式写的程序能自动的在大规模的普通机器上实现并行化.这个运行时系统关心这些细节:分割输入数据,在机群上的调度,机器的错误处理,管理机器之间必要的通信.这样就可以让那些没有并行分布式处理系统经验的程序员利用大量分布式系统的资源. 我们的MapReduce实现运行在规模可以灵活调整的由普通机器组成的机群上,一个典型的MapReduce计算处理几千台机器上的以TB计算的数据.程序员发现这个系统非常好用:已经实现了数以百计的MapReduce程序,每天在Google的机群上都有1000多个MapReduce程序在执行.0 32浏览¥ 9.90
- hadoop分布式环境搭建的完整详细的实验报告,基于Hadoop的伪分布式安装,3个节点的分布式集群的安装和配置说明。很详细,值得借鉴0 5724浏览¥ 14.90
- 01_大数据项目之电商数仓_用户行为采集平台.docx0 731浏览¥ 4.90
- 根据大型电视台业务、技术、管理建设需求,在建设过程中采用先进的科技成果,保证在国内媒体及其它行业领域内具有领先的技术水平;同时结合大型电视台的实际状况,建设高可用性、扩充性好的数据仓库基础平台;充分利用现有各种系统、网络资源,建立高性能、低成本的平台。 本部分将从总体架构、平台组件、平台功能、ETL和平台基础建设等几个方面对大型电视台企业级大数据基础平台建设方案进行阐述。基于此方案构建的企业级大数据基础平台能够完全满足大型电视台在系统设计、开发、测试、验收、安装等方面的各种要求。 目前大型电视台在数据分析应用领域还没有大数据平台和数据仓库,为了跟好地应对未来激烈的市场竞争,必须从整体出发、可持续发展的眼光来搭建大数据平台来盘活数据资产,推动用户抢占新技术的制高点。0 86浏览¥ 39.90
- Hive是一个基于Hadoop的数据仓库平台。通过hive,我们可以方便地进行ETL的工作。hive定义了一个类似于SQL的查询语 言:HQL,能够将用户编写的QL转化为相应的Mapreduce程序基于Hadoop执行。 本文讲解如何搭建一个Hive平台。假设 我们有3台机器:hadoop1,hadoop2,hadoop3。并且都安装好了Hadoop-0.19.2(hive支持的Hadoop版本很 多),hosts文件配置正确。Hive部署在hadoop1机器上。0 34浏览¥ 9.90
- Hadoop大数据处理技术课程作业,使用java操作MapReduce实现相关功能,实验报告完整版,可参考。0 8浏览¥ 19.90
- 该操作书适用于 CDH6.X+CentOS7.X。 可以按照文档step by step 完成 CDH6.X+CentOS7.X以及周边系统的搭建。0 164浏览¥ 9.90
- centos大小:6MBcentos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装,,centos安装,centos安装,centos安装,centos安装,centos安装,centos安装0 422浏览¥ 4.90
- hadoop大小:2MB一、实验目的 Hadoop运行在Linux系统上,因此,需要学习实践一些常用的Linux命令。本实验旨在熟悉常用的Linux操作,为顺利开展后续其他实验奠定基础。 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:Linus常见命令: (1)创建目录:mkdir 文件夹名 (2)建多层次目录:mkdir -p 文件夹名/文件夹名/文件夹名 (3)同层次建多个文件夹:mkdir 文件夹名/文件夹名 文件夹名/文件夹名 文件夹名/文件夹名 (4)切换目录:cd 文件夹名 (5)显示当前目录路径:pwd (6)显示当前目录下的文件或目录:ls (7)创建空文件:touch 文件夹名 (8)编辑文件内容:vi 文件名 (9)容许编辑文件内容:i (10)保存并退出::wq (11)查看文件内容:cat 文件名 (12)删除文件:rm 文件名字 (13)返回上一层目录:cd.. (14)返回根目录:cd (15)删除文件夹:rm -rf 文件夹名 (16)显示文件系统使用情况:du一、实验目的 Hadoop运行在Linux系统上,因此,需要学习实践一些常用的Linux命令。本实验旨在熟悉常用的Linux操作,为顺利开展后续其他实验奠定基础。 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:Linus常见命令: (1)创建目录:mkdir 文件夹名 (2)建多层次目录:mkdir -p 文件夹名/文件夹名/文件夹名 (3)同层次建多个文件夹:mkdir 文件夹名/文件夹名 文件夹名/文件夹名 文件夹名/文件夹名 (4)切换目录:cd 文件夹名 (5)显示当前目录路径:pwd (6)显示当前目录下的文件或目录:ls (7)创建空文件:touch 文件夹名 (8)编辑文件内容:vi 文件名 (9)容许编辑文件内容:i (10)保存并退出::wq (11)查看文件内容:cat 文件名 (12)删除文件:rm 文件名字 (13)返回上一层目录:cd.. (14)返回根目录:cd (15)删除文件夹:rm -rf 文件夹名 (16)显示文件系统使用情况:du0 455浏览¥ 4.90
- hadoop大小:2MB基于Hadoop的交通信息物理系统交通诱导方法研究基于Hadoop的交通信息物理系统交通诱导方法研究0 46浏览¥ 19.90
- 豆瓣用户每天都在对“看过”的电影进行“很差”到“力荐”的评价,豆瓣根据每部影片看过的人数以及该影片所得的评价等综合数据,通过算法分析产生豆瓣电影 Top 250。 为了分析电影产业的发展趋势,本次实验需要对这些信息做统计分析。 注意:豆瓣网站的数据形式为文本文件(必须将导入到hive中做处理)。也可以为CSV文件,例如下图: 针对本次实验,我们需要用到Hadoop集群作为模拟大数据的分析软件,集群环境必须要包括,hdfs,hbase,hive,flume,sqoop等插件,最后结合分析出来的数据进行可视化展示,需要用到Python(爬取数据集,可视化展示)或者echarts等可视化工具。0 81浏览¥ 19.90
- 手把手教学,命令齐全一个不漏,按操作执行不会报错,一步搭建好。0 189浏览¥ 4.90
- Hadoop安装学习的学生、技术工程师0 125浏览¥ 29.90
- Hadoop大数据处理技术课程作业,使用java操作HDFS实现文件的上传下载等,实验报告完整版,可参考0 15浏览¥ 19.90
- 实验1:Hadoop安装部署0 130浏览¥ 4.90
- 在Ubuntu10.04上分布式部署Hadoop0.20.20 28浏览¥ 19.90
- java基础+大数据入门的笔记语法、示例0 79浏览¥ 4.90
- Hadoop Namenode恢复0 868浏览¥ 4.90
- 看了一部分代码,感觉,hive 比较复杂,使用场景有限,一般用 hadoop 原生的 map reduce 就可以了。 学习 facebook 等应用 hive 的经验,以便应用于公司。 学习代码的目的是便于更好的应用,比如debuging , tuning . 以及应用新的patch. 等。0 27浏览¥ 9.90
- 我先交待一下我自己的环境: 两台机器,每台机器上面两个虚机(vmware 均以桥接方式,也就是说4个虚机都有各自独立的内网IP)都是ubuntu10.04,宿主机都是windowsxp,用SecureCRT(严重推荐,好使)连接各个副机。最后按下文配置,成功运行~另:机器之间的文件用SCP命令吧,好使~~~0 39浏览¥ 19.90
- hadoop安装前准备工作0 24浏览¥ 4.90
- zookeeper大小:80KBZooKeeper 典型的应用场景详解ZooKeeper 典型的应用场景详解0 150浏览¥ 9.90