JDDC_SEED_BIGDATA 2015-01-15
本篇文档主要讲解 hive 的安装过程。Hadoop 是安装 hbase 和 hive 的基础,即安装 hbase 和
hive 之前必须先安装 hadoop 并且 hdfs 和 mapreduce 必须都功能正常。因为 hbase 和 hive
其底层所使用都是应用 hadoop 的两个核心部分—hdfs 和 mapreduce。
在安装 hadoop 之前需要考滤操作系统的版本(32 位还是 64 位)以及 hbase 和 hive 的版本,
否则会引起 jar 包不支持而导致的 jar 包替换或 jar 包重新编译等问题。Hadoop、hbase、
hive 的版本匹配信息如下:
由于我们所使用的操作系统 centos6.5 是 32 位,而且安装的 hadoop 是 hadoop2.2.0,所以
本次安装的 hive 版本是 0.12.0
切记,在安装 hbase 之前一定先安装 hadoop,而且要确保 hadoop 中的 HDFS 和 MAPREDUCE 都
是可以正常使用的。
与 hadoop 和 hbase 不同,hive 在安装的过程中不需要把 hive 的包分别发布到个节点上,只
需要在 namenode 节点上 hive 包进行配置,但需要在配置的过程中指定各个 datanode 节点的
主机名。