没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
Impala-Kudu 安装文档
目录
1. 准备工作:系统环境搭建 ......................................................................................................2
1.1. 设置 ssh 无密码登陆(server 端到所有节点).........................................................2
1.2. 关闭防火墙和 SELinux .................................................................................................2
1.4 所有节点配置 NTP 服务...................................................................................................3
2. 安装 jdk ....................................................................................................................................3
3. 安装原生 hadoop 2.6.0 ............................................................................................................4
4. server 节点安装 mysql5.6........................................................................................................7
4.1. 首先需要卸载 centos 自带的 mysql ...........................................................................7
4.2. 安装 mysql5.6...............................................................................................................7
5. 安装 hive ..................................................................................................................................9
5.1. 下载 tar 包:................................................................................................................9
5.2. 解压 tar 包到指定位置,............................................................................................9
5.3. 配置环境变量 ..............................................................................................................9
5.4. 修改配置文件 ..............................................................................................................9
5.4.1. 修改 hive-site.xml 配置文件 ............................................................................9
5.4.2. 修改 hive-log4j.properties 配置文件 .............................................................10
5.4.3. 修改 hive-env.sh 配置文件 ............................................................................11
5.5. 将 mysql 的驱动放置到 hive 的 lib 下 ......................................................................11
5.6. 在 mysql 中创建 hive 用户及数据库 ........................................................................11
5.7. 替换 jline 的 jar 包 .....................................................................................................11
5.8. 启动 hive ....................................................................................................................12
6. 安装和配置 kudu、impala ....................................................................................................12
6.1. 安装 kudu、impala ....................................................................................................12
6.1.1. 在线安装 kudu、impala.................................................................................12
6.1.2. yum 离线安装 kudu、impala.........................................................................13
6.1.3. rpm 离线安装 kudu、impala .........................................................................17
6.1.4. 简洁版 rpm 离线安装 impala ........................................................................19
6.2. 配置并启动 kudu、impala ........................................................................................21
6.2.1. 配置并启动 kudu ...........................................................................................21
6.2.2. 配置并启动 impala.........................................................................................22
1. 准备工作:系统环境搭建
这里以 3 台机器(centos 6.5)为示例安装,
172.16.22.53
172.16.22.54
172.16.22.55
其中 172.16.22.53 节点安装 kudu-master。
以下操作均用 root 用户操作。
1.1. 配置 hosts 文件
执行命令 vi /etc/hosts 打开 hosts 文件,在此文件中追加如下内容
172.16.22.53 node1 iZn7m989dgmfgm3ttb83y1Z
172.16.22.54 node2 iZn7mgishthhlt5sdw1oelZ
172.16.22.55 node3 iZn7m110rd41tfy2sdrnk9Z
说明:以上
1.2. 设置 ssh 无密码登陆(server 端到所有节点)
在主节点上执行 ssh-keygen -t rsa 一路回车,生成无密码的密钥对。
用 ssh-copy-id 把公钥复制到远程主机上(注意本机也要复制)
例如 cdr-yl-01 主机到其它 3 节点设置无密码登录
ssh-copy-id -i ~/.ssh/id_rsa.pub root@172.16.22.53
ssh-copy-id -i ~/.ssh/id_rsa.pub root@172.16.22.54
ssh-copy-id -i ~/.ssh/id_rsa.pub root@172.16.22.55
1.3. 关闭防火墙和 SELinux
关闭防火墙:
service iptables stop (临时关闭)
chkconfig iptables off (重启后生效)
关闭 SELINUX:
setenforce 0 (临时生效)
修改 /etc/selinux/config 下的 SELINUX=disabled (重启后永久生效)
vi /etc/selinux/config
将 SELINUX 的值改为 disabled
1.4 所有节点配置 NTP 服务
集群中所有主机必须保持时间同步,如果时间相差较大会引起各种问题。 具体思路如
下:
master(172.16.22.53)节点作为 ntp 服务器与外界对时中心同步时间。
这里选择 172.16.22.53 节点为时钟同步服务器,其他节点为客户端同步时间到该节点。
1) 安装 ntp:
yum -y install ntp
2) 修改 172.16.22.53 上的配置文件:
执行 vi /etc/ntp.conf ,加入如下内容(绿色注释部分不要加入)
restrict default ignore #默认不允许修改或者查询 ntp,并且不接收特殊封包
restrict 127.0.0.1 #给于本机所有权限
restrict 172.16.22.0 mask 255.255.255.0 notrap nomodify #给于局域网机的机器有同步时
间的权限
server 172.16.22.53 prefer # local clock prefer 代表优先使用此 ip 做同步
driftfile /var/lib/ntp/drift
server 127.127.1.0 #当所有服务器都不能使用时,使用本机作为同步服务器
fudge 127.127.1.0 stratum 10
3) 在 172.16.22.54 和 172.16.22.55 节点上修改配置文件,
执行 vi /etc/ntp.conf 加入如下内容
server 172.16.22.53 prefer
driftfile /var/lib/ntp/drift
fudge 127.127.1.0 stratum 10
4) 启动 ntp, 所有节点执行一下命令
service ntpd start
chkconfig ntpd on
2. 安装 jdk
下载 rpm 包
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
下载对应的版本
将 rpm 包上传到各个节点上,然后 rpm -ivh 包名 进行安装
3. 安装原生 hadoop 2.6.0
1) 下载 tar 包,链接如下 :
http://archive.apache.org/dist/hadoop/core/hadoop-2.6.0/hadoop-2.6.0.tar.gz
2) 在 tar 包所在的目录,执行
tar -xzvf hadoop-2.6.0.tar.gz -C /usr/lib/
将 tar 包解压到指定位置
3) 进入解压到配置文件的目录,修改配置文件
cd /usr/lib/hadoop-2.6.0/etc/hadoop
a. 修改 hadoop-env.sh
在此文件的末尾加入
export JAVA_HOME=/usr/java/jdk1.8.0_144
注意:jdk 所在路径以及 SSH 端口号需视自己的环境而定,
如果 ssh 端口号不为 22,则需要加入以下参数(端口号视自己环境而定):
export HADOOP_SSH_OPTS="-p 49622"
b. 修改 yarn-env.sh
同 hadoop-env.sh,在文件的末尾加入 export JAVA_HOME=/usr/java/jdk1.8.0_144
注意:jdk 所在路径需视自己的环境而定
c. 修改 core-site.xml,在<configuration>标签间加入如下内容
<property>
<name>hadoop.tmp.dir</name>
<!-路径视环境而定,一定要配置 系统默认的缓存文件夹在每次重启后会被删除-->
<value>/data/hadoop/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://172.16.22.53:9000</value>
</property>
d. 修改 hdfs-site.xml,在<configuration>标签间加入如下内容
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/data/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/data/hadoop/dfs/data</value> <!--数据路径,尽量不要用根目录-->
</property>
<property> <!--这个属性节点是为了防止后面 eclipse 存在拒绝读写设置的-->
<name>dfs.permissions</name>
<value>false</value>
</property>
e. 修改 mapred-site.xml, 在<configuration>标签间加入如下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>172.16.22.53:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>172.16.22.53:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.staging-dir</name>
<value>/history</value>
</property>
<property>
<name>mapreduce.jobhistory.done-dir</name>
<value>${yarn.app.mapreduce.am.staging-dir}/history/done</value>
</property>
剩余33页未读,继续阅读
资源评论
仗剑走天涯_727
- 粉丝: 0
- 资源: 9
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 论文(最终)_20240430235101.pdf
- 基于python编写的Keras深度学习框架开发,利用卷积神经网络CNN,快速识别图片并进行分类
- 最全空间计量实证方法(空间杜宾模型和检验以及结果解释文档).txt
- 5uonly.apk
- 蓝桥杯Python组的历年真题
- 2023-04-06-项目笔记 - 第一百十九阶段 - 4.4.2.117全局变量的作用域-117 -2024.04.30
- 2023-04-06-项目笔记 - 第一百十九阶段 - 4.4.2.117全局变量的作用域-117 -2024.04.30
- 前端开发技术实验报告:内含4四实验&实验报告
- Highlight Plus v20.0.1
- 林周瑜-论文.docx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功