没有合适的资源?快使用搜索试试~ 我知道了~
hadoop生态圈组件搭建全过程
需积分: 13 1 下载量 104 浏览量
2023-03-12
20:46:50
上传
评论
收藏 310KB DOCX 举报
温馨提示
试读
27页
hadoop生态圈组件搭建全过程,介绍如何安装一套大数据计算框架的过程。
资源推荐
资源详情
资源评论
1 本教程均采用 CDH5.7.0 对应的组件,如果升级请
找同一个 CDH 版本的组件。
下载链接 http://archive-primary.cloudera.com/cdh5/cdh/5/
阿帕奇源码下载地址 http://archive.apache.org/dist/
2 HADOOP 安装
1 三台机器
创建 hadoop 用户
赋予 sudo 权限
2 三台机器
更改主机名
vi /etc/sysconfig/network
接下来的所有操作都是在 hadoop 用户下操作
3 三台机器
注意修改 ip
hadoop 用户下
sudo vi /etc/hosts
192.168.1.56 hadoop000
192.168.1.57 hadoop001
192.168.1.58 hadoop002
4 三台机器
安装 jdk1.8
tar -zxvf XXXX -C /home/hadoop/app/
配置局部环境变量
vi .bash_profile
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_144
export PATH=$JAVA_HOME/bin:$PATH
java -version 检查
5 三台机器
配置 ssh(都在 hadoop 用户下操作,生成的秘钥是在当前用户下的.ssh 文件夹当中)
请按顺序做下去
第一台
ssh-keygen -t rsa
cd /home/hadoop/.ssh
cp id_rsa.pub authorized_keys 带表本机 ssh 不用再输入密码了
第二台
ssh-keygen -t rsa
cd /home/hadoop/.ssh
cp id_rsa.pub authorized_keys 带表本机 ssh 不用再输入密码了
第三台
ssh-keygen -t rsa
cd /home/hadoop/.ssh
cp id_rsa.pub authorized_keys 带表本机 ssh 不用再输入密码了
第一台
ssh-copy-id -i hadoop001
ssh-copy-id -i hadoop002
第二台
ssh-copy-id -i hadoop000
ssh-copy-id -i hadoop002
第三台
ssh-copy-id -i hadoop000
ssh-copy-id -i hadoop001
6 安装 hadoop
先选一台机器作为主机,配置好后其余节点拷贝主机的文件
① tar zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C /home/hadoop/app/
②配置环境变量
vi .bash_profile
添加
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source .bash_profile
②
cd /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop
修改 vi core-site.xml
在<configuration>标签下添加
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop000:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data</value>
</property>
/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data 此目录会自动帮我们创建
修改 vi hadoop-env.sh
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_144
修改 vi hdfs-site.xml
在<configuration>标签下添加
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data/namenode</value>
</property>
<property>
<name>dfs.tmp.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data/tmp</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
注意:/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data 这个目录要手动创建
cp mapred-site.xml.template mapred-site.xml
修改 vi mapred-site.xml
在<configuration>标签下添加
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
修改 vi yarn-site.xml
在<configuration>标签下添加
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop000</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
剩余26页未读,继续阅读
资源评论
奋力向前123
- 粉丝: 6040
- 资源: 44
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功