没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
更多资源请访问 美河学习在线 www.eimhe.com
Hadoop Hbase Zookeeper Phoenix
环境介绍:
环境介绍:3 台虚拟机安装 centos6.5 64 位、jdk1.7 64 位、hadoop2.5.2 64 位
1.主机配置规划
1. 修改主机名和/etc/hosts 文件
1) 修改主机名(非必要)
vi /etc/sysconfig/network
HOSTNAME=node1 (其他对应 node2,node3)
重启后生效。
2)/etc/hosts 是 ip 地址和其对应主机名文件,使机器知道 ip 和主机名对应关系,格式如下:
修改/etc/hosts 文件,增加如下地址映射:
192.168.1.229 node1
192.168.1.230 node2
192.168.1.231 node3
2.配置免密码登陆 SSH
1)生成密钥:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
注意:在集群的每台服务器上执行以上命令生成 rsa 的公私钥对,把每台服务器的公钥文件
id_rsa.pub 的内容一起复制到 authorized_keys,然后再将该文件复制到每台服务器的~/.ssh 目
录下
更多资源请访问 美河学习在线 www.eimhe.com
以上是两个单引号。
2) 将 id_dsa.pub(公钥)追加到授权的 key 中:
cat ~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys
3) 将认证文件复制到其它节点上:
scp ~/.ssh/authorized_keys 192.168.1.230:~/.ssh/
scp ~/.ssh/authorized_keys 192.168.1.231:~/.ssh/
4) 测试:
ssh node1
3.各节点上安装 jdk
tar –zvxf jdk-7u71-linux-x64.tar.gz
4.各节点上安装 hadoop hbase
export JAVA_HOME=/software/jdk1.7
export HADOOP_HOME=/software/hadoop-2.5
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HBASE_HOME=/software/hbase-1.0
export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
export
PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin:$PAT
H
创建对应文件夹
mkdir -p /dfs/name
mkdir -p /dfs/data
mkdir /hadoop_tmp
更多资源请访问 美河学习在线 www.eimhe.com
修改 Hadoop 配置文件
(1) core-site.xml
<<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/hadoop_tmp</value>
</property>
</configuration>
(2) hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node1:9001</value>
更多资源请访问 美河学习在线 www.eimhe.com
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/dfs/data</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
注:访问 namenode 的 hdfs 使用 50070 端口,访问 datanode 的 webhdfs 使用 50075 端
口。要想不区分端口,直接使用 namenode 的 IP 和端口进行所有的 webhdfs 操作,就需
要在所有的 datanode 上都设置 hdfs-site.xml 中的 dfs.webhdfs.enabled 为 true。
(3) mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
剩余18页未读,继续阅读
资源评论
machen_smiling
- 粉丝: 506
- 资源: 1958
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功