1、 在 Apache 的官网下载 Hadoop 的比较稳定的版本,我现在下的是 Hadoop0.20.203.0.
2、 配置 java 环境。1.6 版本以上。
3、 解压 Hadoop ,设置 conf 下的 hadoop-env.sh ,设置里面的 JAVA_HOME=/usr/lib/jvm/
java-6-sun.
4、 Export HADOOP_INSTALL=/home/guoguo/hadoop/hadoop-0.20.203.0
5、 Export PATH=$PATH:$HADOOP_INSTALL/bin
6、 检查运行 hadoop version。
7、 如果有版本信息说明安装完成。
8、 设置SSH无密码验证。
a) Ssh-keygen –t rsa
b) 路径都按默认的。
c) 进入 /root/.ssh 目录。
d) cat id_rsa.pub > authorized_keys
9、 分别配置 core-site.xml、hdf-site.xml、mapred-site.xml。
a) conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
b) conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
c) conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
10、 配置 masters 和 slaves 文件。因为是伪分布模式,所以两个都用 127.0.0.1
11、 编辑主机名 /etc/hosts 加入
a) 127.0.0.1 master
b) 127.0.0.1 slave
12、 启动 hadoop(hadoop 命令在 hadoop 目录的 bin 目录下)
a) hadoop namenode –format
b) start-all.sh
13、 在 WEB 下查看 Hadoop 的工作情况
a) http://localhost:50070
评论0
最新资源