1.slaves用户名一致,即需要相同的用户。(这是Hadoop的基础)
2.必须ssh无密码登录
3./etc/host 里配置 master和slaves
4.修改/etc/hostname 主机名
5、/etc/profile的java和Hadoop配置路径
6.hadoop namenode format
7./hadoop/etc/slaves这个文件里必须把所有的slaves的主机名写进去。
8.mast的/etc/hosts slave1的/etc/hosts slave2 的/etc/hosts (localhost: 127.0.0.1可以去掉,只写主机名对应的IP地址)如下
1)以下是master的hosts
2)以下是slave1的hosts
3)以下是slave2的hosts
Slave启动不起来解决过程如下:
1.环境变了,hadoop没变:
Hadoop/etc/hadoop/slaves 的IP地址要变。
5个重要的配置文件逐个检查,IP地址需要变
2.配置文件确认无错误,看日志:
从logs日志中寻找slave的namenode为什么没有起来。
3.最后发现是hdfs中存在上次的数据,删掉即可。:
安装ssh和解决jdk找不到path问腿