linux端的hadoop和spark环境搭建:
Linux环境设置
1设置固定IP(静态)
2新增oracle用户
3设置oracle用户拥有root用户的命令
4设置网络映射
5关闭防火墙
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
HWADDR=00:0C:29:86:1B:2A
TYPE=Ethernet
UUID=5d721d4a-f95b-4268-b88d-bb7bcb537dd6
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.192.100
GATEWAY=192.168.192.2
DNS1=192.168.192.2
[root@hadoop100 ~]# passwd oracle
更改用户 oracle 的密码 。
新的 密码:123456
无效的密码: 过于简单化/系统化
无效的密码: 过于简单
重新输入新的 密码:123456
passwd: 所有的身份验证令牌已经成功更新。
vim /etc/sudoers
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
oracle ALL=(ALL) ALL