hadoop 与 spark 的安装与配置
说明:将以下面版本的软件进行安装示例
jdk-8u20-linux-i586
hadoop-2.4.1
scala-2.10.4
spark-1.1.0-bin-hadoop2.4
1 JDK 的安装与配置
1.1 JDK 的安装
观察 jdk-8u20-linux-i586.tar.gz,实际上它是个解压即可的免安装型文件,我们打
算把它安装在目录(/usr/lib/jvm/)下,即解压到这个目录下即可。初次安装
unbutu,则,目录/usr/lib 是在 Computer 文件系统里的目录,而目录 jvm(也可以用其
它名字)是不存在的,需要自己建立。
#新建 jvm 文件(#符号表示对下面命令的解释)
$ sudo mkdir /usr/lib/jvm
#进入到放置 jdk 安装包的目录将 jdk-8u20-linux-i586.tar.gz 解压
到/usr/lib/jvm
$ sudo tar -zxvf jdk-8u20-linux-i586.tar.gz -C /usr/lib/jvm
到此 jdk 的安装结束,此时在目录/usr/lib/jvm/下可以看到新生成了文件
jdk1.8.0_20
1.2 JDK 环境变量的配置
环境变量设置基本都是在/etc/profile 文件中进行
#打开/etc/profile
$ sudo gedit /etc/profile
在刚打开的/etc/profile 的末尾添加下面内容:
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_20
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
关闭 profile 文件,运行下面命令使刚才的添加的配置生效
$ sudo source /etc/profile