Apache_spark
要开始使用Spark,我们必须首先将其安装在您的计算机上。 如果您像我一样使用Windows,请按照以下步骤操作:
1.开始安装
首先,您需要安装Java 8/11,最好在以下目录C:\ java \ jdk1.8.0_231
安装了Python 3,只需按照的步骤进行操作
下载winutils.exe(如果不想使用google,可以在utils中找到),创建新目录C:\ hadoop \ bin并将其放置在该目录中。
创建目录C:\ tmp \ hive
从下载spark并解压缩。 最好在此目录C:\ spark-3.1.1-bin-hadoop2.7
2. Windows中的一些配置
在C:\ hadoop \ bin中以HADOOP_HOME的形式创建新的PATH
在C:\ spark-3.1.1-bin-hadoop2.7创建新的SPARK_HO
评论0
最新资源