【文件属性】:
文件名称:Apache_spark
文件大小:19KB
文件格式:ZIP
更新时间:2021-04-11 07:42:59
Apache_spark
要开始使用Spark,我们必须首先将其安装在您的计算机上。 如果您像我一样使用Windows,请按照以下步骤操作:
1.开始安装
首先,您需要安装Java 8/11,最好在以下目录C:\ java \ jdk1.8.0_231
安装了Python 3,只需按照的步骤进行操作
下载winutils.exe(如果不想使用google,可以在utils中找到),创建新目录C:\ hadoop \ bin并将其放置在该目录中。
创建目录C:\ tmp \ hive
从下载spark并解压缩。 最好在此目录C:\ spark-3.1.1-bin-hadoop2.7
2. Windows中的一些配置
在C:\ hadoop \ bin中以HADOOP_HOME的形式创建新的PATH
在C:\ spark-3.1.1-bin-hadoop2.7创建新的SPARK_HO
【文件预览】:
Apache_spark-main
----winutils.exe(40KB)
----utils()
--------TestPushGit.cpp(0B)
----README.md(1KB)