文件名称:Apache_spark
文件大小:19KB
文件格式:ZIP
更新时间:2024-05-01 01:29:39
Apache_spark 要开始使用Spark,我们必须首先将其安装在您的计算机上。 如果您像我一样使用Windows,请按照以下步骤操作: 1.开始安装 首先,您需要安装Java 8/11,最好在以下目录C:\ java \ jdk1.8.0_231 安装了Python 3,只需按照的步骤进行操作 下载winutils.exe(如果不想使用google,可以在utils中找到),创建新目录C:\ hadoop \ bin并将其放置在该目录中。 创建目录C:\ tmp \ hive 从下载spark并解压缩。 最好在此目录C:\ spark-3.1.1-bin-hadoop2.7 2. Windows中的一些配置 在C:\ hadoop \ bin中以HADOOP_HOME的形式创建新的PATH 在C:\ spark-3.1.1-bin-hadoop2.7创建新的SPARK_HO
【文件预览】:
Apache_spark-main
----winutils.exe(40KB)
----utils()
--------TestPushGit.cpp(0B)
----README.md(1KB)