Mac配置Scala和Spark最详细过程

时间:2021-09-25 00:43:05

Mac配置Scala和Spark最详细过程

原文链接: http://www.cnblogs.com/blog5277/p/8567337.html

原文作者: 博客园--曲高终和寡

一,准备工作

1.下载Scala http://www.scala-lang.org/download/ 拖到最下面,下载for mac的版本

Mac配置Scala和Spark最详细过程

2.下载Spark http://spark.apache.org/downloads.html

Mac配置Scala和Spark最详细过程

记得选版本啊,如果你是按照我之前的

Mac配置Hadoop最详细过程

配置的话就是最新的2.7版本以后的,就直接点3下载就可以了

二.安装Scala

1.我个人喜欢把各个软件都放在/Library/目录下,所以这里我也在改目录下新建文件夹,提取后放进去,如下图所示:

Mac配置Scala和Spark最详细过程

2.配置Scala的环境变量,打开终端,输入以下代码(涉及系统环境变量修改,所以应该会让你输入Mac的密码):

sudo vim /etc/profile

在/Library/Scala/scala-2.12.4路径上,同时按下 option + command +c 复制你选中的文件的路径 , 粘贴出来如下:

/Library/Scala/scala-2.12.4

然后在刚刚你打开的终端里面,按 i 进入编辑模式 , 输入如下代码(如果路径/版本不一样,记得替换成你刚刚粘贴的那个)

export SCALA_HOME=/Library/Scala/scala-2.12.4
export PATH=$PATH:$SCALA_HOME/bin

按esc退出编辑模式,输入:wq!保存并退出,输入以下代码:

source /etc/profile

使得改动立刻生效,输入:

scala

即可看到你已经成功配置了Scala,如下图所示:

Mac配置Scala和Spark最详细过程

按下 control + c 或者输入 :quit 可以退出命令行Scala工具

三,安装Spark

1.在/Library/下新建目录,把之前下载的东西提取并放进去,如下图所示:

Mac配置Scala和Spark最详细过程

2.配置Spark的环境变量,打开终端,输入以下代码(涉及系统环境变量修改,所以应该会让你输入Mac的密码):

sudo vim /etc/profile

在/Library/Spark/spark-2.3.0-bin-hadoop2.7路径上,同时按下 option + command +c 复制你选中的文件的路径 , 粘贴出来如下:

/Library/Spark/spark-2.3.0-bin-hadoop2.7

然后在刚刚你打开的终端里面,按 i 进入编辑模式 , 输入如下代码(如果路径/版本不一样,记得替换成你刚刚粘贴的那个)

export SPARK_HOME=/Library/Spark/spark-2.3.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

按esc退出编辑模式,输入:wq!保存并退出,输入以下代码:

source /etc/profile

使得改动立刻生效

3.进入/Library/Spark/spark-2.3.0-bin-hadoop2.7/conf目录下,将 spark-env.sh.template 复制一份 , 把复制出来的 spark-env.sh的副本.template 重命名为 spark-env.sh 右键-->打开方式-->文本编辑.app

在末尾加入下面代码:

export SCALA_HOME=/Library/Spark/spark-2.3.0-bin-hadoop2.7

export SPARK_MASTER_IP=localhost

export SPARK_WORKER_MEMORY=4g

4.截止上面,Spark已经配置完成了,下面测试一下,在终端中跳转至 /Library/Spark/spark-2.3.0-bin-hadoop2.7/sbin

cd /Library/Spark/spark-2.3.0-bin-hadoop2.7/sbin

输入

./start-all.sh

如下图所示,即为启动成功:

Mac配置Scala和Spark最详细过程

在浏览器输入以下网址即可看到打开的页面:

127.0.0.1:8080

Mac配置Scala和Spark最详细过程

关闭Spark的话还是在 /Library/Spark/spark-2.3.0-bin-hadoop2.7/sbin 目录下,输入

./stop-all.sh