Spark 2.2.0 分布式集群环境搭建

时间:2024-11-15 21:05:13

集群机器:

1台 装了 ubuntu 14.04的 台式机

1台 装了ubuntu 16.04 的 笔记本     (机器更多时同样适用)

1.需要安装好Hadoop分布式环境

参照:Hadoop分类  -->http://www.cnblogs.com/soyo/p/7868282.html

2.安装Spark2.2.0 到/usr/local2

   sudo chmod -R 777 Spark(  此/usr/local2路径下的被解压的spark("spark"名字是自己改的)  )

3.配置环境变量

vim  ~/.bashrc

添加:

export SPARK_HOME=/usr/local2/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

Spark 2.2.0 分布式集群环境搭建

source   ~/.bashrc

4.Spark分布式配置:

在Master节点主机上进行如下操作:

1.配置 slaves:slaves文件设置Worker节点

   cd /usr/local2/spark/conf

   cp ./slaves.template  ./slaves

  vim slaves

Spark 2.2.0 分布式集群环境搭建

2.配置 spark-env.sh (刚开始这个文件也是没有的)( cp ./spark-env.sh.template  ./spark-env.sh)

这里就加了 export SPARK_MASTER_IP=192.168.1.130 (别的是以前在非分布式情况下使用Spark需要时添加的)

SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

Spark 2.2.0 分布式集群环境搭建

4.给节点分发Spark配置:

cd /usr/local2

tar -zcf  ~/ spark.tar.gz  ./spark

cd ~

scp ./spark.tar.gz soyo-slave01:/home/soyo

在soyo-slave01节点上分别执行下面同样的操作:

sudo tar -zxf spark.tar.gz  -C /usr/local2

sudo chmod -R 777 spark

4.启动Spark集群:

4.1先启动分布式Hadoop:

 在master节点执行:start-all.sh

4.2启动Spark:

启动Master节点:

在master节点执行:start-master.sh (在soyo-VPCCB3S1C节点执行jps:多了Master这个进程)

Spark 2.2.0 分布式集群环境搭建

启动slave节点:

在master节点执行:start-slaves.sh (在soyo-slave01节点执行jps:多了Worker这个进程)

Spark 2.2.0 分布式集群环境搭建

4.3在浏览器上查看Spark独立集群管理器的集群信息

   http://soyo-vpccb3s1c:8080/

Spark 2.2.0 分布式集群环境搭建

4.关闭Spark集群:

Spark 2.2.0 分布式集群环境搭建