集群机器:
1台 装了 ubuntu 14.04的 台式机
1台 装了ubuntu 16.04 的 笔记本 (机器更多时同样适用)
1.需要安装好Hadoop分布式环境
参照:Hadoop分类 -->http://www.cnblogs.com/soyo/p/7868282.html
2.安装Spark2.2.0 到/usr/local2
sudo chmod -R 777 Spark( 此/usr/local2路径下的被解压的spark("spark"名字是自己改的) )
3.配置环境变量
vim ~/.bashrc
添加:
export SPARK_HOME=/usr/local2/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
source ~/.bashrc
4.Spark分布式配置:
在Master节点主机上进行如下操作:
1.配置 slaves:slaves文件设置Worker节点
cd /usr/local2/spark/conf
cp ./slaves.template ./slaves
vim slaves
2.配置 spark-env.sh (刚开始这个文件也是没有的)( cp ./spark-env.sh.template ./spark-env.sh)
这里就加了 export SPARK_MASTER_IP=192.168.1.130 (别的是以前在非分布式情况下使用Spark需要时添加的)
SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;
4.给节点分发Spark配置:
cd /usr/local2
tar -zcf ~/ spark.tar.gz ./spark
cd ~
scp ./spark.tar.gz soyo-slave01:/home/soyo
在soyo-slave01节点上分别执行下面同样的操作:
sudo tar -zxf spark.tar.gz -C /usr/local2
sudo chmod -R 777 spark
4.启动Spark集群:
4.1先启动分布式Hadoop:
在master节点执行:start-all.sh
4.2启动Spark:
启动Master节点:
在master节点执行:start-master.sh (在soyo-VPCCB3S1C节点执行jps:多了Master这个进程)
启动slave节点:
在master节点执行:start-slaves.sh (在soyo-slave01节点执行jps:多了Worker这个进程)
4.3在浏览器上查看Spark独立集群管理器的集群信息
http://soyo-vpccb3s1c:8080/