下载地址 :https://www.apache.org/dyn/closer.lua/spark/spark-2.2.0/spark-2.2.0.tgz
我们把spark放在节点2上
解压
下面我们把jdk换成1.8的
配置环境变量
使环境变量生效
重启后
另外两个节点的做法一样,这里就不多说了
上传maven包
解压
配置maven的环境变量
#java
export JAVA_HOME=/opt/modules/jdk1..0_60
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin #maven
export MAVEN_HOME=/opt/modules/apache-maven-3.3.
export PATH=$PATH:$MAVEN_HOME/bin
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=1024M -XX:ReservedCodeCacheSize=1024M"
使其环境变量生效
找到这一串,把他删除掉
改成
VERSION=2.2.0
SCALA_VERSION=2.11.8
SPARK_HADOOP_VERSION=2.6.0
SPARK_HIVE=1
我们可以参考官网的教程说明
http://spark.apache.org/docs/2.2.0/building-spark.html
我们运行一下
./dev/make-distribution.sh --name custom-spark --tgz -Phadoop-2.6 -Phive -Phive-thriftserver -Pyarn
这个过程非常长,网络好机器配置好的话也许一个小时吧,如果中途网络不好失败的话就重新来吧
我自己这里也是经过了一次失败之后,再重新运行一次这条语句就可以了,当看到build success字样的时候就说明成功了
在spark的目录下会多了一个踏包
解压
改一下名字
解压
接下来配置环境变量
#scala
export SCALA_HOME=/opt/modules/scala-2.11.
export PATH=$PATH:$SCALA_HOME/bin
使环境变量生效
读取文件
统计有多少行
文件的第一行
前4行
我们先新建一个数据文件
把文件读取进来
用空格切分
以key value对的方式显示出来
这里报错
下面我们打开spark的系统监控页面
创建缓存
使用一下
这里就有反馈了