一、下载安装spark,http://spark.apache.org/,选择合适版本后下载到本地,解压,bin目录下spark-shell文件就是spark命令行交互的入口。
二、下载安装windows平台下的hadoop配置包,https://github.com/srccodes/hadoop-common-2.2.0-bin/tree/master/bin,下载后解压,解压完成后配置系统环境变量HADOOP_HOME为该解压后的目录,例如我的是在D:\hadoop\hadoop-common-2.2.0-bin-master。再在系统变量Path中添加%HADOOP_HOME%\bin。
三、运行spark-shell进入交互模式,运行成功无报错。