今天开始,要踏上大数据Spark的学习征程了,生命这么短,我们需要Spark
Spark的内核使用Scala语言编写的,在编写Spark项目时,Scala也是最好的选择
第一步是Scala运行环境的搭建,安装步骤如下:
1 下载安装Java 7(需要注意系统版本,这里使用的系统是Windows 7的64位版本)
http://www.oracle.com/technetwork/java/javase/downloads/index.html
双击直接安装即可
2 安装Scala 2.10.4(Spark 1.1.0版本只支持Scala 2.10.X版本)
http://www.scala-lang.org/download/2.10.5.html
下载后是msi文件,可直接双击安装,安装之后需要把Scala的bin目录配置到环境变量path中,开始->运行cmd命令,
运行scala命令后,出现欢迎界面,表示配置正确
3 下载可以运行Scala程序的软件包,Scala IDE for Eclipse,C++有VS,我们有Scala IDE
下载地址如下,各位亲们记得选好版本:
http://scala-ide.org/download/sdk.html
下载后直接解压启动即可,以下是运行一个HelloScala程序
4 接下来会介绍,如何在Scala IDE for Eclipse中建立和运行Scala程序