spark的版本如下
1. 版本历史中的下载文件
SparkR是R语言的版本
spark-bin-hadoop 包含hadoop;包含默认的scala版本(spark基于scala,scala基于jvm)
spark-bin-without-hadoop 不包含hadoop,需要用户自己单独安装hadoop并设置spark到hadoop的关联关系;包含默认的scala版本。
spark-bin-without-hadoop-scala-2.11 不包含hadoop,包含特定版本(2.11)的scala。
话说回来,为什么没有带hadoop和特定版本的scala。
spark-tgz这是源码。
2. 最新版本下载(最近好像不能使用)
上面Note that说的,2.4.2版本因为默认是包含scala2.12,因此后面有提供特定版本(2.11)
而其他是默认包含scala2.11,因此后面会提供特定版本(2.12)
3. 刚入门,理解错了,以后修改,光版本就理解了一天。