Spark和Hadoop的集成

时间:2018-05-27 05:41:37
【文件属性】:

文件名称:Spark和Hadoop的集成

文件大小:1.94MB

文件格式:PDF

更新时间:2018-05-27 05:41:37

Spark Hadoop 集成 整合

Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。Storm是一个分布式的、容错的实时计算系统。两者整合,优势互补。


网友评论

  • 非常有帮助,谢谢