文件名称:Spark和Hadoop的集成
文件大小:1.94MB
文件格式:PDF
更新时间:2018-05-27 05:41:37
Spark Hadoop 集成 整合
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。Storm是一个分布式的、容错的实时计算系统。两者整合,优势互补。
文件名称:Spark和Hadoop的集成
文件大小:1.94MB
文件格式:PDF
更新时间:2018-05-27 05:41:37
Spark Hadoop 集成 整合
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。Storm是一个分布式的、容错的实时计算系统。两者整合,优势互补。