输入DStream和Receiver详解-spark介绍 spark入门

时间:2024-05-16 04:03:02
【文件属性】:

文件名称:输入DStream和Receiver详解-spark介绍 spark入门

文件大小:2.37MB

文件格式:PPT

更新时间:2024-05-16 04:03:02

spark学习 spark介绍 大数据ppt spark ppt

输入DStream和Receiver详解 输入DStream代表了来自数据源的输入数据流。在之前的wordcount例子中,lines就是一个输入DStream(JavaReceiverInputDStream),代表了从netcat(nc)服务接收到的数据流。除了文件数据流之外,所有的输入DStream都会绑定一个Receiver对象,该对象是一个关键的组件,用来从数据源接收数据,并将其存储在Spark的内存中,以供后续处理。 Spark Streaming提供了两种内置的数据源支持; 1、基础数据源:StreamingContext API中直接提供了对这些数据源的支持,比如文件、socket、Akka Actor等。 2、高级数据源:诸如Kafka、Flume、Kinesis、Twitter等数据源,通过第三方工具类提供支持。这些数据源的使用,需要引用其依赖。 3、自定义数据源:我们可以自己定义数据源,来决定如何接受和存储数据。 使用spark-sql必须导入依赖包 org.apache.spark spark-sql_2.10 1.6.1 org.apache.spark spark-hive_2.10 1.6.1


网友评论