在主节点使用Flume采集实时数据生成器25001端口的socket数据(实时数据生成器脚本为主节点/data_log目录下的gen_ds_data_to_socket脚本,该脚本为Master节点本地部署且使用socket传输),将数据存入到Kafka的Topic中(Topic名称为ods_mall_log,分区数为2,ZK关于Kafka的信息在其/kafka节点),使用Kafka自带的消费者消费ods_mall_log(Topic)中的数据,查看Topic中的前1条数据的结果,
Flume配置
a1.sources=r1
a1.channels=c1
a1.sinks=k1
a1.sources.r1.type=netcat
a1.sources.r1.bind=0.0.0.0
a1.sources.r1.port=8087
a1.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic=ods_mall_log
a1.sinks.k1.kafka.bootstrap.servers=master:9092
a1.channels.c1.type=memory
a1.sinks.k1.channel=c1
a1.sources.r1.channels=c1
kafka 消费数据
kafka-console-consumer.sh --bootstrap-server master:9092 --topic ods_mall_log --from-beginning --max-messages 1