没有Kafka环境,所以也没有进行验证。感觉今后应该能用到,所以借抄在此,备查。
pykafka使用示例,自动消费最新消息,不重复消费:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
# -* coding:utf8 *-
from pykafka import KafkaClient
host = '192.168.200.38'
client = KafkaClient(hosts = "%s:9092" % host)
print client.topics
# 生产者
# topicdocu = client.topics['task_pull']
# producer = topicdocu.get_producer()
# for i in range(4):
# print i
# producer.produce('test message ' + str(i ** 2))
# producer.stop()
# 消费者
topic = client.topics[ 'task_push' ]
consumer = topic.get_simple_consumer(consumer_group = 'test' , auto_commit_enable = True , consumer_id = 'test' )
for message in consumer:
if message is not None :
print message.offset, message.value
|
以上这篇通过pykafka接收Kafka消息队列的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/BabyFish13/article/details/79270173