任务异步化
打开浏览器,输入地址,按下回车,打开了页面。于是一个HTTP请求(request)就由客户端发送到服务器,服务器处理请求,返回响应(response)内容。
我们每天都在浏览网页,发送大大小小的请求给服务器。有时候,服务器接到了请求,会发现他也需要给另外的服务器发送请求,或者服务器也需要做另外一些事情,于是最初们发送的请求就被阻塞了,也就是要等待服务器完成其他的事情。
更多的时候,服务器做的额外事情,并不需要客户端等待,这时候就可以把这些额外的事情异步去做。从事异步任务的工具有很多。主要原理还是处理通知消息,针对通知消息通常采取是队列结构。生产和消费消息进行通信和业务实现。
生产消费与队列
上述异步任务的实现,可以抽象为生产者消费模型。如同一个餐馆,厨师在做饭,吃货在吃饭。如果厨师做了很多,暂时卖不完,厨师就会休息;如果客户很多,厨师马不停蹄的忙碌,客户则需要慢慢等待。实现生产者和消费者的方式用很多,下面使用Python标准库Queue写个小例子:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
|
import random
import time
from Queue import Queue
from threading import Thread
queue = Queue( 10 )
class Producer(Thread):
def run( self ):
while True :
elem = random.randrange( 9 )
queue.put(elem)
print "厨师 {} 做了 {} 饭 --- 还剩 {} 饭没卖完" . format ( self .name, elem, queue.qsize())
time.sleep(random.random())
class Consumer(Thread):
def run( self ):
while True :
elem = queue.get()
print "吃货{} 吃了 {} 饭 --- 还有 {} 饭可以吃" . format ( self .name, elem, queue.qsize())
time.sleep(random.random())
def main():
for i in range ( 3 ):
p = Producer()
p.start()
for i in range ( 2 ):
c = Consumer()
c.start()
if __name__ = = '__main__' :
main()
|
大概输出如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
厨师 Thread-1 做了 1 饭 --- 还剩 1 饭没卖完
厨师 Thread-2 做了 8 饭 --- 还剩 2 饭没卖完
厨师 Thread-3 做了 3 饭 --- 还剩 3 饭没卖完
吃货Thread-4 吃了 1 饭 --- 还有 2 饭可以吃
吃货Thread-5 吃了 8 饭 --- 还有 1 饭可以吃
吃货Thread-4 吃了 3 饭 --- 还有 0 饭可以吃
厨师 Thread-1 做了 0 饭 --- 还剩 1 饭没卖完
厨师 Thread-2 做了 0 饭 --- 还剩 2 饭没卖完
厨师 Thread-1 做了 1 饭 --- 还剩 3 饭没卖完
厨师 Thread-1 做了 1 饭 --- 还剩 4 饭没卖完
吃货Thread-4 吃了 0 饭 --- 还有 3 饭可以吃
厨师 Thread-3 做了 3 饭 --- 还剩 4 饭没卖完
吃货Thread-5 吃了 0 饭 --- 还有 3 饭可以吃
吃货Thread-5 吃了 1 饭 --- 还有 2 饭可以吃
厨师 Thread-2 做了 8 饭 --- 还剩 3 饭没卖完
厨师 Thread-2 做了 8 饭 --- 还剩 4 饭没卖完
|
Redis 队列
Python内置了一个好用的队列结构。我们也可以是用redis实现类似的操作。并做一个简单的异步任务。
Redis提供了两种方式来作消息队列。一个是使用生产者消费模式模式,另外一个方法就是发布订阅者模式。前者会让一个或者多个客户端监听消息队列,一旦消息到达,消费者马上消费,谁先抢到算谁的,如果队列里没有消息,则消费者继续监听。后者也是一个或多个客户端订阅消息频道,只要发布者发布消息,所有订阅者都能收到消息,订阅者都是ping的。
生产消费模式
主要使用了redis提供的blpop获取队列数据,如果队列没有数据则阻塞等待,也就是监听。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import redis
class Task( object ):
def __init__( self ):
self .rcon = redis.StrictRedis(host = 'localhost' , db = 5 )
self .queue = 'task:prodcons:queue'
def listen_task( self ):
while True :
task = self .rcon.blpop( self .queue, 0 )[ 1 ]
print "Task get" , task
if __name__ = = '__main__' :
print 'listen task queue'
Task().listen_task()
|
发布订阅模式
使用redis的pubsub功能,订阅者订阅频道,发布者发布消息到频道了,频道就是一个消息队列。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
import redis
class Task( object ):
def __init__( self ):
self .rcon = redis.StrictRedis(host = 'localhost' , db = 5 )
self .ps = self .rcon.pubsub()
self .ps.subscribe( 'task:pubsub:channel' )
def listen_task( self ):
for i in self .ps.listen():
if i[ 'type' ] = = 'message' :
print "Task get" , i[ 'data' ]
if __name__ = = '__main__' :
print 'listen task channel'
Task().listen_task()
|
Flask 入口
我们分别实现了两种异步任务的后端服务,直接启动他们,就能监听redis队列或频道的消息了。简单的测试如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
|
import redis
import random
import logging
from flask import Flask, redirect
app = Flask(__name__)
rcon = redis.StrictRedis(host = 'localhost' , db = 5 )
prodcons_queue = 'task:prodcons:queue'
pubsub_channel = 'task:pubsub:channel'
@app .route( '/' )
def index():
html = """
<br>
<center><h3>Redis Message Queue</h3>
<br>
<a href="/prodcons">生产消费者模式</a>
<br>
<br>
<a href="/pubsub">发布订阅者模式</a>
</center>
"""
return html
@app .route( '/prodcons' )
def prodcons():
elem = random.randrange( 10 )
rcon.lpush(prodcons_queue, elem)
logging.info( "lpush {} -- {}" . format (prodcons_queue, elem))
return redirect( '/' )
@app .route( '/pubsub' )
def pubsub():
ps = rcon.pubsub()
ps.subscribe(pubsub_channel)
elem = random.randrange( 10 )
rcon.publish(pubsub_channel, elem)
return redirect( '/' )
if __name__ = = '__main__' :
app.run(debug = True )
|
启动脚本,使用
1
2
|
siege -c10 -r 5 http: //127 .0.0.1:5000 /prodcons
siege -c10 -r 5 http: //127 .0.0.1:5000 /pubsub
|
可以分别在监听的脚本输入中看到异步消息。在异步的任务中,可以执行一些耗时间的操作,当然目前这些做法并不知道异步的执行结果,如果需要知道异步的执行结果,可以考虑设计协程任务或者使用一些工具如RQ或者celery等。