前言
django项目有一个耗时较长的update过程,希望在接到请求运行update过程的时候,django应用仍能正常处理其他的请求,并且update过程要求不能并行,也不能漏掉任何一个请求
使用celery的solo模式解决
安装redis
https://github.com/microsoftarchive/redis/releases
下载.msi文件安装,会直接将redis注册为windows服务
安装celery与redis依赖
1
2
|
pip install celery
pip indatll redis
|
一个celery应用
1
2
3
4
5
6
7
8
9
10
11
12
|
# celery_test.py
import time
from celery import celery
app = celery( 'tasks' , broker = 'redis://127.0.0.1:6379/0' )
@app .task
def add(x, y):
time.sleep( 5 )
return x + y
|
启动celery服务
1
|
celery - a celery_test.app worker - - pool = solo - l info
|
查看完整的命令行参数列表
1
|
celery worker - - help
|
对celery启动命令的解释
- '-a' 是一个全局配置,定义了app的位置
- '--pool' 是pool的配置,默认是prefork(并发),选择solo之后,发送的任务不会被并发执行,在worker执行任务过程中,再次发送给worker的任务会排队,执行完一个再执行另一个
- '-l' 是worker的配置,定义了log级别
调用任务
1
2
|
>>> from celery_test import add
>>> add.delay( 4 , 4 )
|
因为启动了solo模式,因此,可以看到在一个add没有执行完前,即使再次发送执行add的任务,celery worker也会等到前一个任务执行完才去执行下一个
与django结合
在装载celery应用前先setup django
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import time
import os
import django
os.environ.setdefault( "django_settings_module" , "demo.settings" )
django.setup()
from celery import celery
from django_app.update import update
app = celery( 'tasks' , broker = 'redis://127.0.0.1:6379/0' , backend = 'redis://127.0.0.1:6379/0' )
@app .task
def update_task():
update()
|
然后在views中调用task就可以了。
1
2
3
4
5
|
from celery_test import update_task
def update_api(request):
if request.method = = "get" :
update_task.delay()
return httpresponse(status = status.http_200_ok)
|
执行过程中,程序的print信息会作为celery warning,报错信息会作为celery error
日志
在启动应用的时候指定日志文件路径
1
|
- f log_path
|
不设置这个参数的时候,日志默认输出到控制台
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://www.cnblogs.com/luozx207/p/10980599.html