celery(芹菜) 异步任务 定时任务 周期任务

时间:2020-11-28 09:05:31

什么是celery

  Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统

  专注于实时处理的异步任务队列

  同时也支持任务调度

celery架构

celery(芹菜) 异步任务  定时任务  周期任务

celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。

消息中间件

  Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等

任务执行单元

  Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。

任务结果存储

  Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等

celery能做什么  

  异步任务

  定时任务

  周期任务

使用场景  

  耗时操作(所有的耗时操作都可以)将耗时操作任务提交给Celery去异步执行,比如发送短信/邮件、消息推送、音视频处理等等

  定时任务(每天定时推送微信服务号消息,)定时执行某件事情,比如每天数据统计

使用

pip install celery

celery执行异步任务:

项目结构

celery(芹菜) 异步任务  定时任务  周期任务

celery的简单实例

celery_task_s1.py代码

from celery import Celery
#不加密码
broker = 'redis://127.0.0.1:6379/0' #指定broker
backend = 'redis://127.0.0.1:6379/1' #指定存储结果 # 加密码
# broker = 'redis://:123456@127.0.0.1:6379/2'
# backend = 'redis://:123456@127.0.0.1:6379/1' # 一定要指定一个名字
app = Celery('test',broker=broker,backend=backend) #任务其实就是个函数
# 需要用一个装饰器装饰,表示该任务是被celery管理的,并且可以用celery执行的
@app.task
def add(x,y) -> int:
import time
time.sleep(2)
return x+y

add_task.py

#用于提交任务的py文件

import celery_task_s1
#正常同步执行任务 会睡两秒在执行
# ret=celery_task_s1.add(3,4)
# print(ret) #提交任务到消息队列中
#只是把任务提交到消息队列中,并没有执行
# ret=celery_task_s1.add.delay(3,4)
# print(ret)
#a5ea035f-0cc3-44ba-b334-f5d7c7ce681d :任务的id号 #任务提交完成后,需要启动worker,可以用命令启动:
# celery worker -A celery_task_s1 -l info
#windows上:celery worker -A celery_task_s1 -l info -P eventlet  win上首次使用worker需要安装eventlet模块

celery_result.py

from celery_task_s1 import app
from celery.result import AsyncResult async = AsyncResult(id='30314784-04bd-4ec5-acab-5cb22181cfcb',app=app) if async.successful():
#取出它return的值
result = async .get()
print(result)
# result.forget() 将结果删除
elif async.failed():
print('执行失败')
elif async.status =="PENDING":
print('任务等待中被执行')
elif async.status == 'RETRY':
print('任务异常后正在重试')
elif async.status == 'STARTED':
print('任务已经开始被执行')

写一个py文件:celery_task

  1. 指定brokey(消息中间件),指定backend(结果存储)
  2. 实例化产生一个Celery对象,app=Celery('起一个名字',broker,backend)
  3. 加装饰器绑定任务,在函数(add)上加装饰器app.task
  4. 其他程序提交任务,先导入add,  add.delay(参数,参数),会将该函数提交到消息中间件,但是并不会执行,有个返回值,直接print会打印出任务的id,以后用id去查询任务是否执行完成
  5. 启动worker去执行任务(worker可以先启动):
    1. celery worker -A celery_task_s1 -l info  (-l是艾欧)
    2. Windows下:celery worker -A celery_task_s1 -l info -P eventlet  (需要安装eventlet模块)
    3. 还有一种作为自执行文件启动,可以写在往里面放值的文件下面这样运行放值的模块的时候worker也启动了 但是win上好像不支持
      1. from celery_app_task import cel
        if __name__ == '__main__':
        cel.worker_main()
        # cel.worker_main(argv=['--loglevel=info')
  6. 查看结果:根据id去查询
    async = AsyncResult(id="a5ea035f-0cc3-44ba-b334-f5d7c7ce681d", app=app)
    if async.successful():
    #取出它return的值
    result = async.get()
    print(result)

多任务结构

pro_cel
├── celery_task# celery相关文件夹
│ ├── celery.py # celery连接和配置相关文件,必须叫这个名字
│ └── order_task.py # 所有任务函数
│ └── user_task.py # 所有任务函数
├── celery_result.py # 检查结果
└── add_task.py # 触发任务

celery.py文件

#这个文件名必须叫celery,生成celery对象

from celery import Celery
from datetime import timedelta
from celery.schedules import crontab
broker = 'redis://127.0.0.1:6379/0'
backend = 'redis://127.0.0.1:6379/1'
app = Celery('test',broker=broker,backend=backend,
#包含以下链各个任务文件,去响应的py文件中找任务,对多个任务做分类
include=[
'celery_task.order_task',
'celery_task.user_task',
]
) #时区
# app.conf.timezone = 'Asia/Shanghai'
#是否使用UTC
# app.conf.enable_utc = False

order_task.py

from celery_task.celery import app
@app.task
def order_add(x,y):
import time
time.sleep(1)
return x+y

user_task.py

from celery_task.celery import app
@app.task
def user_add(x,y):
import time
time.sleep(1)
return x+y

add_task.py

from celery_task.order_task import order_add
from celery_task.user_task import user_add # ret=order_add.delay(5,6)
ret=user_add.delay(10,60)
print(ret)

celery_result.py

from celery.result import  AsyncResult
from celery_task.celery import app
from add_task import ret async = AsyncResult(id='c951c4f7-dcfc-46fc-b60e-ee67b61211ec',app=app)
if async.successful():
result = async.get()
print(result)
# result.forget() # 将结果删除,执行完成,结果不会自动删除
# async.revoke(terminate=True) # 无论现在是什么时候,都要终止
# async.revoke(terminate=False) # 如果任务还没有开始执行呢,那么就可以终止。
elif async.failed():
print('执行失败')
elif async.status == 'PENDING':
print('任务等待中被执行')
elif async.status == 'RETRY':
print('任务异常后正在重试')
elif async.status == 'STARTED':
print('任务已经开始被执行')

启动worker:  celery_task是包的名字(文件夹名字)

celery worker -A celery_task -l info -P eventlet    #放值的时候手动启动add_task文件

celery执行定时任务

设定时间让celery执行一个任务

add_task.py 就是上面的执行异步任务的那个文件(往里面放值的时候使用定时方式)

#用于提交任务的py文件
import celery_task_s1
#执行定时任务:3s钟以后执行add任务
from datetime import datetime
# v1 = datetime(2019, 7, 12, 11, 13, 56)
# print(v1)
# v2 = datetime.utcfromtimestamp(v1.timestamp())
# print(v2)
# #取出要执行任务的时间对象,调用apply_async方法,args是参数,eta是执行的时间
# result = celery_task_s1.add.apply_async(args=[1, 3], eta=v2)
# print(result.id) #这里需要注意的是result是个对象,你可以直接打印因为内部写了__str__ #第二种获取时间的方法
ctime = datetime.now()
# 默认用utc时间
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
from datetime import timedelta
#取10s之后的时间对象
time_delay = timedelta(seconds=3)
task_time = utc_ctime + time_delay
result = celery_task_s1.add.apply_async(args=[4, 3], eta=task_time)
print(result.id) #这里需要注意的是result是个对象,你可以直接打印因为内部写了__str__ #任务提交完成后,需要启动worker,可以用命令启动:
# celery worker -A celery_task_s1 -l info
#windows上:celery worker -A celery_task_s1 -l info -P eventlet

 

celery周期任务

多任务结构中celery.py修改如下

#这个文件名必须叫celery,生成celery对象

from celery import Celery
from datetime import timedelta
from celery.schedules import crontab
broker = 'redis://127.0.0.1:6379/0'
backend = 'redis://127.0.0.1:6379/1'
app = Celery('test',broker=broker,backend=backend,
#包含以下链各个任务文件,去响应的py文件中找任务,对多个任务做分类
include=[
'celery_task.order_task',
'celery_task.user_task',
]
) #时区问题 每天的什么时候去执行任务
#时区
# app.conf.timezone = 'Asia/Shanghai'
#是否使用UTC
# app.conf.enable_utc = False #beat_schedule 定义定时任务的
app.conf.beat_schedule = {
#名字随意命令
'add-every-2-seconds':{
#执行tasks1下的test_celery函数
'task':'celery_task.order_task.order_add',
#每隔2秒执行一次
# 'schedule':1.0, 几秒钟几分钟几小时后schedule对应的参数
# 'schedule':crontab(minute='*/1'),
'schedule':timedelta(seconds=10),
#传递参数
'args':(5,6)
},
# 'add-every-12-seconds':{
# 'task':'celery_task.order_task.user_add',
# #每年4月11号,8点42分执行
# # 'schedule':crontab(minute=42,hour=8,day_of_month=11,month_of_year=4),
# 'schedule':crontab(minute=42,hour=8,day_of_month=11,month_of_year=4),
# 'args':(16,16)
# }
}

创建worker的方式并没有发生变化,但是这里要注意的是,每间隔一定时间后需要生产出来任务给worker去执行,这里需要一个生产者beat

启动一个beat:(这个负责定时周期往里面放值)

celery beat -A celery_task -l info

启动worker执行(winds)

celery worker -A celery_task -l info -P  eventlet

django中使用celery

需要安装

celery==3.1.25
django-celery==3.1.20

在项目目录下创建celeryconfig.py

import djcelery
djcelery.setup_loader()
CELERY_IMPORTS=(
'app01.tasks',
)
#有些情况可以防止死锁
CELERYD_FORCE_EXECV=True
# 设置并发worker数量
CELERYD_CONCURRENCY=4
#允许重试
CELERY_ACKS_LATE=True
# 每个worker最多执行100个任务被销毁,可以防止内存泄漏
CELERYD_MAX_TASKS_PER_CHILD=100
# 超时时间
CELERYD_TASK_TIME_LIMIT=12*30

第一种 直接把多任务结构文件直接拷贝在项目目录下

celery(芹菜) 异步任务  定时任务  周期任务

  注意在celery的任务函数中不能直接调用django的环境,需要手动添加

os.environ.setdefault("DJANGO_SETTINGS_MODULE", "untitled15.settings")
import django
django.setup()

第二种 在app01目录下创建tasks.py

from celery import task
@task
def add(a,b):
with open('a.text', 'a', encoding='utf-8') as f:
f.write('a')
print(a+b)

视图函数views.py(定时任务)

from django.shortcuts import render,HttpResponse
from app01.tasks import add
from datetime import datetime
def test(request):
# result=add.delay(2,3)
ctime = datetime.now()
# 默认用utc时间
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
from datetime import timedelta
time_delay = timedelta(seconds=5)
task_time = utc_ctime + time_delay
result = add.apply_async(args=[4, 3], eta=task_time)
print(result.id)
return HttpResponse('ok')

settings.py

INSTALLED_APPS = [
...
'djcelery',
'app01'
] ... from djagocele import celeryconfig #from 这个django项目 import celeryconfig就是上面配置的文件
BROKER_BACKEND='redis'
BOOKER_URL='redis://127.0.0.1:6379/1'
CELERY_RESULT_BACKEND='redis://127.0.0.1:6379/2'

https://www.cnblogs.com/znicy/p/5626040.html

http://www.manongjc.com/article/7864.html