首先,简单介绍:Redis是一个基于内存的键值对存储系统,常用作数据库、缓存和消息代理。
支持:字符串,字典,列表,集合,有序集合,位图(bitmaps),地理位置,HyperLogLog等多种数据结构。
支持事务、分片、主从复之、支持RDB(内存数据保存的文件)和AOF(类似于MySQL的binlog)两种持久化方式。3.0加入订阅分发、Lua脚本、集群等特性。
安装(都大同小异,安装前建议用先用search搜索一下):
ubuntu:sudo apt-get install redis-server -yq
MAC: sudo port install redis-server
CentOS: yum install redis-server
安装之后已经启动,可以用redis-cli验证,也可以ps -ef | grep redis
安装redis的Python包:
pip install redis
安装之后可以这样基本使用:
In [15]: import redis
In [16]: conn = redis.Redis()
In [17]: conn.rpush('a','2')
Out[17]: 1
In [18]: conn = redis.StrictRedis(host='localhost', port=6379, db=0)
In [19]: conn.lrange('a',0,-1)
Out[19]: [b'2']
Python调用redis的函数和redis本身的命令都差不多,一般参数个数和类型都相同,可以直接查看Redis命令参考,再去Python的redis模块的client.py中去找
OK,接下来看看Python都可以用Redis来做些什么吧,四种常用使用场景:
1.取最新N个数据操作:
该场景应用于比如每天更新10万条数据,均写入关系型数据库(如MySQL),可以在Redis中保存最新的1万条数据,方便读取和查询,极大提高读取查询效率。
使用Redis的List数据结构,用到常用命令LPUSH,LTRIM和LRANGE即可,用Flak来呈现,用SQLAlchemy来连接MySQL:
服务端代码:
# coding=utf-8 import json from datetime import datetime from flask import Flask, request, jsonify from flask_sqlalchemy import SQLAlchemy import redis import pymysql pymysql.install_as_MySQLdb() app = Flask(__name__) app.config['SQLALCHEMY_DATABASE_URI'] = 'mysql://web:web@localhost:3306/r' app.config['SQLALCHEMY_TRACK_MODIFICATIONS'] = False db = SQLAlchemy(app) r = redis.StrictRedis(host='localhost', port=6379, db=0) MAX_FILE_COUNT = 50 #数据模型,有id,name和uploadtime三个字段 class PasteFile(db.Model): __tablename__ = 'files' id = db.Column(db.Integer, primary_key=True) name = db.Column(db.String(5000), nullable=False) uploadtime = db.Column(db.DateTime, nullable=False) def __init__(self, name='', uploadtime=None): self.uploadtime = datetime.now() if uploadtime is None else uploadtime self.name = name db.create_all() #该函数对POST传入的id和name,写MySQL数据库,LPUSH到Redis中,并LTRIM裁剪保留MAX_FILE_COUNT个 @app.route('/upload', methods=['POST']) def upload(): name = request.form.get('name') pastefile = PasteFile(name) db.session.add(pastefile) db.session.commit() r.lpush('latest.files', pastefile.id) r.ltrim('latest.files', 0, MAX_FILE_COUNT - 1) return jsonify({'r': 0}) #该视图函数截取start-limit个数据,通过json呈现在街面上,默认0-20就是最新插入的20条 @app.route('/lastest_files') def get_lastest_files(): start = request.args.get('start', default=0, type=int) limit = request.args.get('limit', default=20, type=int) ids = r.lrange('latest.files', start, start + limit - 1) files = PasteFile.query.filter(PasteFile.id.in_(ids)).all() return json.dumps([{'id': f.id, 'filename': f.name} for f in files]) if __name__ == '__main__': app.run(host='0.0.0.0', port=9000, debug=True)
随机生成100条数据:
from lastest_files import app, PasteFile, r import time ,random, string #随机生成100条name插入MySQl表,id自增 with app.test_client() as client: for _ in range(1,101): data = ''.join(random.sample(string.ascii_letters,10))+'_'+str(_) print ('input data: ',data) client.post('/upload',data={'name':data}) time.sleep(0.5)
测试结果:
2.取TOP N操作(排行榜应用)
该场景用于游戏或者需要分数排名的地方
主要利用Redis的有序集合(SortedSet)其中:score值递减(从大到小)的次序排列。
用到Redis有序集合的:ZADD,ZREVRANGE,ZCOUNT,ZREVRANGEBYSCORE命令
测试代码:
# coding=utf-8 import string import random import redis r = redis.StrictRedis(host='localhost', port=6379, db=0) GAME_BOARD_KEY = 'game.board' for _ in range(1000): score = round((random.random() * 100), 2) user_id = ''.join(random.sample(string.ascii_letters, 6)) #随机生成1000个用户,每个用户具有得分和用户名字,插入Redis的有序集合中 r.zadd(GAME_BOARD_KEY, score, user_id) # 随机获得一个用户和他的得分 user_id, score = r.zrevrange(GAME_BOARD_KEY, 0, -1, withscores=True)[random.randint(0, 200)] print (user_id, score) #用有序集合的ZCOUNT获取0-100的个数也就是所有人的数量,获取0-score分数段的人数,也就是这个用户分数超过了多少人 board_count = r.zcount(GAME_BOARD_KEY, 0, 100) current_count = r.zcount(GAME_BOARD_KEY, 0, score) print (current_count, board_count) print ('TOP 10') print ('-' * 20) #用有序集合的ZREVRANGEBYSCORE返回指定区间的元素 #ZREVRANGEBYSCORE key max min [WITHSCORES] [LIMIT offset count] for user_id, score in r.zrevrangebyscore(GAME_BOARD_KEY, 100, 0, start=0, num=10, withscores=True): print (user_id, score)
测试结果:
b'mgOvfl' 83.04 811 1000 TOP 10 -------------------- b'rbhXNd' 99.91 b'KJFELh' 99.88 b'cyjNrJ' 99.81 b'RXohkG' 99.64 b'SMVFbu' 99.51 b'FMBEgz' 99.5 b'ajxhdp' 99.45 b'QuMSpL' 99.33 b'IFYCOs' 99.31 b'VyWnYC' 98.74
3.计数器:
Redis非常适合用来做计数器:
没什么好解释的,就是INCR,DECR,INCRBY
4.实时统计:
Redis的位图提供了二进制操作,非常适合存储布尔类型的值,常见场景就是记录用户登陆状态。
该场景用二进制的方式表示用户是否登录,比如说有10个用户,则0000000000表示无人登录,0010010001表示第3个、第6个、第10个用户登录过,即是活跃的。
用到Redis字符串(String)结构中的:BITCOUNT,GETBIT,BITOP命令
对本月每天的用户登录情况进行统计,会针对每天生成key,例如今天的:account:active:2016:11:23,也会生成月的key:account:active:2016:11和年的key:key:account:active:2016
每个key中的字符串长度就是人数(可能有的key的str没有那么长,那是因为最后一个bit没有set成1,不过没有就相当于是0)
测试代码:
# coding=utf-8 import time import random from datetime import datetime import redis r = redis.StrictRedis(host='localhost', port=6379, db=0) ACCOUNT_ACTIVE_KEY = 'account:active' r.flushall() # r.delete(ACCOUNT_ACTIVE_KEY) now = datetime.utcnow() def record_active(account_id, t=None): #第一次t自己生成,后面t接受传入的年月日 if t is None: t = datetime.utcnow() #Redis事务开始 p = r.pipeline() key = ACCOUNT_ACTIVE_KEY #组合了年月日三种键值,同时将三个键值对应字符串的account_id位置为1 #符合逻辑:该人在这一天登陆,肯定也在当前月登陆,也在当年登陆 for arg in ('year', 'month', 'day'): key = '{}:{}'.format(key, getattr(t, arg)) p.setbit(key, account_id, 1) #Redis事务提交,真正执行 p.execute() def gen_records(max_days, population, k): #循环每天的情况,从1-max_days天 for day in range(1, max_days): time_ = datetime(now.year, now.month, day) #每天随机生成k个数字,表示k个人活跃 accounts = random.sample(range(population), k) #将这k个人对应在当天的字符串中修改,对应位置的bit置为1,表明这个天他有登陆过 for account_id in accounts: record_active(account_id, time_) #查看记录100万数据中随机选择10万活跃用户时的内存占用 def calc_memory(): r.flushall() #执行前先看当前的内存占用 print ('USED_MEMORY: {}'.format(r.info()['used_memory_human'])) start = time.time() #100万种选择10万,20天 gen_records(21, 1000000, 100000) #记录话费时间 print ('COST: {}'.format(time.time() - start)) #添加记录后的内存占用 print ('USED_MEMORY: {}'.format(r.info()['used_memory_human'])) gen_records(29, 10000, 2000) #这个月总的活跃用户数,直接查询记录月的key:bitcount "account:active:2016:11" print (r.bitcount('{}:{}:{}'.format(ACCOUNT_ACTIVE_KEY, now.year, now.month))) #今天的活跃用户数:bitcount "account:active:2016:11:23" print (r.bitcount('{}:{}:{}:{}'.format(ACCOUNT_ACTIVE_KEY, now.year, now.month, now.day))) #随机找一个account_id为1200的用户,查看他是否登陆过:getbit "account:active:2016:11" 1200 account_id = 1200 print (r.getbit('{}:{}:{}'.format(ACCOUNT_ACTIVE_KEY, now.year, now.month), account_id)) #getbit "account:active:2016:11" 10001 print (r.getbit('{}:{}:{}'.format(ACCOUNT_ACTIVE_KEY, now.year, now.month), 10001)) #获取当月1号和2号的建 keys = ['{}:{}:{}:{}'.format(ACCOUNT_ACTIVE_KEY, now.year, now.month, day) for day in range(1, 3)] #获取1号和2号的活跃的用户总数 r.bitop('or', 'destkey:or', *keys) print (r.bitcount('destkey:or')) #获取在1号和2号都活跃的用户数 r.bitop('and', 'destkey:and', *keys) print (r.bitcount('destkey:and'))
测试结果:
9974 2000 1 3593 407
对应的Redis操作结果:
:" ( ::" ( :" ( :" ( ::","account:active:::" Invalid argument(s) ::" "account:active:::" ( > bitcount destkey:or ( ::" "account:active:::" ( > bitcount destkey:and (
Python代码中输出与Redis操作对应关系:
最后,用函数calc_memory()单独测试了一下性能(运行比较慢):
USED_MEMORY: 1.05M COST: 427.4658901691437 USED_MEMORY: 5.82M
所以说明存储200万活跃用户技术,总计20天*100万人,相当于2000万人,采用此方案,只需要5M多空间。
以上代码内容均来自董伟明老师的《Python Web开发实践》,自己实践了一遍,这里主要用来学习、记录和分享。