一、Memcached
Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态、数据库驱动网站的速度。Memcached基于一个存储键/值对的hashmap。其守护进程(daemon )是用C写的,但是客户端可以用任何语言来编写,并通过memcached协议与守护进程通信。
Memcached安装和基本使用
Memcached安装:
1
2
3
4
5
6
7
8
|
wget http: / / memcached.org / latest
tar - zxvf memcached - 1.x .x.tar.gz
cd memcached - 1.x .x
. / configure && make && make test && sudo make install
PS:依赖libevent yum install libevent - devel
apt - get install libevent - dev
|
启动Memcached
1
2
3
4
5
6
7
8
9
10
|
memcached - d - m 10 - u root - l 10.211 . 55.4 - p 12000 - c 256 - P / tmp / memcached.pid
参数说明: - d 是启动一个守护进程
- m 是分配给Memcache使用的内存数量,单位是MB
- u 是运行Memcache的用户
- l 是监听的服务器IP地址
- p 是设置Memcache监听的端口,最好是 1024 以上的端口
- c 选项是最大运行的并发连接数,默认是 1024 ,按照你服务器的负载量来设定
- P 是设置保存Memcache的pid文件
|
Memcached命令
1
2
3
|
存储命令: set / add / replace / append / prepend / cas
获取命令: get / gets
其他命令: delete / stats..
|
Python操作Memcached
安装API
1
2
|
python操作Memcached使用Python - memcached模块
下载安装:https: / / pypi.python.org / pypi / python - memcached
|
1、第一次操作
1
2
3
4
5
6
|
import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
mc. set ( "foo" , "bar" )
ret = mc.get( 'foo' )
print ret
|
Ps:debug = True 表示运行出现错误时,现实错误信息,上线后移除该参数。
2、天生支持集群
python-memcached模块原生支持集群操作,其原理是在内存维护一个主机列表,且集群中主机的权重值和主机在列表中重复出现的次数成正比
1
2
3
4
5
6
7
|
主机 权重
1.1 . 1.1 1
1.1 . 1.2 2
1.1 . 1.3 1
那么在内存中主机列表为: host_list = [ "1.1.1.1" , "1.1.1.2" , "1.1.1.2" , "1.1.1.3" , ]
|
如果用户根据如果要在内存中创建一个键值对(如:k1 = "v1"),那么要执行一下步骤:
- 根据算法将 k1 转换成一个数字
- 将数字和主机列表长度求余数,得到一个值 N( 0 <= N < 列表长度 )
- 在主机列表中根据 第2步得到的值为索引获取主机,例如:host_list[N]
- 连接 将第3步中获取的主机,将 k1 = "v1" 放置在该服务器的内存中
代码实现如下:
1
2
3
|
mc = memcache.Client([( '1.1.1.1:12000' , 1 ), ( '1.1.1.2:12000' , 2 ), ( '1.1.1.3:12000' , 1 )], debug = True )
mc. set ( 'k1' , 'v1' )
|
3、add
添加一条键值对,如果已经存在的 key,重复执行add操作异常
1
2
3
4
5
6
7
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
mc.add( 'k1' , 'v1' )
# mc.add('k1', 'v2') # 报错,对已经存在的key重复添加,失败!!! |
4、replace
replace 修改某个key的值,如果key不存在,则异常
1
2
3
4
5
6
7
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
# 如果memcache中存在kkkk,则替换成功,否则一场 mc.replace( 'kkkk' , '999' )
|
5、set 和 set_multi
set 设置一个键值对,如果key不存在,则创建,如果key存在,则修改
set_multi 设置多个键值对,如果key不存在,则创建,如果key存在,则修改
1
2
3
4
5
6
7
8
9
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
mc. set ( 'key0' , 'wupeiqi' )
mc.set_multi({ 'key1' : 'val1' , 'key2' : 'val2' })
|
6、delete 和 delete_multi
delete 在Memcached中删除指定的一个键值对
delete_multi 在Memcached中删除指定的多个键值对
1
2
3
4
5
6
7
8
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
mc.delete( 'key0' )
mc.delete_multi([ 'key1' , 'key2' ])
|
7、get 和 get_multi
get 获取一个键值对
get_multi 获取多一个键值对
1
2
3
4
5
6
7
8
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
val = mc.get( 'key0' )
item_dict = mc.get_multi([ "key1" , "key2" , "key3" ])
|
8、append 和 prepend
append 修改指定key的值,在该值 后面 追加内容
prepend 修改指定key的值,在该值 前面 插入内容
1
2
3
4
5
6
7
8
9
10
11
12
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
# k1 = "v1" mc.append( 'k1' , 'after' )
# k1 = "v1after" mc.prepend( 'k1' , 'before' )
# k1 = "beforev1after" |
9、decr 和 incr
incr 自增,将Memcached中的某一个值增加 N ( N默认为1 )
decr 自减,将Memcached中的某一个值减少 N ( N默认为1 )
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True )
mc. set ( 'k1' , '777' )
mc.incr( 'k1' )
# k1 = 778 mc.incr( 'k1' , 10 )
# k1 = 788 mc.decr( 'k1' )
# k1 = 787 mc.decr( 'k1' , 10 )
# k1 = 777 |
10、gets 和 cas
如商城商品剩余个数,假设改值保存在memcache中,product_count = 900
A用户刷新页面从memcache中读取到product_count = 900
B用户刷新页面从memcache中读取到product_count = 900
如果A、B用户均购买商品
A用户修改商品剩余个数 product_count=899
B用户修改商品剩余个数 product_count=899
如此一来缓存内的数据便不在正确,两个用户购买商品后,商品剩余还是 899
如果使用python的set和get来操作以上过程,那么程序就会如上述所示情况!
如果想要避免此情况的发生,只要使用 gets 和 cas 即可,如:
1
2
3
4
5
6
7
8
9
|
#!/usr/bin/env python # -*- coding:utf-8 -*- import memcache
mc = memcache.Client([ '10.211.55.4:12000' ], debug = True , cache_cas = True )
v = mc.gets( 'product_count' )
# ... # 如果有人在gets之后和cas之前修改了product_count,那么,下面的设置将会执行失败,剖出异常,从而避免非正常数据的产生 mc.cas( 'product_count' , "899" )
|
Ps:本质上每次执行gets时,会从memcache中获取一个自增的数字,通过cas去修改gets的值时,会携带之前获取的自增值和memcache中的自增值进行比较,如果相等,则可以提交,如果不想等,那表示在gets和cas执行之间,又有其他人执行了gets(获取了缓冲的指定值), 如此一来有可能出现非正常数据,则不允许修改。
二、Memcached 真的过时了吗?
这两年Redis火得可以,Redis也常常被当作Memcached的挑战者被提到桌面上来。关于Redis与Memcached的比较更是比比皆是。然而,Redis真的在功能、性能以及内存使用效率上都超越了Memcached吗?
下面内容来自Redis作者在*上的一个回答,对应的问题是《Is memcached a dinosaur in comparison to Redis?》(相比Redis,Memcached真的过时了吗?)
- You should not care too much about performances. Redis is faster per core with small values, but memcached is able to use multiple cores with a single executable and TCP port without help from the client. Also memcached is faster with big values in the order of 100k. Redis recently improved a lot about big values (unstable branch) but still memcached is faster in this use case. The point here is: nor one or the other will likely going to be your bottleneck for the query-per-second they can deliver.
- 没有必要过多的关心性能,因为二者的性能都已经足够高了。由于Redis只使用单核,而Memcached可以使用多核,所以在比较上,平均每一 个核上Redis在存储小数据时比Memcached性能更高。而在100k以上的数据中,Memcached性能要高于Redis,虽然Redis最近 也在存储大数据的性能上进行优化,但是比起Memcached,还是稍有逊色。说了这么多,结论是,无论你使用哪一个,每秒处理请求的次数都不会成为瓶 颈。(比如瓶颈可能会在网卡)
- You should care about memory usage. For simple key-value pairs memcached is more memory efficient. If you use Redis hashes, Redis is more memory efficient. Depends on the use case.
- 如果要说内存使用效率,使用简单的key-value存储的话,Memcached的内存利用率更高,而如果Redis采用hash结构来做key-value存储,由于其组合式的压缩,其内存利用率会高于Memcached。当然,这和你的应用场景和数据特性有关。
- You should care about persistence and replication, two features only available in Redis. Even if your goal is to build a cache it helps that after an upgrade or a reboot your data are still there.
- 如果你对数据持久化和数据同步有所要求,那么推荐你选择Redis,因为这两个特性Memcached都不具备。即使你只是希望在升级或者重启系统后缓存数据不会丢失,选择Redis也是明智的。
- You should care about the kind of operations you need. In Redis there are a lot of complex operations, even just considering the caching use case, you often can do a lot more in a single operation, without requiring data to be processed client side (a lot of I/O is sometimes needed). This operations are often as fast as plain GET and SET. So if you don’t need just GEt/SET but more complex things Redis can help a lot (think at timeline caching).
- 当然,最后还得说到你的具体应用需求。Redis相比Memcached来说,拥有更多的数据结构和并支持更丰富的数据操作,通常在 Memcached里,你需要将数据拿到客户端来进行类似的修改再set回去。这大大增加了网络IO的次数和数据体积。在Redis中,这些复杂的操作通 常和一般的GET/SET一样高效。所以,如果你需要缓存能够支持更复杂的结构和操作,那么Redis会是不错的选择。