本文实例讲述了PHP使用redis消息队列发布微博的方法。分享给大家供大家参考,具体如下:
在一些用户发布内容应用中,可能出现1秒上万个用户同时发布消息的情况,此时使用mysql可能会出现" too many connections"错误,当然把Mysql的max_connections参数设置为更大数,不过这是一个治标不治本的方法。而使用redis的消息队列,把用户发布的消息暂时存储在消息队列中,然后使用多个cron程序把消息队列中的数据插入到Mysql。这样就有效的降低了Mysql的高并发。具体实现原理如下:
现有微博发布接口:
1
2
3
4
5
|
$weibo = new Weibo();
$uid = $weibo ->get_uid();
$content = $weibo ->get_content;
$time = time();
$webi ->post( $uid , $content , $time );
|
此方法直接把微博内容写入Mysql。具体过程省略。
把消息写入到redis:
1
2
3
4
5
|
$redis = new Redis(localhost,6379);
$redis ->connect();
$webiInfo = array ( 'uid' =>get_uid(), 'content' =>get_content(), 'time' =>time());
$redis ->lpush( 'weibo_list' ,json_encode( $weiboInfo ));
$redis ->close();
|
从redis中取出数据:
1
2
3
4
5
6
7
8
9
10
|
while (true){
if ( $redis ->lsize( 'weibo_list' ) > 0){
$info = $redis ->rpop( 'weibo_list' );
$info = json_decode( $info );
} else {
sleep(1);
}
}
$weibo ->post( $info ->uid, $info ->content, $info ->time);
//插入数据的时候可以用一次性插入多条数据的方法,避免循环插入,不停的循环插入可能会导致死锁问题。
|
提示:可以运行多个cron程序同时把消息队列的数据插入到Mysql中,当一台Redis服务器不能应付大量并发时,使用一致性Hash算法,把并发分发到不同的Redis服务器。
希望本文所述对大家PHP程序设计有所帮助。