Redis通常被认为是一种持久化的存储器关键字-值型存储,可以用于几台机子之间的数据共享平台。
连接数据库
注意:假设现有几台在同一局域网内的机器分别为Master和几个Slaver
Master连接时host为localhost即本机的ip
1
|
_db = redis.Reds(host = 'localhost' , port = 6379 , db = 0 )
|
Slaver连接时的host也为Master的ip,端口port和数据库db不写时为默认值6379、0
1
|
_db = redis.Redis(host = '192.168.235.80' )
|
Redis含列表、集合,字符串等几种数据结构,具体详细的几种数据结构的操作命令可查看Redis官网http://redis.io/commands,下面是对集合进行操作的一些命令
1
2
3
4
5
6
|
_db.sadd(key, * values) # 插入指定values到集合中并返回新插入的的值的数量
_db.spop( self .key) # 随机从集合中的得到一个元素将其从集合中删除并作为返回值返回
_db.smembers( self .key) # 返回集合的所有元素
_db.delete(key) # 删除整个集合, 成功返回1, 失败返回0
_db.srandmember( self .key) # 从集合中随机选取一个元素作为返回
_db.sismember( self .key, value) # 判断指定value是否在本集合中,成功返回1,失败返回0
|
例如,Master可利用redis将url上传到数据库
1
2
3
|
for i in range ( 20 ): # 将需爬取的糗事百科前20页的url并存入urls集合
url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1 )
_db.sadd( 'urls' , url) # 将url插入关键字urls集合中,若url已存在则不再插入
|
进而Master和Slaver可从数据库里获取url
1
|
url = _db.spop( 'urls' ) # 随机从urls集合中取出一个url返回并将其删去
|
同理,Master可利用上面的方法将其他一些共用的资源上传到数据库,Slaver就可从数据库下载需要的东西。下面是一个完整的例子
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
|
# coding=utf-8
import urllib2
import re
import time
import redis
headers = { 'User-Agent' : 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36' }
job_redis = redis.Redis(host = '192.168.235.80' ) # host为主机的IP,port和db为默认值
class Clawer( object ):
identity = 'master' # 或slaver
def __init__( self ):
if self .identity = = 'master' :
for i in range ( 20 ): # 将需爬取的糗事百科前20页的url并存入urls集合
url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1 )
job_redis.sadd( 'urls' , url)
self .main()
def get_content( self ):
"""
从糗事百科中获取故事
:return: 故事列表
"""
stories = []
content_pattern = re. compile ( '<div class="content">([\w\W]*?)</div>([\w\W]*?)class="stats"' ) # 匹配故事内容(第一空)和是否含有图片(第二空)的模板
pattern = re. compile ( '<.*?>' ) # 匹配包括括号及括号内无关内容的模板
url = job_redis.spop( 'urls' )
while url: # 当数据库还存在网页url,取出一个并爬取
try :
request = urllib2.Request(url, headers = headers)
response = urllib2.urlopen(request)
text = response.read()
except urllib2.URLError, e: # 若出现网页读取错误捕获并输出
if hasattr (e, "reason" ):
print e.reason
content = re.findall(content_pattern, text) # 获取含模板内容的列表
for x in content:
if "img" not in x[ 1 ]: # 过滤含图片的故事
x = re.sub(pattern, '', x[ 0 ])
x = re.sub( '\n' , '', x)
stories.append(x)
url = job_redis.spop( 'urls' )
time.sleep( 3 )
return stories
def main( self ):
self .get_content()
if __name__ = = '__main__' :
Clawer()
|
将此代码在几台机器同时运行,调节其身份为master或slaver,做到简单的分布式爬虫
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:http://blog.csdn.net/zhou_1997/article/details/52624468