本文实例讲述了python爬虫实现爬取百度百科词条功能。分享给大家供大家参考,具体如下:
爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的url开始,获得初始网页上的url,在抓取网页的过程中,不断从当前页面上抽取新的url放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的url队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页url,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索。常见的爬虫框架有scrapy等。
自定义爬虫程序一般包含:url管理器、网页下载器、网页解析器、输出处理器。
以下我写了一个爬取百度百科词条的实例。
爬虫主程序入口
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
|
from crawler_test.html_downloader import urldownloader
from crawler_test.html_outer import htmlouter
from crawler_test.html_parser import htmlparser
from crawler_test.url_manager import urlmanager
# 爬虫主程序入口
class maincrawler():
def __init__( self ):
# 初始值,实例化四大处理器:url管理器,下载器,解析器,输出器
self .urls = urlmanager()
self .downloader = urldownloader()
self .parser = htmlparser()
self .outer = htmlouter()
# 开始爬虫方法
def start_craw( self , main_url):
print ( '爬虫开始...' )
count = 1
self .urls.add_new_url(main_url)
while self .urls.has_new_url():
try :
new_url = self .urls.get_new_url()
print ( '爬虫%d,%s' % (count, new_url))
html_cont = self .downloader.down_load(new_url)
new_urls, new_data = self .parser.parse(new_url, html_cont)
# 将解析出的url放入url管理器,解析出的数据放入输出器中
self .urls.add_new_urls(new_urls)
self .outer.conllect_data(new_data)
if count > = 10 : # 控制爬取的数量
break
count + = 1
except :
print ( '爬虫失败一条' )
self .outer.output()
print ( '爬虫结束。' )
if __name__ = = '__main__' :
main_url = 'https://baike.baidu.com/item/python/407313'
mc = maincrawler()
mc.start_craw(main_url)
|
url管理器
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
# url管理器
class urlmanager():
def __init__( self ):
self .new_urls = set () # 待爬取
self .old_urls = set () # 已爬取
# 添加一个新的url
def add_new_url( self , url):
if url is none:
return
elif url not in self .new_urls and url not in self .old_urls:
self .new_urls.add(url)
# 批量添加url
def add_new_urls( self , urls):
if urls is none or len (urls) = = 0 :
return
else :
for url in urls:
self .add_new_url(url)
# 判断是否有url
def has_new_url( self ):
return len ( self .new_urls) ! = 0
# 从待爬取的集合中获取一个url
def get_new_url( self ):
new_url = self .new_urls.pop()
self .old_urls.add(new_url)
return new_url
|
网页下载器
1
2
3
4
5
6
7
8
9
10
11
12
13
|
from urllib import request
# 网页下载器
class urldownloader():
def down_load( self , url):
if url is none:
return none
else :
rt = request.request(url = url, method = 'get' ) # 发get请求
with request.urlopen(rt) as rp: # 打开网页
if rp.status ! = 200 :
return none
else :
return rp.read() # 读取网页内容
|
网页解析器
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
|
import re
from urllib import parse
from bs4 import beautifulsoup
# 网页解析器,使用beautifulsoup
class htmlparser():
# 每个词条中,可以有多个超链接
# main_url指url公共部分,如“https://baike.baidu.com/”
def _get_new_url( self , main_url, soup):
# baike.baidu.com/
# <a target="_blank" href="/item/%e8%ae%a1%e7%ae%97%e6%9c%ba%e7%a8%8b%e5%ba%8f%e8%ae%be%e8%ae%a1%e8%af%ad%e8%a8%80" rel="external nofollow" >计算机程序设计语言</a>
new_urls = set ()
# 解析出main_url之后的url部分
child_urls = soup.find_all( 'a' , href = re. compile (r '/item/(\%\w{2})+' ))
for child_url in child_urls:
new_url = child_url[ 'href' ]
# 再拼接成完整的url
full_url = parse.urljoin(main_url, new_url)
new_urls.add(full_url)
return new_urls
# 每个词条中,只有一个描述内容,解析出数据(词条,内容)
def _get_new_data( self , main_url, soup):
new_datas = {}
new_datas[ 'url' ] = main_url
# <dd class="lemmawgt-lemmatitle-title"><h1>计算机程序设计语言</h1>...
new_datas[ 'title' ] = soup.find( 'dd' , class_ = 'lemmawgt-lemmatitle-title' ).find( 'h1' ).get_text()
# class="lemma-summary" label-module="lemmasummary"...
new_datas[ 'content' ] = soup.find( 'div' , attrs = { 'label-module' : 'lemmasummary' },
class_ = 'lemma-summary' ).get_text()
return new_datas
# 解析出url和数据(词条,内容)
def parse( self , main_url, html_cont):
if main_url is none or html_cont is none:
return
soup = beautifulsoup(html_cont, 'lxml' , from_encoding = 'utf-8' )
new_url = self ._get_new_url(main_url, soup)
new_data = self ._get_new_data(main_url, soup)
return new_url, new_data
|
输出处理器
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
|
# 输出器
class htmlouter():
def __init__( self ):
self .datas = []
# 先收集数据
def conllect_data( self , data):
if data is none:
return
self .datas.append(data)
return self .datas
# 输出为html
def output( self , file = 'output_html.html' ):
with open ( file , 'w' , encoding = 'utf-8' ) as fh:
fh.write( '<html>' )
fh.write( '<head>' )
fh.write( '<meta charset="utf-8"></meta>' )
fh.write( '<title>爬虫数据结果</title>' )
fh.write( '</head>' )
fh.write( '<body>' )
fh.write(
'<table style="border-collapse:collapse; border:1px solid gray; width:80%; word-break:break-all; margin:20px auto;">' )
fh.write( '<tr>' )
fh.write( '<th style="border:1px solid black; width:35%;">url</th>' )
fh.write( '<th style="border:1px solid black; width:15%;">词条</th>' )
fh.write( '<th style="border:1px solid black; width:50%;">内容</th>' )
fh.write( '</tr>' )
for data in self .datas:
fh.write( '<tr>' )
fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'url' ]))
fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'title' ]))
fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'content' ]))
fh.write( '</tr>' )
fh.write( '</table>' )
fh.write( '</body>' )
fh.write( '</html>' )
|
效果(部分):
希望本文所述对大家python程序设计有所帮助。
原文链接:https://www.cnblogs.com/wcwnina/p/8619084.html