本文将和大家分享一些从互联网上爬取语料的经验。
0x1 工具准备
工欲善其事必先利其器,爬取语料的根基便是基于python。
我们基于python3进行开发,主要使用以下几个模块:requests、lxml、json。
简单介绍一个各模块的功能
01|requests
requests是一个python第三方库,处理url资源特别方便。它的官方文档上写着大大口号:http for humans(为人类使用http而生)。相比python自带的urllib使用体验,笔者认为requests的使用体验比urllib高了一个数量级。
我们简单的比较一下:
urllib:
1
|
2
3
4
5
6
7
8
9
10
11
12
13
|
import urllib2
import urllib
url_get = " https://api.douban.com/v2/event/list "
#构建请求参数
params = urllib.urlencode({ 'loc' : '108288' , 'day_type' : 'weekend' , 'type' : 'exhibition' })
#发送请求
response = urllib2.urlopen( '?' .join([url_get, '%s' ]) % params)
#response headers
print (response.info())
#response code
print (response.getcode())
#response body
print (response.read())
|
requests:
1
|
2
3
4
5
6
7
8
9
10
11
12
13
|
import requests
url_get = " https://api.douban.com/v2/event/list "
#构建请求参数
params = { 'loc' : '108288' , 'day_type' : 'weekend' , 'type' : 'exhibition' }
#发送请求
response = requests.get(url_get,params = params)
#response headers
print (response.headers)
#response code
print (response.status_code)
#response body
print (response.text)
|
我们可以发现,这两种库还是有一些区别的:
1. 参数的构建:urllib需要对参数进行urlencode编码处理,比较麻烦;requests无需额外编码处理,十分简洁。
2. 请求发送:urllib需要额外对url参数进行构造,变为符合要求的形式;requests则简明很多,直接get对应链接与参数。
3. 连接方式:看一下返回数据的头信息的“connection”,使用urllib库时,"connection":"close",说明每次请求结束关掉socket通道,而使用requests库使用了urllib3,多次请求重复使用一个socket,"connection":"keep-alive",说明多次请求使用一个连接,消耗更少的资源
4. 编码方式:requests库的编码方式accept-encoding更全,在此不做举例
综上所诉,使用requests更为简明、易懂,极大的方便我们开发。
02|lxml
beautifulsoup是一个库,而xpath是一种技术,python中最常用的xpath库是lxml。
当我们拿到requests返回的页面后,我们怎么拿到想要的数据呢?这个时候祭出lxml这强大的html/xml解析工具。python从不缺解析库,那么我们为什么要在众多库里选择lxml呢?我们选择另一款出名的html解析库beautifulsoup来进行对比。
我们简单的比较一下:
beautifulsoup:
1
|
2
3
4
5
6
|
from bs4 import beautifulsoup #导入库
# 假设html是需要被解析的html
#将html传入beautifulsoup 的构造方法,得到一个文档的对象
soup = beautifulsoup(html, 'html.parser' ,from_encoding = 'utf-8' )
#查找所有的h4标签
links = soup.find_all( "h4" )
|
lxml:
1
|
2
3
4
5
6
|
from lxml import etree
# 假设html是需要被解析的html
#将html传入etree 的构造方法,得到一个文档的对象
root = etree.html(html)
#查找所有的h4标签
links = root.xpath( "//h4" )
|
我们可以发现,这两种库还是有一些区别的:
1. 解析html: beautifulsoup的解析方式和jq的写法类似,api非常人性化,支持css选择器;lxml的语法有一定的学习成本
2. 性能:beautifulsoup是基于dom的,会载入整个文档,解析整个dom树,因此时间和内存开销都会大很多;而lxml只会局部遍历,另外lxml是用c写的,而beautifulsoup是用python写的,明显的性能上lxml>>beautifulsoup。
综上所诉,使用beautifulsoup更为简明、易用,lxml虽然有一定学习成本,但总体也很简明易懂,最重要的是它基于c编写,速度快很多,对于笔者这种强迫症,自然而然就选lxml啦。
03|json
python自带json库,对于基础的json的处理,自带库完全足够。但是如果你想更偷懒,可以使用第三方json库,常见的有demjson、simplejson。
这两种库,无论是import模块速度,还是编码、解码速度,都是simplejson更胜一筹,再加上兼容性 simplejson 更好。所以大家如果想使用方库,可以使用simplejson。
0x2 确定语料源
将武器准备好之后,接下来就需要确定爬取方向。
以电竞类语料为例,现在我们要爬电竞类相关语料。大家熟悉的电竞平台有企鹅电竞、企鹅电竞和企鹅电竞(斜眼),所以我们以企鹅电竞上直播的游戏作为数据源进行爬取。
我们登陆企鹅电竞官网,进入游戏列表页,可以发现页面上有很多游戏,通过人工去写这些游戏名收益明显不高,于是我们就开始我们爬虫的第一步:游戏列表爬取。
1
|
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
import requests
from lxml import etree
# 更新游戏列表
def _updategamelist():
# 发送http请求时的head信息,用于伪装为浏览器
heads = {
'connection' : 'keep-alive' ,
'accept' : 'text/html, application/xhtml+xml, */*' ,
'accept-language' : 'en-us,en;q=0.8,zh-hans-cn;q=0.5,zh-hans;q=0.3' ,
'accept-encoding' : 'gzip, deflate' ,
'user-agent' : 'mozilla/6.1 (windows nt 6.3; wow64; trident/7.0; rv:11.0) like gecko'
}
# 需要爬取的游戏列表页
url = ' https://egame.qq.com/gamelist '
# 不压缩html,最大链接时间为10妙
res = requests.get(url, headers = heads, verify = false, timeout = 10 )
# 为防止出错,编码utf-8
res.encoding = 'utf-8'
# 将html构建为xpath模式
root = etree.html(res.content)
# 使用xpath语法,获取游戏名
gamelist = root.xpath( "//ul[@class='livelist-mod']//li//p//text()" )
# 输出爬到的游戏名
print (gamelist)
|
当我们拿到这几十个游戏名后,下一步就是对这几十款游戏进行语料爬取,这时候问题就来了,我们要从哪个网站来爬这几十个游戏的攻略呢,taptap?多玩?17173?在对这几个网站进行分析后,发现这些网站仅有一些热门游戏的文章语料,一些冷门或者低热度的游戏,例如“灵魂筹码”、“奇迹:觉醒”、“死神来了”等,很难在这些网站上找到大量文章语料,如图所示:
我们可以发现,“ 奇迹:觉醒”、“灵魂筹码”的文章语料特别少,数量上不符合我们的要求。 那么有没有一个比较通用的资源站,它拥有着无比丰富的文章语料,可以满足我们的需求。
其实静下心来想想,这个资源站我们天天都有用到,那就是百度。我们在百度新闻搜索相关游戏,拿到搜索结果列表,这些列表的链接的网页内容几乎都与搜索结果强相关,这样我们数据源不够丰富的问题便轻松解决了。但是此时出现了一个新的问题,并且是一个比较难解决的问题——如何抓取到任意网页的文章内容?
因为不同的网站都有不同的页面结构,我们无法与预知将会爬到哪个网站的数据,并且我们也不可能针对每一个网站都去写一套爬虫,那样的工作量简直难以想象!但是我们也不能简单粗暴的将页面中的所有文字都爬下来,用那样的语料来进行训练无疑是噩梦!
经过与各个网站斗智斗勇、查询资料与思索之后,终于找到一条比较通用的方案,下面为大家讲一讲笔者的思路。
0x3 任意网站的文章语料爬取
01|提取方法
1)基于dom树正文提取
2)基于网页分割找正文块
3)基于标记窗的正文提取
4)基于数据挖掘或机器学习
5)基于行块分布函数正文提取
02|提取原理
大家看到这几种是不是都有点疑惑了,它们到底是怎么提取的呢?让笔者慢慢道来。
1)基于dom树的正文提取:
这一种方法主要是通过比较规范的html建立dom树,然后地柜遍历dom,比较并识别各种非正文信息,包括广告、链接和非重要节点信息,将非正文信息抽离之后,余下来的自然就是正文信息。
但是这种方法有两个问题
① 特别依赖于html的良好结构,如果我们爬取到一个不按w3c规范的编写的网页时,这种方法便不是很适用。
② 树的建立和遍历时间复杂度、空间复杂度都较高,树的遍历方法也因html标签会有不同的差异。
2) 基于网页分割找正文块 :
这一种方法是利用html标签中的分割线以及一些视觉信息(如文字颜色、字体大小、文字信息等)。
这种方法存在一个问题:
① 不同的网站html风格迥异,分割没有办法统一,无法保证通用性。
3) 基于标记窗的正文提取:
先科普一个概念——标记窗,我们将两个标签以及其内部包含的文本合在一起成为一个标记窗(比如 <h1>我是h1</h1> 中的“我是h1”就是标记窗内容),取出标记窗的文字。
这种方法先取文章标题、html中所有的标记窗,在对其进行分词。然后计算标题的序列与标记窗文本序列的词语距离l,如果l小于一个阈值,则认为此标记窗内的文本是正文。
这种方法虽然看上去挺好,但其实也是存在问题的:
① 需要对页面中的所有文本进行分词,效率不高。
② 词语距离的阈值难以确定,不同的文章拥有不同的阈值。
4)基于数据挖掘或机器学习
使用大数据进行训练,让机器提取主文本。
这种方法肯定是极好的,但是它需要先有html与正文数据,然后进行训练。我们在此不进行探讨。
5)基于行块分布函数正文提取
对于任意一个网页,它的正文和标签总是杂糅在一起。此方法的核心有亮点:① 正文区的密度;② 行块的长度;一个网页的正文区域肯定是文字信息分布最密集的区域之一,这个区域可能最大(评论信息长、正文较短),所以同时引进行块长度进行判断。
实现思路:
① 我们先将html去标签,只留所有正文,同时留下标签取出后的所有空白位置信息,我们称其为ctext;
② 对每一个ctext取周围k行(k<5),合起来称为cblock;
③ 对cblock去掉所有空白符,其文字总长度称为clen;
④ 以ctext为横坐标轴,以各行的clen为纵轴,建立坐标系。
以这个网页为例: http://www.gov.cn/ldhd/2009-11/08/content_1459564.htm 该网页的正文区域为145行至182行。
由上图可知,正确的文本区域全都是分布函数图上含有最值且连续的一个区域,这个区域往往含有一个骤升点和一个骤降点。因此,网页正文抽取问题转化为了求行块分布函数上的骤升点和骤降点两个边界点,这两个边界点所含的区域包含了当前网页的行块长度最大值并且是连续的。
经过大量实验,证明此方法对于中文网页的正文提取有较高的准确度,此算法的优点在于,行块函数不依赖与html代码,与html标签无关,实现简单,准确率较高。
主要逻辑代码如下:
1
|
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
|
# 假设content为已经拿到的html
# ctext取周围k行(k<5),定为3
blockswidth = 3
# 每一个cblock的长度
ctext_len = []
# ctext
lines = content.split( 'n' )
# 去空格
for i in range ( len (lines)):
if lines[i] = = ' ' or lines[i] = = 'n' :
lines[i] = ''
# 计算纵坐标,每一个ctext的长度
for i in range ( 0 , len (lines) - blockswidth):
wordsnum = 0
for j in range (i, i + blockswidth):
lines[j] = lines[j].replace( "\s" , "")
wordsnum + = len (lines[j])
ctext_len.append(wordsnum)
# 开始标识
start = - 1
# 结束标识
end = - 1
# 是否开始标识
boolstart = false
# 是否结束标识
boolend = false
# 行块的长度阈值
max_text_len = 88
# 文章主内容
main_text = []
# 没有分割出ctext
if len (ctext_len) < 3 :
return '没有正文'
for i in range ( len (ctext_len) - 3 ):
# 如果高于这个阈值
if (ctext_len[i] > max_text_len and ( not boolstart)):
# cblock下面3个都不为0,认为是正文
if (ctext_len[i + 1 ] ! = 0 or ctext_len[i + 2 ] ! = 0 or ctext_len[i + 3 ] ! = 0 ):
boolstart = true
start = i
continue
if (boolstart):
# cblock下面3个中有0,则结束
if (ctext_len[i] = = 0 or ctext_len[i + 1 ] = = 0 ):
end = i
boolend = true
tmp = []
# 判断下面还有没有正文
if (boolend):
for ii in range (start, end + 1 ):
if ( len (lines[ii]) < 5 ):
continue
tmp.append(lines[ii] + "n" )
str = "".join( list (tmp))
# 去掉版权信息
if ( "copyright" in str or "版权所有" in str ):
continue
main_text.append( str )
boolstart = boolend = false
# 返回主内容
result = "".join( list (main_text))
|
0x4 结语
至此我们就可以获取任意内容的文章语料了,但这仅仅是开始,获取到了这些语料后我们还需要在一次进行清洗、分词、词性标注等,才能获得真正可以使用的语料。
总结
以上所述是小编给大家介绍的用python3教你任意html主内容提取功能,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
原文链接:https://juejin.im/post/5bdfab846fb9a049fb431948