phantomjs曾经是无头浏览器里的王者,测试、爬虫等都在使用,随着googlechrome headless的出现,phantomjs的作者已经明确表示不在更新,而googlechrome headless将会是未来爬虫的趋势,而测试将依然会使用webdriver那套方案,googlechrome headless可以利用webdriver调用,也可以使用其集成的api——puppeteer(操纵木偶的人),他的功能和他的名字一样强大,可以随意操控chrome或chromeium,缺点就是只有node的api,来看看他的图标:
puppeteer是基于devtools协议来控制headless chrome的node库,依赖6.4以上版本的node,本人是在接触这个软件时才开始学习node,依然感觉到它的异步async/await超级强大,在puppeteer中也大量使用异步来完成任务。
puppeteer的安装可以使用node的包管理工具npm来安装:
1
|
npm i puppeteer
|
这里安装时会自动安装chromeium,如果不需要则可以通过配置npm跳过下载,做为一名爬虫工程师我不会去讨论测试相关的使用,接下来看看如何使用,和webdriver类似,首先需要实例化brower,代码如下:
1
2
3
4
5
6
7
8
|
const puppeteer = require( 'puppeteer' );
(async () = > {
const browser = await puppeteer.launch();
const page = await browser.newpage();
await page.goto( 'http://www.baidu.com' );
await browser.close();
})();
|
这段代码执行结束时,你可能什么也没有感觉到,因为它在后台启动了一个chromeium进程,打开了百度首页,接着就关闭了,当然我们可以在前台打开chromeium,这里就需要配置一下,所配置参数只需传入launch()即可,常用参数如下:
headless: 是否打开浏览器,默认为true
ignorehttpserrors: 是否忽略https错误,默认为true
executablepath: 配置要调用浏览器的可执行路径,默认是同puppeteer一起安装的chromeium
slowmo:指定的毫秒延缓puppeteer的操作
args:设置浏览器的相关参数,比如是否启动沙箱模式“--no-sandbox”,是否更换代理“--proxy-server”,具体参数请点此查看
使用示例如下:
1
|
const browser = await puppeteer.launch({headless:false, args: [ "--no-sandbox" ,]}) / / 打开浏览器
|
打开新的窗口:
1
|
const page = await browser.newpage();
|
设置窗口大小
1
2
3
4
|
await page.setviewport({
width: 1920 ,
height: 1080
})
|
过滤不需要的请求:
1
2
3
4
5
6
7
|
await page.setrequestinterception(true);
page.on( 'request' , interceptedrequest = > {
if (interceptedrequest.url().endswith( '.png' ) || interceptedrequest.url().endswith( '.jpg' ))
interceptedrequest.abort();
else
interceptedrequest. continue ();
});
|
为浏览器设置useragent:
1
|
await page.setuseragent( "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/58.0.3029.110 safari/537.36 edge/16.16299" )
|
设置cookie,
1
2
3
4
5
6
|
const data = {
name: "smidb2" ,
domain: ".csdn.net" ,
value: "201806051502283cf43902aa8991a248f9c605204f92530032f23ef22c16270"
}
await page.setcookie(data)
|
示例中只是演示,真实的cookie是一个列表形式的,需要循环添加才可以
1
2
3
|
for (let data of cookies){
await page.setcookie(data)
}
|
请求url:
1
2
|
const url = "http://www.baidu.com"
await page.goto(url, { waituntil: "networkidle2" });
|
设置页面等待时间:
1
|
await page.waitfor( 1000 ); / / 单位是毫秒
|
等待页面某个元素加载完成
1
|
await page.waitforselector( "input[class='usrname']" )
|
点击某个元素
1
|
await page.click( "input[class='submit']" )
|
利用page.evaluate()函数拖动鼠标至页面底部,原理就是在页面注入js代码。
1
2
3
4
5
6
7
8
9
10
|
let scrollenable = false;
let scrollstep = 500 ; / / 每次滚动的步长
while (scrollenable) {
scrollenable = await page.evaluate((scrollstep) = > {
let scrolltop = document.scrollingelement.scrolltop;
document.scrollingelement.scrolltop = scrolltop + scrollstep;
return document.body.clientheight > scrolltop + 1080 ? true : false
}, scrollstep);
await page.waitfor( 600 )
}
|
获取html信息
1
2
3
4
5
|
const frame = await page.mainframe()
const bodyhandle = await frame.$( 'html' );
const html = await frame.evaluate(body = > body.innerhtml, bodyhandle);
await bodyhandle.dispose(); / / 销毁
console.log(html)
|
这是爬虫能用到的大致操作,以下是爬取豆瓣热门电影的基本信息和评分的代码,写这个程序时对node也是一知半解,如有不对,欢迎留言
basepupp.js
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
const puppeteer = require( "puppeteer" )
class basepuppeteer{
puppconfig(){
const config = {
headless: false
}
return config
}
async openbrower(setting){
const browser = puppeteer.launch(setting)
return browser
}
async openpage(browser){
const page = await browser.newpage()
return page
}
async closebrower(browser){
await browser.close()
}
async closepage(page){
await page.close()
}
}
const pupp = new basepuppeteer()
module.exports = pupp
|
douban.js
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
|
const pupp = require( "./basepupp.js" )
const cheerio = require( "cheerio" )
const mongo = require( "mongodb" )
const assert = require( "assert" )
const mongoclient = mongo.mongoclient
const urls = "mongodb://10.4.251.129:27017/douban"
mongoclient.connect(urls, function (err, db) {
if (err) throw err;
console.log( '数据库已创建' );
var dbase = db.db( "runoob" );
dbase.createcollection( 'detail' , function (err, res) {
if (err) throw err;
console.log( "创建集合!" );
db.close();
});
});
async function getlist(){
const brower = await pupp.openbrower()
const page = await pupp.openpage( brower)
const url = "https://movie.douban.com/explore#!type=movie&tag=%e7%83%ad%e9%97%a8&sort=recommend&page_limit=20&page_start=0"
await page.goto(url);
while (true){ / / 循环点击, 直到获取不到该元素
try {
await page.waitfor( 1000 );
await page.waitforselector( 'a[class=more]' ); / / 等待元素加载完成,超时时间 30000ms
await page.click( "a[class=more]" )
/ / break
}catch(err){
console.log(err)
console.log( "stop click !!!" )
break
}
}
await page.waitfor( 1000 ); / / 等待页面一秒
const links = await page.evaluate(() = > { / / 获取电影详情url
let movies = [...document.queryselectorall( '.list a[class=item]' )];
return movies. map ((movie) = >{
return {
href: movie.href.trim(),
}
});
});
console.log(links.length)
for (var i = 0 ; i < links.length; i + + ) {
const a = links[i];
await page.waitfor( 2000 );
await getdetail(brower, a.href)
/ / break
}
await pupp.closepage(page)
await pupp.closebrower(brower)
}
async function getdetail(brower, url){
const page = await pupp.openpage(brower)
await page.goto(url);
await page.waitfor( 1000 );
try {
await page.click( ".more-actor" , {delay: 20 })
}catch(err){
console.log(err)
}
const frame = await page.mainframe()
const bodyhandle = await frame.$( 'html' );
const html = await frame.evaluate(body = > body.innerhtml, bodyhandle);
await bodyhandle.dispose(); / / 销毁
const $ = cheerio.load(html)
const title = $( "h1 span" ).text().trim()
const rating_num = $( ".rating_num" ).text().trim()
const data = {}
data[ "title" ] = title
data[ "rating_num" ] = rating_num
let info = $( "#info" ).text()
const keyword = [ "director" , "screenplay" , "lead" , "type" , "website" , "location" , "language" , "playdate" , "playtime" , "byname" , "imdb" ]
if (info.indexof( "www." ) > 0 ){
info = info.replace( / https:\ / \ / |http:\ / \ / / g, " ").replace(/\t/g," ").replace(/\r/g, " ").split(" :")
for (var i = 1 ; i < info.length; i + + ){
data[keyword[i - 1 ]] = info[i].split( / \n / g)[ 0 ].replace( / \ / / g, "," ).trim()
}
} else {
info = info.replace( / \t / g, " " ).replace( / \r / g, " " ).split( ":" )
keyword.splice( 4 , 1 )
for (var i = 1 ; i < info.length - 1 ; i + + ){
data[keyword[i - 1 ]] = info[i].split( / \n / g)[ 0 ].replace( / \ / / g, "," ).trim()
}
data[ "website" ] = ""
}
/ / console.log(data)
mongoclient.connect(urls,function(err,db){ / / 获取连接
assert .equal(null,err); / / 使用断言模块代替以前的 if 判断
var dbo = db.db( "douban" );
dbo.collection( "detail" ).insert(data, function(err,result){ / / 连接到数据库上面,并使用参数传入集合
assert .equal(null,err);
console.log(result);
db.close();
});
});
await pupp.closepage(page)
}
getlist()
|
以上的代码完成了对豆瓣热门电影的全部抓取,有以下几个步骤:
1, 循环点击加载更多,直到没有此元素可操作而抛出异常
2,加载完全部热门电影列表时解析出每个电影详情页的url并逐一请求
3, 解析详情页的所需数据,
4,对所抓取数据进行入库,这里使用mongodb
入库后的数据如下所示:
对以上的浏览器实例化做了优化,写成了单例模式
config.js
1
2
3
4
5
6
7
|
module.exports = {
browseroptions:{
headless: false,
/ / args: [ '--no-sandbox' , '--proxy-server=http://proxy:abc100@cp.test.com:8995' ],
args: [ '--no-sandbox' ],
}
};
|
brower.js
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
const puppeteer = require( "puppeteer" );
const config = require( './config' ); / /
const deasync = require( 'deasync' );
const browser_key = symbol. for ( 'browser' );
const browser_status_key = symbol. for ( 'browser_status' );
launch(config.browseroptions)
wait4lunch();
/ * *
* 启动并获取浏览器实例
* @param { * } options
* param options is puppeteer.launch function's options
* /
function launch(options = {}) {
if (! global [browser_status_key]) {
global [browser_status_key] = 'lunching' ;
puppeteer.launch(options)
.then((browser) = > {
global [browser_key] = browser;
global [browser_status_key] = 'lunched' ;
})
.catch((err) = > {
global [browser_status_key] = 'error' ;
throw err;
});
}
}
function wait4lunch(){
while (! global [browser_key] && global [browser_status_key] = = 'lunching' ) {
/ / wait for lunch
deasync.runlooponce();
}
}
module.exports = global [browser_key];
|
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/tilyp/article/details/80674559