webmagic 学习(1)-- 基础流程

时间:2023-02-06 20:04:48

多少次都告诫自己要努力写代码 ,开发出自己的东西, 之前一直在看着别人的网站抓取数据, 很是羡慕啊, 都不知道还有爬虫这一说, 一直以来都是使用ssh 的定时启动。 我并不会很表达 ,就是发现webmagic 真的是一个很牛逼的工具。 好了,现在开始我现在的爬虫实战。 

1. 基础安装教程 。 

请到官网查看:   http://webmagic.io/ 


2. 编写的注意流程。

要实现一个最基本的爬虫 , 我环境搭建就花了一天搭建maven  。  其实很简单,就是实现PageProcessor  这个类的接口。

public class GithubRepoPageProcessor implements PageProcessor {

// 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等
private Site site = Site.me().setRetryTimes(3).setSleepTime(1000);

@Override
// process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑
public void process(Page page) {
// 部分二:定义如何抽取页面信息,并保存下来
page.putField("author", page.getUrl().regex("https://github\\.com/(\\w+)/.*").toString());
page.putField("name", page.getHtml().xpath("//h1[@class='entry-title public']/strong/a/text()").toString());
if (page.getResultItems().get("name") == null) {
//skip this page
page.setSkip(true);
}
page.putField("readme", page.getHtml().xpath("//div[@id='readme']/tidyText()"));

// 部分三:从页面发现后续的url地址来抓取
page.addTargetRequests(page.getHtml().links().regex("(https://github\\.com/\\w+/\\w+)").all());
}

@Override
public Site getSite() {
return site;
}

public static void main(String[] args) {

Spider.create(new GithubRepoPageProcessor())
//从"https://github.com/code4craft"开始抓
.addUrl("https://github.com/code4craft")
//开启5个线程抓取
.thread(5)
//启动爬虫
.run();
}
}

 @Override报错是jdk 编译器的问题, 如果碰到请选择 1.6的编译器。 1.5就会报错
 直接运行这个java类的话,会出现

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".

SLF4J: Defaulting to no-operation (NOP) logger implementation

SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.

这个请直接 SLF4J 官网下载 SLF4J-nop.jar 或者maven里添加。


3.  仔细看完上面那个类之后, 控制台已经能很轻松抓取了。 我一直在理解 上面每一句代码的意思, 当然, 作为一个新手来说,这个有点太高端了。

在理解代码的路上我也走了很多的弯路, 完全不知道这个怎么回事, 

    正值表达式 的学习请查看