phpspider 的简单使用
-
phpspider是一款PHP开发蜘蛛爬虫框架。
官方github下载地址:https://github.com/owner888/phpspider
官方文档下载地址:https://doc.phpspider.org/
由于官方文档可能会出现打不开的情况(我一开始试了很多次都打不开),这里提供一个网盘下载地址:链接:https://pan.baidu.com/s/1LfJOCw1rthN_luotF7iUDw 密码:cylb -
使用
代码下载下来后里面有几个例子,我这里就以代码中糗事百科为例,主要介绍几点注意事项。
1、代码必须放到命令行运行,可以使用 php -f 语句。
2、在代码中的例子糗事百科抓取网址写的是 http,运行不成功,要改成 https。
3、save_running_state 参数表示是否保存爬虫运行状态,如果选择了true,则会使用到redis。
4、抓取时默认使用的 selector 是 xpath,如果想使用其它的可以用 selector_type 参数修改,文档中介绍目前可用 xpath, jsonpath, regex,但是我看使用 css 也是可以的。
5、写 selector 时可以打开要抓取的页面,审查元素,选择要抓取的数据,右击->copy,选择 copy selector 或 copy xpath ,可以直接得到该元素的 selector。(这点在开发文档上也有相应的介绍)。
6、抓取的数据存储可以有三种选择,.csv 文件,.sql 文件,也可以直接插入数据库表中,选择相应的表名即可(要字段对应)。
下面贴上我修改后的代码:
<?php // composer下载方式 // 先使用composer命令下载: // composer require owner888/phpspider // 引入加载器 //require \'./vendor/autoload.php\'; // GitHub下载方式 require_once __DIR__ . \'/../autoloader.php\'; use phpspider\core\phpspider; /* Do NOT delete this comment */ /* 不要删除这段注释 */ $configs = array( \'name\' => \'糗事百科\', \'log_show\' => true, \'tasknum\' => 1, \'save_running_state\' => false, \'domains\' => array( \'qiushibaike.com\', \'www.qiushibaike.com\' ), \'scan_urls\' => array( \'https://www.qiushibaike.com/\' ), \'list_url_regexes\' => array( "https://www.qiushibaike.com/8hr/page/\d+\?s=\d+" ), \'content_url_regexes\' => array( "https://www.qiushibaike.com/article/\d+", ), \'max_try\' => 5, //\'proxies\' => array( //\'http://H784U84R444YABQD:57A8B0B743F9B4D2@proxy.abuyun.com:9010\' //), //\'export\' => array( //\'type\' => \'csv\', //\'file\' => \'../data/qiushibaike.csv\', //), //\'export\' => array( //\'type\' => \'sql\', //\'file\' => \'../data/qiushibaike.sql\', //\'table\' => \'content\', //), \'export\' => array( \'type\' => \'db\', \'table\' => \'content\', ), \'db_config\' => array( \'host\' => \'127.0.0.1\', \'port\' => 3306, \'user\' => \'root\', \'pass\' => \'root\', \'name\' => \'test\', ), // \'queue_config\' => array( // \'host\' => \'127.0.0.1\', // \'port\' => 6379, // \'pass\' => \'foobared\', // \'db\' => 5, // \'prefix\' => \'phpspider\', // \'timeout\' => 30, // ), \'fields\' => array( array( \'name\' => "article_title", \'selector\' => "//*[@id=\'single-next-link\']//div[contains(@class,\'content\')]/text()[1]", \'required\' => true, ), array( \'name\' => "article_author", \'selector\' => "//div[contains(@class,\'author\')]//h2", \'required\' => true, ), array( \'name\' => "article_headimg", \'selector\' => "//div[contains(@class,\'author\')]//a[1]", \'required\' => true, ), array( \'name\' => "article_content", \'selector\' => "//*[@id=\'single-next-link\']//div[contains(@class,\'content\')]", \'required\' => true, ), array( \'name\' => "article_publish_time", \'selector\' => "//div[contains(@class,\'author\')]//h2", \'required\' => true, ), array( \'name\' => "url", \'selector\' => "//div[contains(@class,\'author\')]//h2", // 这里随便设置,on_extract_field回调里面会替换 \'required\' => true, ), ), ); $spider = new phpspider($configs); $spider->on_handle_img = function($fieldname, $img) { $regex = \'/src="(https?:\/\/.*?)"/i\'; preg_match($regex, $img, $rs); if (!$rs) { return $img; } $url = $rs[1]; $img = $url; //$pathinfo = pathinfo($url); //$fileext = $pathinfo[\'extension\']; //if (strtolower($fileext) == \'jpeg\') //{ //$fileext = \'jpg\'; //} //// 以纳秒为单位生成随机数 //$filename = uniqid().".".$fileext; //// 在data目录下生成图片 //$filepath = PATH_ROOT."/images/{$filename}"; //// 用系统自带的下载器wget下载 //exec("wget -q {$url} -O {$filepath}"); //// 替换成真是图片url //$img = str_replace($url, $filename, $img); return $img; }; $spider->on_extract_field = function($fieldname, $data, $page) { if ($fieldname == \'article_title\') { // if (strlen($data) > 10) // { // // 下面方法截取中文会有异常 // //$data = substr($data, 0, 10)."..."; // $data = mb_substr($data, 0, 10, \'UTF-8\')."..."; // $data = trim($data); // } } elseif ($fieldname == \'article_publish_time\') { // 用当前采集时间戳作为发布时间 $data = time(); } // 把当前内容页URL替换上面的field elseif ($fieldname == \'url\') { $data = $page[\'url\']; } return $data; }; $spider->start();
注意一点,on_handle_img,on_extract_field两个方法抓取其它项目时不一定适用,要改成自己的逻辑处理。
- 运行
至此一个简单的抓取数据程序就完成了。