【python学习】网络爬虫――基础案例教程

时间:2021-07-12 07:18:31



一,获取整个页面数据


Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取wwwftp上的数据。首先,我们定义了一个getHtml()函数:

  urllib.urlopen()方法用于打开一个URL地址。

  read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。

#coding=utf-8import urllib

def getHtml(url):
    page = urllib.urlopen(url)
    html = page.read()
    return html

html = getHtml("http://tieba.baidu.com/p/2460150866")

print html



二,筛选页面中想要的数据(这里以图片为例,上篇已经介绍过筛选帖子)


 核心步骤是运用正则表达式,筛选出规定格式的内容,即 自己想要的内容。

      re模块主要包含了正则表达式:

    re.compile() 可以把正则表达式编译成一个正则表达式对象.

    re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。


   图片区域html代码:

<img pic_type="0" class="BDE_Image" src="http://imgsrc.baidu.com/forum/w%3D580/sign=0d3b26024bed2e73fce98624b700a16d/0faccbef76094b3697eed26ba2cc7cd98d109d3d.jpg" pic_ext="jpeg" height="336" width="560">



 运行脚本将得到整个页面中包含图片的URL地址,返回值是一个列表

import reimport urllibdef getHtml(url):    page = urllib.urlopen(url)    html = page.read()    return htmldef getImg(html):    reg = r'src="(.+?\.jpg)" pic_ext'    imgre = re.compile(reg)    imglist = re.findall(imgre,html)    return imglist         html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)


三,将图片保存到本地


        对比上步,核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。

  通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置可以设置,在D盘根目录。

#coding=utf-8import urllibimport redef getHtml(url):    page = urllib.urlopen(url)    html = page.read()    return htmldef getImg(html):    reg = r'src="(.+?\.jpg)" pic_ext'    imgre = re.compile(reg)    imglist = re.findall(imgre,html)    x = 0    for imgurl in imglist:        urllib.urlretrieve(imgurl,'D:/%s.jpg' % x)        x+=1html = getHtml("http://tieba.baidu.com/p/2460150866")getImg(html)

















本文出自 “seeworld” 博客,请务必保留此出处http://devops2016.blog.51cto.com/4205997/1771517