直接复制粘贴笔记发现有问题
文档下载地址//download.csdn.net/download/hide_on_rush/12266493
掌握定向网络数据爬取和网页解析的基本能力常用的 Python IDE 工具
文本工具类 IDE 集成工具类 IDE
IDLE PyCharm
Notepad++ Wing
Sublime Text * PyDev & Eclipse
Vim & Emacs Visual Studio
Atom Anaconda & Spyder
Komodo Canopy
第一周内容导学
Requests库→robots.txt(网络爬虫排除标准)→Projects(实战项目)
Requests库入门
pip install scrapy i https://pypi.douban.com/simple
阿里云 https://mirrors.aliyun.com/pypi/simple/
中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
豆瓣(douban) https://pypi.douban.com/simple/
清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
中国科学技术大学 https://pypi.mirrors.ustc.edu.cn/simple/
Requests库的安装:
获取网页:r = requests.get(url,)
状态码:r.status_code,200是访问成功编码:r.encoding = 'utf8'
网页内容:r.text
Requests库的7个主要方法:
掌握定向网络数据爬取和网页解析的基本能力常用的 Python IDE 工具 文本工具类 IDE 集成工具类 IDE IDLE PyCharm Notepad++ Wing Sublime Text * PyDev & Eclipse Vim & Emacs Visual Studio Atom Anaconda & Spyder Komodo Canopy 第一周内容导学Requests库→robots.txt(网络爬虫排除标准)→Projects(实战项目) Requests库入门pip install scrapy i https://pypi.douban.com/simple 阿里云 https://mirrors.aliyun.com/pypi/simple/ 中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/ 豆瓣(douban) https://pypi.douban.com/simple/ 清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/ 中国科学技术大学 https://pypi.mirrors.ustc.edu.cn/simple/ Requests库的安装:获取网页:r = requests.get(url,) 状态码:r.status_code,200是访问成功编码:r.encoding = 'utf8' 网页内容:r.text Requests库的7个主要方法:
Requests库的get()方法:r = requests.get(url) 构造一个向服务器请求资源的Request对象,返回一个包含服务器资源的 Response 对 象 (r) requests.get(url,params=None,**kwargs) url: 拟获取页面的url链接 params:url中的额外参数,字典或字节流格式,可选 **kwargs:12个控制访问的参数Response对象的属性
r.encoding: 如果header中不存在charset,则认为编码为ISO88591 爬取网页的通用代码框架: 理解Requests库的异常
爬取网页的通用代码框架:
HTTP协议及Requests库方法HTTP,Hypertext Transfer Protocol,超文本传输协议HTTP是一个基于“请求与响应”模式的、无状态的应用层协议HTTP协议采用URL作为定位网络资源的标识 URL格式 http://host[:port][path] host:合法的Internet主机域名或IP地址port:端口号,缺省端口为80 path:请求资源的路径 URL是通过HTTP协议存取资源的Internet路径,一个URL对应一个数据资源HTTP协议对资源的操作:
Requests库的post()方法: put()方法类似
单 Requests库主要方法解析requests.request(method, url, **kwargs) method: 请求方式,对应GET/ HEAD/ POST/ PUT/ PATCH/ delete/ OPTIONS等7种例:r = requests.request('GET', url, **kwargs), OPTIONS主要是获取参数 url:拟获取页面的url链接 **kwargs:控制访问的参数,共13个,均为可选项params:字典或字节序列,作为参数增加到url中
data:字典、字节序列或文件对象,作为Request的内容
json:JSON格式的数据,作为Request的内容headers:字典,HTTP定制头
cookies:字典或CookieJar, Requests中的cookie auth:元组,支持HTTP认证功能 files:字典类型,传输文件
timeout:设定超时时间,秒为单位 proxies:字典类型,设定访问代理服务器,可以增加登录认证
allow_redirects:True/Flase,默认为True,重定向开关stream:True/False,默认为True,获取内容立即下载开关verify:True/False,默认为True,认证SSL证书开关 cert:本地SSL证书路径requests.get(url,params=None,**kwargs) requests.head(url, **kwarg) **kwarg:13个控制访问参数 requests.post(url, data=None, json=None, **kwargs) 11个控制访问参数requests.put(url, data=None, **kwargs) 12个控制访问参数requests.patch(url, data=None, **kwargs) 12个控制访问参数requests.delete(url, **kwargs) 13个控制访问参数 网络爬虫的盗亦有道网络爬虫的尺寸爬取网页,玩转网页:小规模,数据量小,爬取速度不敏感;Requests库爬取网站 爬取系列网站:中规模,数据量较大,爬取速度敏感;Scrapy库爬取全网:大规模,搜索引擎,爬取速度关键;定制开发 网络爬虫引发的问题网络爬虫的骚扰:受限于编写水平和目的,网络爬虫将会为Web服务器带来巨大的资源开销 网络爬虫的法律风险:服务器上的数据有产权归属,网络爬虫获取数据后牟利将带来法律风险 网络爬虫泄露隐私:网络爬虫可能具备突破简单访问控制的能力,获得被保护数据从而泄露个人隐私 网络爬虫的限制来源审查:判断UserAgent进行限制
Robots协议Robots Exclusion Standard 网络爬虫排除标准 作用:网站告知网络爬虫哪些页面可以抓取,哪些不行形式:在网站根目录下的robots.txt文件 Robots 协 议 基 本 语 法 : https://www.jd.com/robots.txt User-agent: * # 注释: Disallow: /?* *代表所有Disallow: /pop/*.html /代表根目录Robots协议的遵守方式 网络爬虫使用Robots协议:自动或人工识别robots.txt,再进行内容爬取 约束性:Robots协议是建议但非约束性,网络爬虫可以不遵守,但存在法律风险 Requests库爬取实例实例1:京东商品页面的爬取
实例2:亚马逊商品页面的爬取
实例3:百度360搜索关键词提交 百度的关键词接口: http://www.baidu.com/s?wd=keyword 360的关键词接口: http://www.so.com/s?q=keyword
实例4:网络图片的爬取和存储网络图片链接的格式:http://www.example.com/picture.jpg图片爬取代码
实例5:IP地址归属地的自动查询ip138 IP查询:http://m.ip138.com/ip.asp?ip=ipaddress
第二周内容导学Beautiful Soup:解析HTML页面信息标记与提取方法Projects:实战项目—中国大学排名爬虫 Beautiful Soup库的安装https://www.crummy.com/software/BeautifulSoup/ 演示HTML页面地址:https://python123.io/ws/demo.html
Beautiful Soup库的基本元素Beautiful Soup库的理解:它是解析、遍历、维护“标签树”的功能库
Beautiful Soup库的引用:Beautiful Soup库,也叫beautifulsoup4或bs4 Beautiful Soup类:HTML文档标签树BeautifulSoup类
BeautifulSoup对应一个HTML/XML文档的全部内容Beautiful Soup库解析器:
Beautiful Soup类的基本元素:
基于bs4库的HTML内容遍历方法上行遍历, 下行遍历, 平行遍历标签树的下行遍历:
标签树的上行遍历:
标签树的平行遍历:
平行遍历发生在同一个父节点下的各节点间
基于bs4库的HTML格式输出如何能让HTML页面更加友好的显示?
信息标记的三种形式信息的标记:
HTML的信息标记:HTML通过预定义的<>...</>标签形式组织不同类型的信息信息标记的三种形式:XML,JSON,YAML
三种信息标记形式的比较XML实例:
JSON实例:
YAML实例:
XML 最早的通用信息标记语言,可扩展性好,但繁琐;Internet上的信息交互于传递 JSON 信息有类型,适合程序处理(js),较XML简洁;移动应用云端和节点的信息通信,无注释 YAML 信息无类型,文本信息比例最高,可读性好;各类系统的配置文件,有注释易读信息提取的一般方法 方法一:完整解析信息的标记形式,再提取关键信息需要标记解析器 例如:bs4库的标签树遍历 优点:信息解析准确 缺点:提取过程繁琐,速度慢 方法二:无视标记形式,直接搜索关键信息 对信息的文本查找函数即可 优点:提取过程简洁,速度较快 缺点:提取结果准确性与信息内容相关 融合方法:结合形势解析与搜索方法,提取关键信息需要标记解析器及文本查找函数 实例:提取HTML中所有的URL链接思路:1)搜索到所有<a>标签 2)解析<a>标签格式,提取href后的链接内容
基于bs4库的HTML内容查找方法<>.find_all(name, attrs, recursive, string, **kwargs) 返回一个列表类型,存储查找的结果 name:对标签名称的检索字符串 soup.find_all(['a','b']) attrs:对标签属性值的检索字符串,可标注属性检索 soup.find_all('p', 'course') soup.find_all(id='link1') recursive:是否对子孙全部检索,默认True soup.find_all('a', recursive=False) string:<>...</>中字符串区域的检索字符串 soup.find_all(string = re.compile('python')) <tag>(...) 等价于 <tag>.find_all(...) soup(...) 等价于 soup.find_all(...)
“中国大学排名定向爬虫”实例介绍最好大学网:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html功能描述 输入:大学排名URL链接 输出:大学排名信息的屏幕输出(排名,大学名称,总分) 技术路线:requestsbs4 定向爬虫:仅对输入URL进行爬取,不扩展爬取程序的结构设计 步骤1:从网络上获取大学排名网页内容 getHTMLText() 步骤2:提取网页内容中信息到合适的数据结构 fillUnivList() 步骤3:利用数据结构展示并输出结果 printUnivList() “中国大学排名定向爬虫”实例编写
“中国大学排名定向爬虫”实例优化中文对齐问题的原因:
当中文字符宽度不够时,采用西文字符填充;中西文字符占用宽度不同采用中文字符的空格填充 chr(12288) 第三周内容导学正则表达式详解提取页面关键信息 Re 正则表达式的概念正则表达式:regular expression regex RE
正则表达式在文本处理中十分常用
正则表达式的语法正则表达式语法由字符和操作符构成正则表达式的常用操作符
正则表达式实例
经典正则表达式实例
匹配IP地址的正则表达式 IP地址字符串形式的正则表达式(IP地址分分4段,每段0255) \d+.\d+.\d+.\d+ \d{1,3}.\d{1,3}.\d{1,3}.\d{1,3} 不精确精确写法 099: [19]?\d 100199: 1\d{2} 200249: 2[04]\d 250255: 25[05] (([19]?\d|1\d{2}|2[04]\d|25[05]).){3}([19]?\d|1\d{2}|2[04]\d|25[05]) Re库的基本使用Re库介绍:Re库是Python的标准库,主要用于字符串匹配正则表达式的表示类型
re库采用raw string类型表示正则表达式,表示为:r ' text ' 例如:r ' [19]\d{5} ' r '\d{3} \d{8}|\d{4}\d{7}' raw string 是不包含转义符的字符串
Re库的主要功能函数
re.search(pattern, string,flags=0)
re.match(pattern, string,flags=0) 各参数与前述相同re.findall(pattern, string, flags=0) 各参数与前述相同re.split(pattern, string, maxsplit=0, flags=0)
re.sub(pattern, repl,string,count=0,flags=0)
Re库的另一种等价用法
regex = re.compile(pattern, flags=0) 将正则表达式的字符串形式编译成正则表达式对象
Re库的match对象match对象就是一次匹配的结果,包含了匹配的相关信息 Match对象的属性
Match对象的方法
Re库的贪婪匹配和最小匹配同时匹配长短不同的多项,返回哪一个? Re库默认采用贪婪匹配,即输出匹配最长的子串最小匹配:如何输出最短的字串? 最小匹配操作符
“淘宝商品信息定向爬虫”实例介绍功能描述目标:获取淘宝搜索页面的信息,提取其中的商品名称和价格。理解:淘宝的搜索接口 翻页的处理 技术路线:requestsre 程序的结构设计 步骤1:提交商品搜索请求,循环获取页面 步骤2:对于每个页面,提取商品名称和价格信息步骤3:将信息输出到屏幕上 “淘宝商品信息定向爬虫”实例编写
“股票数据定向爬虫”实例介绍功能描述 目标:获取上交所和深交所所有股票的名称和交易信息输出:保存到文件中 技术路线:requestsbs4re 候选数据网站的选择 新浪股票:http://finance.sina.com.cn/stock/百度股票:https://gupiao.baidu.com/stock/候选数据网站的选择 选取原则:股票信息静态存在于HTML页面中,非js代码生成,没有Robots协议限制选取方法:浏览器F12,源代码查看等 选取心态:不要纠结于某个网站,多找信息源尝试程序的结构设计 步骤1:从东方财富网获取股票列表 步骤2:根据股票列表逐个到百度股票获取个股信息步骤3:将结果存储到文件 “股票数据定向爬虫”实例编写
“股票数据定向爬虫”实例优化
第 四 周 内 容 导 学 Scrapy专业爬虫框架介绍爬虫框架的基本使用Scrapy爬虫框架介绍 Scrapy的安装:执行pip install scrapy 在使用pip的时候在后面加上-i参数,指定pip源 eg: pip install scrapy -i https://pypi.tuna.tsinghua.edu.cn/simple Scrapy爬虫框架结构 爬虫框架:爬虫框架是实现爬虫功能的一个软件结构和功能组件集合爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫
“5+2”结构 Scrapy爬虫框架解析Engine模块(不需要用户修改):控制所有模块之间的数据流;根据条件触发事件Downloader模块(不需要用户修改):根据请求下载网页 Scheduler模块(不需要用户修改):对所有爬取请求进行调度管理Downloader Middleware中间键 目的:实施Engine、Scheduler和Downloader之间进行用户可配置的控制功能:修改、丢弃、新增请求或响应 用户可以编写配置代码 Spider模块(需要用户编写配置代码) 解析Downloader返回的响应(Response) 产生爬取项(scraped item) 产生额外的爬取请求(Request) Item Pipelines模块(需要用户编写配置代码) 以流水线方式处理Spider产生的爬取项 由一组操作顺序组成,类似流水线,每个操作是一个Item Pipeline类型 可能操作包括:清理、检验和查重爬取项中的HTML数据、将数据存储到数据库 Spider Middleware中间键 目的:对请求和爬取项的再处理 功能:修改、丢弃、新增请求或爬取项用户可以编写配置代码 requests库和Scrapy爬虫的比较requests vs. Scrapy 相同点 两者都可以进行页面请求和爬取,Python爬虫的两个重要技术路线两者可用性都好,文档丰富,入门简单 两者都没用处理js、提交表单、应对验证码等功能(可扩展) 不同点
选用哪个技术路线开发爬虫 非常小的需求,requests库 不太小的需求,Scrapy框架 定制程度很高的需求(不考虑规模),自搭框架,requests>Scrapy Scrapy爬虫的常用命令 Scrapy命令行 Scrapy是为持续运行设计的专业爬虫框架,提供操作的Scrapy命令行Scrapy常用命令
为什么Scrapy采用命令行创建和运行爬虫 命令行(不是图形界面)更容易自动化,适合脚本控制 本质上,Scrapy是给程序员用的,功能(而不是界面)更重要 Scrapy爬虫的第一个实例演示HTML页面地址:http://python123.io/ws/demo.html文件名称:demo.html 产生步骤 步骤1:建立一个Scrapy爬虫工程 scrapy startproject python123demo 生成的工程目录 python123demo/ 外层目录 scrapy.cfg 部署Scrapy爬虫的配置文件 python123demo/ Scrapy框架的用户自定义Python代码 init .py 初始化脚本 items.py Items代码模板(继承类) middlewares.py Middlewares代码模板(继承类) pipelines.py Pipelines代码模板(继承类) settings.py Scrapy爬虫的配置文件 spiders/ Spiders代码模板目录(继承类) init .py 初始文件,无需修改 pycache / 缓存目录,无需修改步骤2:在工程中产生一个Scrapy爬虫 cd python123demo > scrapy genspider demo python123.io demo.py文件
步骤3:配置产生的spider爬虫
步骤4:运行爬虫,获取网页 scrapy crawl demo yield关键字的使用yield —— 生成器 生成器是一个不断产生值的函数 包含yield语句的函数是一个生成器 生成器每一次产生一个值(yield语句),函数被冻结,被唤醒后再产生一个值
生成器相比一次列出所有内容的优势: 更节省存储空间 响应更加迅速使用更灵活
Scrapy爬虫的基本使用Scrapy爬虫的使用步骤 步骤1:创建一个工程和Spider模板步骤2:编写Spider 步骤3:编写Item Pipeline 步骤4:优化配置策略Scrapy爬虫的数据类型 Request类;Response类:Item类Request类 class scrapy.http.Request() Request对象表示一个HTTP请求 由Spider生成,由Downloader执行
Response类 class scrapy.http.Response() Response对象表示一个HTTP响应由Downloader生成,由Spider处理
Item类 class scrapy.item.Item() Item对象表示一个从HTML页面中提取的信息内容由Spider生成,由Item Pipeline处理 Item类似字典类型,可以按照字典类型操作Scrapy爬虫提取信息的方法 Scrapy爬虫支持多种HTML信息提取方法Beautiful Soup lxml re XPath Selector CSS Selector CSS Selector的基本使用
CSS Selector由W3C组织维护并规范“股票数据Scrapy爬虫”实例介绍 功能描述 技术路线:scrapy 目标:获取上交所和深交所所有股票的名称和交易信息 输出:保存到文件中数据网站的确定 获取股票列表: 东方财富网:http://quote.eastmoney.com/stocklist.html获取个股信息: 百度股票:https://gupiao.baidu.com/stock/ 单个股票:https://gupiao.baidu.com/stock/sz002439.html “股票数据Scrapy爬虫”实例编写 步骤 步骤1:建立工程和Spider模板
配置stocks.py文件 修改对返回页面的处理 修改对新增URL爬取请求的处理(stocks.py)
步骤3:编写ITEM Pipelines 配置pipelines.py文件 定义对爬取项(Scrapy Item)的处理类(pipelines.py)
配置ITEM_PIPELINES选项(settings.py)
执行程序:scrapy crawl stocks ”股票数据Scrapy爬虫“实例优化 配置并发连接选项(settings.py)
网络爬虫课程的未完待续Scrapy爬虫的地位 Python语言最好的爬虫框架 具备企业级专业爬虫的扩展性(7X24高可靠性) 千万级URL爬取管理与部署 Scrapy足以支撑一般商业服务所需的爬虫能力Scrapy爬虫的应用展望 普通价值
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
requests.post() |
向HTML网页提交POST请求的方法,对应于HTTP的POST |
requests.put() |
向HTML网页提交PUT请求的方法,对应于HTTP的PUT |
requests.patch() |
向HTML网页提交局部修改请求,对应于HTTP的PATCH |
requests.delete() |
向HTML网页提交删除请求,对应于HTTP的DELETE |
Requests库的get()方法:
r = requests.get(url) 构造一个向服务器请求资源的Request对象,返回一个包含服务器资源的
Response 对 象 (r) requests.get(url,params=None,**kwargs)
url: 拟获取页面的url链接
params:url中的额外参数,字典或字节流格式,可选
**kwargs:12个控制访问的参数Response对象的属性
r.status_code |
HTTP请求的返回状态,200表示连接成功,404表示失败 |
r.text |
HTTP响应内容的字符串形式,即 url对应的页面内容 |
r.encoding |
从HTTP header中猜测的响应内容编码方式 |
r.apparent_encoding |
从内容中分析出的响应内容编码方式(备选编码方式) |
r.content |
HTTP响应内容的二进制形式 |
r.encoding: 如果header中不存在charset,则认为编码为ISO88591 爬取网页的通用代码框架:
理解Requests库的异常
requests.ConnectionError |
网络连接错误异常,如DNS查询失败、拒绝连接等 |
requests.HTTPError |
HTTP错误异常 |
requests.URLRequired |
URL缺失异常 |
requests.TooManyRedirects |
超过最大重定向次数,产生重定向异常 |
requests.ConnectTimeout |
连接远程服务器超时异常 |
requests.Timeout |
请求URL超时,产生超时异常 |
r.raise_for_status() |
如果不是200,产生异常 requests.HTTPError |
爬取网页的通用代码框架:
|
if name == " main ": url = "http://www.baidu.com" print(getHTMLText(url)) |
r.raise_for_status() #如果状态不是200,引发HTTPError异常 r.encoding = r.apparent_encoding return r.text except: return "产生异常" |
# 网络连接有风险,异常处理很重要 |
def getHTMLText(url): try: r = requests.get(url, timeout=30) |
import requests |
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
HTTP协议及Requests库方法
HTTP,Hypertext Transfer Protocol,超文本传输协议HTTP是一个基于“请求与响应”模式的、无状态的应用层协议HTTP协议采用URL作为定位网络资源的标识
URL格式 http://host[:port][path]
host:合法的Internet主机域名或IP地址port:端口号,缺省端口为80
path:请求资源的路径
URL是通过HTTP协议存取资源的Internet路径,一个URL对应一个数据资源HTTP协议对资源的操作:
方法 |
说明 |
GET |
请求获取URL位置的资源 |
HEAD |
请求获取URL位置资源的响应消息报告,即获得该资源的头部信息 |
POST |
请求向URL位置的资源后附加新的数据 |
PUT |
请求向URL位置存储一个资源,覆盖原URL位置的资源 |
PATCH |
请求局部更新URL位置的资源,即改变该处资源的部分内容 |
DELETE |
请求删除URL位置存储的资源 |
Requests库的post()方法: put()方法类似
|
单
Requests库主要方法解析requests.request(method, url, **kwargs)
method: 请求方式,对应GET/ HEAD/ POST/ PUT/ PATCH/ delete/ OPTIONS等7种例:r = requests.request('GET', url, **kwargs), OPTIONS主要是获取参数
url:拟获取页面的url链接
**kwargs:控制访问的参数,共13个,均为可选项params:字典或字节序列,作为参数增加到url中
1 |
>>> kv = {'key1':'value1','key2':'value2'} |
2 |
>>> r = requests.request('Get', 'http://python123.io/ws',params=kv) |
3 |
>>> print(r.url) |
4 |
https://python123.io/ws?key1=value1&key2=value2 |
data:字典、字节序列或文件对象,作为Request的内容
1 |
kv = {'key1':'value1','key2':'value2'} |
2 |
r = requests.request('POST','http://python123.io/ws',data=kv) |
3 |
body = '主体内容' |
4 |
r = requests.request('POST','http://python123.io/ws',data=body) |
json:JSON格式的数据,作为Request的内容headers:字典,HTTP定制头
1 |
hd = {'user‐agent': 'Chrome/10'} |
2 |
r = requests.request('POST', 'http://python123.io/ws',headers=hd) |
3 |
# |
访问时服务器看到的user‐agent字段的值是Chrome/10(Chrome浏览器的第十个版本) |
4 |
# |
也就是说我们可以模拟任何我们想模拟的浏览器向服务器发起访问 |
cookies:字典或CookieJar, Requests中的cookie auth:元组,支持HTTP认证功能
files:字典类型,传输文件
1 |
fs = {'file': open('data.xls', 'rb')} # 向某个链接提交某个文件 |
2 |
r = requests.request('POST', 'http://python123.io/ws',files=fs) |
timeout:设定超时时间,秒为单位
proxies:字典类型,设定访问代理服务器,可以增加登录认证
1 2 3 4 5 |
pxs = {'http': 'http://user:pass@10.10.10.1:1234', 'https': 'http://10.10.10.1:4321'} r = requests.request('GET', 'http://www.baidu.com', proxies=pxs) # 在增加的http代理中可以增加用户名和密码的设置,在访问百度时使用的IP地址是 # 代理服务器的IP地址,隐藏用户信息,防止爬虫的逆追踪 |
allow_redirects:True/Flase,默认为True,重定向开关stream:True/False,默认为True,获取内容立即下载开关verify:True/False,默认为True,认证SSL证书开关 cert:本地SSL证书路径requests.get(url,params=None,**kwargs) requests.head(url, **kwarg) **kwarg:13个控制访问参数
requests.post(url, data=None, json=None, **kwargs) 11个控制访问参数requests.put(url, data=None, **kwargs) 12个控制访问参数requests.patch(url, data=None, **kwargs) 12个控制访问参数requests.delete(url, **kwargs) 13个控制访问参数
网络爬虫的盗亦有道
网络爬虫的尺寸
爬取网页,玩转网页:小规模,数据量小,爬取速度不敏感;Requests库爬取网站 爬取系列网站:中规模,数据量较大,爬取速度敏感;Scrapy库爬取全网:大规模,搜索引擎,爬取速度关键;定制开发
网络爬虫引发的问题
网络爬虫的骚扰:受限于编写水平和目的,网络爬虫将会为Web服务器带来巨大的资源开销 网络爬虫的法律风险:服务器上的数据有产权归属,网络爬虫获取数据后牟利将带来法律风险
网络爬虫泄露隐私:网络爬虫可能具备突破简单访问控制的能力,获得被保护数据从而泄露个人隐私
网络爬虫的限制
来源审查:判断UserAgent进行限制
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消检查来访HTTP协议头的UserAgent域,只响应浏览器或友好爬虫的访问发布公告:Robots协议
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消告知所有爬虫网站的爬取策略,要求爬虫遵守
Robots协议
Robots Exclusion Standard 网络爬虫排除标准
作用:网站告知网络爬虫哪些页面可以抓取,哪些不行形式:在网站根目录下的robots.txt文件
Robots 协 议 基 本 语 法 : https://www.jd.com/robots.txt
User-agent: * # 注释:
Disallow: /?* *代表所有Disallow: /pop/*.html /代表根目录Robots协议的遵守方式
网络爬虫使用Robots协议:自动或人工识别robots.txt,再进行内容爬取
约束性:Robots协议是建议但非约束性,网络爬虫可以不遵守,但存在法律风险
Requests库爬取实例
实例1:京东商品页面的爬取
1 2 3 4 5 6 7 8 9 |
import requests url = "https://item.jd.com/100004770249.html" try: r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding print(r.text[:1000]) except: print("爬取失败") |
实例2:亚马逊商品页面的爬取
1 |
import requests url = "https://www.amazon.cn/dp/B01MYH8A99" try: kv = {'user‐agent':'Mozilla/5.0'} r = requests.get(url,headers=kv) r.raise_for_status() r.encoding = r.apparent_encoding print(r.text[1000:2000]) except: print("爬取失败") |
# 标准的浏览器身份标识 # 模拟浏览器访问 # r.request.headers 查看报头信息 |
2 |
||
3 |
||
4 |
||
5 |
||
6 |
||
7 |
||
8 |
||
9 |
||
10 |
实例3:百度360搜索关键词提交
百度的关键词接口: http://www.baidu.com/s?wd=keyword 360的关键词接口: http://www.so.com/s?q=keyword
1 2 3 4 5 6 7 8 9 10 |
import requests keyword = "Python" try: kv = {'wd':keyword} r = requests.get("http://www.baidu.com/s",params=kv) print(r.request.url) r.raise_for_status() print(len(r.text)) except: print("爬取失败") |
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
实例4:网络图片的爬取和存储
网络图片链接的格式:http://www.example.com/picture.jpg图片爬取代码
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
import requests import os url = "http://img0.dili360.com/ga/M00/48/F7/wKgBy1llvmCAAQOVADC36j6n9bw622.tub.jpg" root = "E://图片//爬虫//" path = root + url.split('/')[‐1] try: if not os.path.exists(root): os.mkdir(root) if not os.path.exists(path): r = requests.get(url) r.raise_for_status() with open(path, 'wb') as f: f.write(r.content) # r.content表示返回内容的二进制形式, f.close() # 图片是以二进制形式存储的 print("文件保存成功") else: print("文件已存在") except: print("爬取失败") |
实例5:IP地址归属地的自动查询
ip138 IP查询:http://m.ip138.com/ip.asp?ip=ipaddress
1 2 3 4 5 6 7 8 9 |
import requests url = "http://m.ip138.com/ip.asp?ip=" try: r = requests.get(url + '202.204.80.112') r.raise_for_status() r.encoding = r.apparent_encoding print(r.text[:1000]) except: print("爬取失败") |
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
第二周内容导学
Beautiful Soup:解析HTML页面信息标记与提取方法Projects:实战项目—中国大学排名爬虫
Beautiful Soup库的安装
https://www.crummy.com/software/BeautifulSoup/
演示HTML页面地址:https://python123.io/ws/demo.html
1 |
<html><head><title>This is a python demo page</title></head> |
2 |
<body> |
3 |
<p class="title"><b>The demo python introduces several python courses.</b></p> |
4 |
<p class="course">Python is a wonderful general‐purpose programming language. You c |
5 |
<a href="http://www.icourse163.org/course/BIT‐268001" class="py1" id="link1">Basic |
6 |
</body></html> |
|
1 from bs4 import BeautifulSoup |
# BeautifulSoup是一个类,第一个参 |
2 soup = BeautifulSoup('<p>data</p>', 'html.parser') # 第二个参数是需要用的解析器 |
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
Beautiful Soup库的基本元素
Beautiful Soup库的理解:它是解析、遍历、维护“标签树”的功能库
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
Beautiful Soup库的引用:Beautiful Soup库,也叫beautifulsoup4或bs4 Beautiful Soup类:HTML文档标签树BeautifulSoup类
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
1 2 3 |
from bs4 import BeautifulSoup soup = BeautifulSoup('<p>data</p>', 'html.parser') soup2 = BeautifulSoup(open("D://demo.html"), "html.parser") # 打开一个html文件 |
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
BeautifulSoup对应一个HTML/XML文档的全部内容Beautiful Soup库解析器:
解析器 |
使用方法 |
条件 |
bs4的HTML解析器 |
BeautifulSoup(mk, 'html.parser') |
安装bs4库 |
lxml的HTML解析器 |
BeautifulSoup(mk, 'lxml') |
pip install lxml |
lxml的XML解析器 |
BeautifulSoup(mk, 'xml') |
pip install lxml |
html5lib的解析器 |
BeautifulSoup(mk, 'html5lib') |
pip install html5lib |
Beautiful Soup类的基本元素:
基本元素 |
说明 |
Tag |
标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾 |
Name |
标签的名字,<p>...</p>的名字是'p',格式:<tag>.name |
Attributes |
标签的属性,字典形式组织,格式:<tag>.attrs |
NavigableString |
标签内非属性字符串,<>...</>中字符串,格式:<tag>.string |
Comment |
标签内字符串的注释部分,一种特殊的Comment类型 |
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
基于bs4库的HTML内容遍历方法上行遍历, 下行遍历, 平行遍历标签树的下行遍历:
属性 |
说明 |
.contents |
子节点的列表,将<tag>所有儿子节点存入列表 |
.children |
子节点的迭代类型,与.contents类似,用于循环遍历儿子节点 |
.descendants |
子孙节点的迭代类型,包含所有子孙节点,用于循环遍历 |
1 |
for child in soup.body.children: print(child) for child in soup.body.descendants: print(child) |
# 遍历儿子节点 # 遍历子孙节点 |
2 |
||
3 |
||
4 |
标签树的上行遍历:
属性 |
说明 |
.parent |
节点的父亲标签 |
.parents |
节点先辈标签的迭代类型,用于循环遍历先辈节点 |
1 2 3 4 5 6 |
soup = BeautifulSoup(demo, "html.parser") for parent in soup.a.parents: # 遍历soup的a标签的先辈标签 if parent is None: print(parent) else: print(parent.name) |
标签树的平行遍历:
属性 |
说明 |
.next_sibling |
返回按照HTML文本顺序的下一个平行节点标签 |
.previous_sibling |
返回按照HTML文本顺序的上一个平行节点标签 |
.next_siblings |
迭代类型,返回按照HTML文本顺序的后续所有平行结点标签 |
.previous_siblings |
迭代类型,返回按照HTML文本顺序的前续所有平行节点标签 |
平行遍历发生在同一个父节点下的各节点间
1 |
for sibling in soup.a.next_siblings: print(sibling) |
# 遍历后续节点 |
2 |
3 |
for sibling in soup.a.previous_siblings: print(sibling) |
# 遍历前续节点 |
4 |
基于bs4库的HTML格式输出
如何能让HTML页面更加友好的显示?
1 2 3 4 5 6 7 |
>>> soup = BeautifulSoup("<p>中文</p>", "html.parser") >>> soup.p.string # 默认使用UTF‐8编码 '中文' >>> print(soup.p.prettify()) <p> 中文 </p> |
信息标记的三种形式信息的标记:
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消标记后的信息可形成信息组织结构,增加了信息维度标记后的信息可用于通信、存储和展示
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消标记的结构与信息一样具有重要价值标记后的信息有利于程序理解和运用
HTML的信息标记:HTML通过预定义的<>...</>标签形式组织不同类型的信息信息标记的三种形式:XML,JSON,YAML
1 |
XML <name>...</name> <name /> <!‐‐ ‐‐> |
JSON "key": "key": "key": |
"value" ["value1", {"subkey", |
"value2"] "subvalue"} |
YMAL key: value key: subkey: |
subvalue |
key: #Comme ‐value1 ‐value2 |
2 |
|||||||
3 |
|||||||
4 |
三种信息标记形式的比较
XML实例:
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
JSON实例:
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
YAML实例:
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
XML 最早的通用信息标记语言,可扩展性好,但繁琐;Internet上的信息交互于传递
JSON 信息有类型,适合程序处理(js),较XML简洁;移动应用云端和节点的信息通信,无注释
YAML 信息无类型,文本信息比例最高,可读性好;各类系统的配置文件,有注释易读信息提取的一般方法
方法一:完整解析信息的标记形式,再提取关键信息需要标记解析器 例如:bs4库的标签树遍历
优点:信息解析准确
缺点:提取过程繁琐,速度慢
方法二:无视标记形式,直接搜索关键信息
对信息的文本查找函数即可
优点:提取过程简洁,速度较快
缺点:提取结果准确性与信息内容相关
融合方法:结合形势解析与搜索方法,提取关键信息需要标记解析器及文本查找函数
实例:提取HTML中所有的URL链接思路:1)搜索到所有<a>标签
2)解析<a>标签格式,提取href后的链接内容
1 2 3 4 5 6 7 8 9 |
import requests r = requests.get("https://python123.io/ws/demo.html") demo = r.text from bs4 import BeautifulSoup soup = BeautifulSoup(demo, "html.parser") for link in soup.find_all('a'): print(link.get('href')) >>> http://www.icourse163.org/course/BIT‐268001 >>> http://www.icourse163.org/course/BIT‐1001870001 |
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
基于bs4库的HTML内容查找方法
<>.find_all(name, attrs, recursive, string, **kwargs)
返回一个列表类型,存储查找的结果
name:对标签名称的检索字符串 soup.find_all(['a','b'])
attrs:对标签属性值的检索字符串,可标注属性检索 soup.find_all('p', 'course') soup.find_all(id='link1')
recursive:是否对子孙全部检索,默认True soup.find_all('a', recursive=False) string:<>...</>中字符串区域的检索字符串 soup.find_all(string = re.compile('python'))
<tag>(...) 等价于 <tag>.find_all(...) soup(...) 等价于 soup.find_all(...)
扩展方法 |
说明 |
<>.find() |
搜索且只返回一个结果,字符串类型,同 .find_all()参数 |
<>.find_parents() |
在先辈节点中搜索,返回列表类型,同 .find_all()参数 |
<>.find_parent() |
在先辈节点中返回一个结果,字符串类型,同 .find_all()参数 |
<>.find_next_siblings() |
在后续平行节点中搜索,返回列表类型,同 .find_all()参数 |
<>.find_next_sibling() |
在后续平行节点中返回一个结果,字符串类型,同 .find_all()参数 |
<>.find_previous_siblings() |
在前序平行节点中搜索,返回列表类型,同 .find_all()参数 |
<>.find_previous_sibling() |
在前序平行节点中返回一个结果,字符串类型,同 .find_all()参数 |
“中国大学排名定向爬虫”实例介绍
最好大学网:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html功能描述
输入:大学排名URL链接
输出:大学排名信息的屏幕输出(排名,大学名称,总分) 技术路线:requestsbs4
定向爬虫:仅对输入URL进行爬取,不扩展爬取程序的结构设计
步骤1:从网络上获取大学排名网页内容 getHTMLText()
步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()
步骤3:利用数据结构展示并输出结果 printUnivList() “中国大学排名定向爬虫”实例编写
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
import requests from bs4 import BeautifulSoup import bs4 def getHTMLText(url): try: r = requests.get(url, timeout = 30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "" def fillUnivList(ulist, html): soup = BeautifulSoup(html, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): # 检测tr的类型是否是Tag标签 |
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
18 19 20 21 |
tds = tr('td') ulist.append([tds[0].string, tds[1].string, tds[2].string]) |
22 def printUnivList(ulist, num): 23 tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
27 print(tplt.format(u[0], u[1], u[2],chr(12288))) 28
36 main() |
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
“中国大学排名定向爬虫”实例优化中文对齐问题的原因:
: |
<填充> |
<对齐> |
<宽度> |
, |
<精度> |
<类型> |
引号符号 |
用于填充的 单个字符 |
<左对齐 >右对齐 ^居中对齐 |
槽的设定输出宽度 |
数字的千位分隔符适用于整数和浮点数 |
浮点数小数部分的精度或字符串的最大输出长度 |
整数类型b,c,d,o,x,X 浮点数类型e,E,f,% |
当中文字符宽度不够时,采用西文字符填充;中西文字符占用宽度不同采用中文字符的空格填充 chr(12288)
第三周内容导学
正则表达式详解提取页面关键信息 Re
正则表达式的概念
正则表达式:regular expression regex RE
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消正则表达式是用来简洁表达一组字符串的表达式通用的字符串表达框架
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消简洁表达一组字符串的表达式
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消针对字符串表达“简洁”和“特征”思想的工具判断某字符串的特征归属
正则表达式在文本处理中十分常用
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消表达文本类型的特征(病毒、入侵等) 同时查找或替换一组字符串
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消匹配字符串的全部或部分正则表达式的使用
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消编译:将符合正则表达式语法的字符串转换成正则式表达特征
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
正则表达式的语法
正则表达式语法由字符和操作符构成正则表达式的常用操作符
操作符 |
说明 |
实例 |
. |
表示任何单个字符 |
|
[ ] |
字符集,对单个字符给出取值范围 |
[abc]表示a、b、c,[az]表示a到z单个字符 |
[^ ] |
非字符集,对单个字符给出排除范围 |
[^abc]表示非a或b或c的单个字符 |
* |
前一个字符0次或无限次扩展 |
abc* 表示 ab、abc、abcc、abccc等 |
+ |
前一个字符1次或无限次扩展 |
abc+ 表示 abc、abcc、abccc等 |
? |
前一个字符0次或1次扩展 |
abc?表示 ab、abc |
| |
左右表达式任意一个 |
abc|def 表示 abc、def |
{m} |
扩展前一个字符m次 |
ab{2}c 表 示 abbc |
{m,n} |
扩展前一个字符m至n次(含n) |
ab{1,2}c 表示 abc、abbc |
^ |
匹配字符串开头 |
^abc 表示abc且在一个字符串的开头 |
$ |
匹配字符串结尾 |
abc$ 表示abc且在一个字符串的结尾 |
( ) |
分组标记,内部只能使用 | 操作符 |
(abc) 表示abc,(abc|def) 表示 abc、def |
\d |
数字,等价于[09] |
|
\w |
单词字符,等价于[AZaz09_] |
正则表达式实例
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
经典正则表达式实例
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
匹配IP地址的正则表达式
IP地址字符串形式的正则表达式(IP地址分分4段,每段0255)
\d+.\d+.\d+.\d+ \d{1,3}.\d{1,3}.\d{1,3}.\d{1,3} 不精确精确写法
099: [19]?\d 100199: 1\d{2} 200249: 2[04]\d 250255: 25[05] (([19]?\d|1\d{2}|2[04]\d|25[05]).){3}([19]?\d|1\d{2}|2[04]\d|25[05])
Re库的基本使用
Re库介绍:Re库是Python的标准库,主要用于字符串匹配正则表达式的表示类型
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消raw string类型(原生字符串类型)
re库采用raw string类型表示正则表达式,表示为:r ' text '
例如:r ' [19]\d{5} ' r '\d{3} \d{8}|\d{4}\d{7}' raw string 是不包含转义符的字符串
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消string 类型,更繁琐,要转义
Re库的主要功能函数
函数 |
说明 |
re.search() |
在一个字符串中搜索匹配正则表达式的第一个位置,返回match对象 |
re.match() |
从一个字符串的开始位置起匹配正则表达式,返回match对象 |
re.findall() |
搜索字符串,以列表类型返回全部能匹配的子串 |
re.split() |
将一个字符串按照正则表达式匹配结果进行分割。返回列表类型 |
re.finditer() |
搜索字符串,返回一个匹配结果的迭代类型,每个迭代元素是match对象 |
re.sub() |
在一个字符串中替换所有匹配正则表达式的子串,返回替换后的字符串 |
re.search(pattern, string,flags=0)
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消pattern:正则表达式的字符串或原生字符串表示string:待匹配字符串
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消flags:正则表达式使用时的控制标记
常用标记 |
说明 |
re.I re.IGNORECASE |
忽略正则表达式的大小写, [AZ]能够匹配小写字符 |
re.M re.MULTILINE |
正则表达式中的^操作符能够将给定字符串的每行当作匹配开始 |
re.S re.DOTALL |
正则表达式中的. 操作符能够匹配所有字符,默认匹配换行除外的所有字符 |
re.match(pattern, string,flags=0) 各参数与前述相同re.findall(pattern, string, flags=0) 各参数与前述相同re.split(pattern, string, maxsplit=0, flags=0)
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消最大分割数,剩余部分作为最后一个元素输出
re.sub(pattern, repl,string,count=0,flags=0)
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
正在上传…重新上传取消
转存失败重新上传取消
转存失败重新上传取消repl:替换匹配字符串的字符串count:匹配的最大替换次数
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
1 |
match = re.search(r'[1‐9]\d{5}','BIT 100081') |
|
2 |
if match: |
|
3 |
print(match.group(0)) |
# 100081 |
4 |
match = re.match(r'[1‐9]\d{5}','100081 BIT') |
|
5 |
if match: |
|
6 |
match.group(0) |
# 100081 |
7 |
ls = re.findall(r'[1‐9]\d{5}', 'BIT 100081 TSU100084') |
# ls ['100081', '1 |
8 |
re.split(r'[1‐9]\d{5}', 'BIT 100081 TSU100084') |
# ['BIT ', ' TSU', |
9 |
re.split(r'[1‐9]\d{5}', 'BIT 100081 TSU100084', maxsplit=1) |
# ['BIT ', ' TSU100 |
10 |
for m in re.finditer(r'[1‐9]\d{5}', 'BIT100081 TSU100084'): |
|
11 |
if m: |
# 100081 |
12 |
print(m.group(0)) |
# 100084 |
13 |
re.sub(r'[1‐9]\d{5}', ':zipcode','BIT100081 TSU100084') |
# 'BIT:zipcode TSU: |
Re库的另一种等价用法
1 |
rst = re.search(r'[1‐9]\d{5}','BIT 100081') |
# 函数式用法:一次性操作 |
2 |
pat = re.compile(r'[1‐9]\d{5}') |
# 面向对象用法:编译后的多次操作 |
3 |
rst = pat.search('BIT 100081') |
regex = re.compile(pattern, flags=0) 将正则表达式的字符串形式编译成正则表达式对象
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消pattern:正则表达式的字符串或原生字符串表示flags:正则表达式使用时的控制标记
函数 |
说明 |
regex.search() |
在一个字符串中搜索匹配正则表达式的第一个位置,返回match对象 |
regex.match() |
从一个字符串的开始位置起匹配正则表达式,返回match对象 |
regex.findall() |
搜索字符串,以列表类型返回全部能匹配的子串 |
regex.split() |
将一个字符串按照正则表达式匹配结果进行分割。返回列表类型 |
regex.finditer() |
搜索字符串,返回一个匹配结果的迭代类型,每个迭代元素是match对象 |
regex.sub() |
在一个字符串中替换所有匹配正则表达式的子串,返回替换后的字符串 |
Re库的match对象
match对象就是一次匹配的结果,包含了匹配的相关信息
Match对象的属性
属性 |
说明 |
.string |
待匹配的文本 |
.re |
匹配时使用的pattern对象(正则表达式) |
.pos |
正则表达式搜索文本的开始位置 |
.endpos |
正则表达式搜索文本的结束位置 |
Match对象的方法
方法 |
说明 |
.group(0) |
获得一次匹配后的字符串 |
.start() |
匹配字符串在原始字符串的开始位置 |
.end() |
匹配字符串在原始字符串的结束位置 |
.span() |
返回(.start(), .end()) |
1 2 3 4 5 6 7 8 9 |
m = re.search(r'[1‐9]\d{5}','BIT100081 TSU100084') match.string # 'BIT 100081 TSU 100084' m.group(0) # '100081' 返回一次匹配的结果,查看全部用finditer() m.re # re.compile('[1‐9]\\d{5}') m.pos # 0 m.endpos # 19 m.start() # 3 m.end() # 9 m.span() # (3, 9) |
![]() ![]() |
Re库的贪婪匹配和最小匹配
同时匹配长短不同的多项,返回哪一个?
Re库默认采用贪婪匹配,即输出匹配最长的子串最小匹配:如何输出最短的字串?
最小匹配操作符
操作符 |
说明 |
*? |
前一个字符0次或无限次扩展,最小匹配 |
+? |
前一个字符1次或无限次扩展,最小匹配 |
?? |
前一个字符0次或1次扩展,最小匹配 |
{m,n}? |
扩展前一个字符m至n次(含n),最小匹配 |
1 |
match = re.search(r'PY.*N', 'PYANBNCNDN') |
# PY开头,N结尾的字符串 |
2 |
match.group(0) # 'PYANBNCNDN' |
|
3 |
match = re.search(r'PY.*?N', 'PYANBNCNDN') |
|
4 |
match.group(0) # 'PYAN' |
“淘宝商品信息定向爬虫”实例介绍功能描述
目标:获取淘宝搜索页面的信息,提取其中的商品名称和价格。理解:淘宝的搜索接口
翻页的处理
技术路线:requestsre 程序的结构设计
步骤1:提交商品搜索请求,循环获取页面
步骤2:对于每个页面,提取商品名称和价格信息步骤3:将信息输出到屏幕上
“淘宝商品信息定向爬虫”实例编写
1 |
import requests |
2 |
import re |
3 |
|
4 |
def getHTMLText(url): |
5 |
try: |
6 |
r = requests.get(url, timeout = 30) |
7 |
r.raise_for_status() |
8 |
r.encoding = r.apparent_encoding |
9 |
return r.text |
10 |
except: |
11 |
return "" |
12 |
|
13 |
def parsePage(ilt, html): |
14 |
try: |
15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 |
plt = re.findall(r'\"view_price\":\"[\d\.]*\"',html) tlt = re.findall(r'\"raw_title\":\".*?\"',html) for i in range(len(plt)): price = eval(plt[i].split(':')[1]) title = eval(tlt[i].split(':')[1]) ilt.append([price, title]) except: print("") def printGoodsList(ilt): tplt = "{:4}\t{:8}\t{:16}" print(tplt.format("序号", "价格", "商品名称")) count = 0 for g in ilt: count = count + 1 print(tplt.format(count, g[0], g[1])) def main(): goods = '书包' depth = 2 start_url = 'https://s.taobao.com/search?q=' + goods infoList = [] for i in range(depth): try: url = start_url + '&s=' + str(44*i) html = getHTMLText(url) parsePage(infoList, html) except: continue printGoodsList(infoList) main() |
“股票数据定向爬虫”实例介绍功能描述
目标:获取上交所和深交所所有股票的名称和交易信息输出:保存到文件中
技术路线:requestsbs4re
候选数据网站的选择
新浪股票:http://finance.sina.com.cn/stock/百度股票:https://gupiao.baidu.com/stock/候选数据网站的选择
选取原则:股票信息静态存在于HTML页面中,非js代码生成,没有Robots协议限制选取方法:浏览器F12,源代码查看等
选取心态:不要纠结于某个网站,多找信息源尝试程序的结构设计
步骤1:从东方财富网获取股票列表
步骤2:根据股票列表逐个到百度股票获取个股信息步骤3:将结果存储到文件
“股票数据定向爬虫”实例编写
1 |
import requests |
2 |
from bs4 import BeautifulSoup |
3 |
import traceback |
4 |
import re |
5 |
|
6 |
def getHTMLText(url): |
7 |
try: |
8 |
r = requests.get(url, timeout = 30) |
9 |
r.raise_for_status() |
10 |
r.encoding = r.apparent_encoding |
11 |
return r.text |
12 |
except: |
13 |
return "" |
14 |
|
15 |
def getStockList(lst, stockURL): |
16 |
html = getHTMLText(stockURL) |
17 |
soup = BeautifulSoup(html, 'html.parser') |
18 |
a = soup.find_all('a') |
19 |
for i in a: |
20 |
try: |
21 |
href = i.attrs['href'] |
22 |
lst.append(re.findall(r"[s][hz]\d{6}",href)[0]) |
23 |
except: |
24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 |
continue def getStockInfo(lst, stockURL, fpath): for stock in lst: url = stockURL + stock + ".html" html = getHTMLText(url) try: if html == "": continue infoDict = {} soup = BeautifulSoup(html, 'html.parser') stockInfo = soup.find('div', attrs={'class':'stock‐bets'}) name = stockInfo.find_all(attrs={'aclass':'bets‐name'})[0] infoDict.update({'股票名称':name.text.split()[0]}) keyList = stockInfo.find_all('dt') valueList = stockInfo.find_all('dd') for i in range(len(keyList)): key = keyList[i].text val = valueList[i].text infoDict[key] = val with open(fpath, 'a', encoding='utf‐8') as f: f.write(str(infoDict) + '\n') except: traceback.print_exc() # 把错误信息显示出来 continue def main(): stock_list_url = 'http://quote.eastmoney.com/stocklist.html' stock_info_url = 'https://gupiao.baidu.com/stock/' output_file = 'G://Python/网络爬虫//Python语言系列专题—北理工//BaiduStockInfo.txt slist = [] getStockList(slist, stock_list_url) getStockInfo(slist, stock_info_url, output_file) main() |
“股票数据定向爬虫”实例优化
![]() ![]() |
1 |
print('\r当前速度:{:.2f}%'.format(count*100/len(lst)),end='') |
第 四 周 内 容 导 学 Scrapy专业爬虫框架介绍爬虫框架的基本使用Scrapy爬虫框架介绍
Scrapy的安装:执行pip install scrapy
在使用pip的时候在后面加上-i参数,指定pip源
eg: pip install scrapy -i https://pypi.tuna.tsinghua.edu.cn/simple
Scrapy爬虫框架结构
爬虫框架:爬虫框架是实现爬虫功能的一个软件结构和功能组件集合爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫
![]() ![]() |
“5+2”结构
Scrapy爬虫框架解析
Engine模块(不需要用户修改):控制所有模块之间的数据流;根据条件触发事件Downloader模块(不需要用户修改):根据请求下载网页
Scheduler模块(不需要用户修改):对所有爬取请求进行调度管理Downloader Middleware中间键
目的:实施Engine、Scheduler和Downloader之间进行用户可配置的控制功能:修改、丢弃、新增请求或响应
用户可以编写配置代码
Spider模块(需要用户编写配置代码)
解析Downloader返回的响应(Response) 产生爬取项(scraped item)
产生额外的爬取请求(Request)
Item Pipelines模块(需要用户编写配置代码) 以流水线方式处理Spider产生的爬取项
由一组操作顺序组成,类似流水线,每个操作是一个Item Pipeline类型
可能操作包括:清理、检验和查重爬取项中的HTML数据、将数据存储到数据库
Spider Middleware中间键
目的:对请求和爬取项的再处理
功能:修改、丢弃、新增请求或爬取项用户可以编写配置代码
requests库和Scrapy爬虫的比较requests vs. Scrapy
相同点
两者都可以进行页面请求和爬取,Python爬虫的两个重要技术路线两者可用性都好,文档丰富,入门简单
两者都没用处理js、提交表单、应对验证码等功能(可扩展) 不同点
requests |
Scrapy |
页面级爬虫 |
网站级爬虫 |
功能库 |
框架 |
并发性考虑不足,性能较差 |
并发性好,性能较高 |
重点在于页面下载 |
重点在于爬虫结构 |
定制灵活 |
一般定制灵活,深度定制困难 |
上手十分简单 |
入门稍难 |
选用哪个技术路线开发爬虫
非常小的需求,requests库
不太小的需求,Scrapy框架
定制程度很高的需求(不考虑规模),自搭框架,requests>Scrapy Scrapy爬虫的常用命令
Scrapy命令行
Scrapy是为持续运行设计的专业爬虫框架,提供操作的Scrapy命令行Scrapy常用命令
命令 |
说明 |
格式 |
startproject |
创建一个新工程 |
scrapy startproject <name> [dir] |
genspider |
创建一个爬虫 |
scrapy genspider [options] <name> <domain> |
settings |
获得爬虫配置信息 |
scrapy settings [options] |
crawl |
运行一个爬虫 |
scrapy crawl <spider> |
list |
列出工程中所有爬虫 |
scrapy list |
shell |
启动URL调试命令行 |
scrapy shell [url] |
为什么Scrapy采用命令行创建和运行爬虫
命令行(不是图形界面)更容易自动化,适合脚本控制
本质上,Scrapy是给程序员用的,功能(而不是界面)更重要
Scrapy爬虫的第一个实例
演示HTML页面地址:http://python123.io/ws/demo.html文件名称:demo.html
产生步骤
步骤1:建立一个Scrapy爬虫工程
scrapy startproject python123demo
生成的工程目录
python123demo/ 外层目录
scrapy.cfg 部署Scrapy爬虫的配置文件
python123demo/ Scrapy框架的用户自定义Python代码
init .py 初始化脚本
items.py Items代码模板(继承类)
middlewares.py Middlewares代码模板(继承类) pipelines.py Pipelines代码模板(继承类) settings.py Scrapy爬虫的配置文件
spiders/ Spiders代码模板目录(继承类)
init .py 初始文件,无需修改
pycache / 缓存目录,无需修改步骤2:在工程中产生一个Scrapy爬虫
cd python123demo > scrapy genspider demo python123.io demo.py文件
1 2 3 4 5 6 7 8 9 10 11 |
# ‐*‐ coding: utf‐8 ‐*‐ import scrapy class DemoSpider(scrapy.Spider): name = 'demo' allowed_domains = ['python123.io'] start_urls = ['http://python123.io/'] def parse(self, response): pass # parse()用于处理响应,解析内容形成字典,发现新的URL爬取请求 |
步骤3:配置产生的spider爬虫
1 |
# ‐*‐ coding: utf‐8 ‐*‐ |
2 |
import scrapy |
3 |
|
4 |
class DemoSpider(scrapy.Spider): |
5 |
name = 'demo' |
6 |
#allowed_domains = ['python123.io'] |
7 |
start_urls = ['http://python123.io/ws/demo.html'] |
8 |
|
9 |
def parse(self, response): |
10 |
fname = response.url.split('/')[‐1] |
11 |
with open(fname, 'wb') as f: |
12 |
f.write(response.body) |
13 |
self.log('Saved file %s.' % fname) |
步骤4:运行爬虫,获取网页
scrapy crawl demo
yield关键字的使用yield —— 生成器
生成器是一个不断产生值的函数 包含yield语句的函数是一个生成器
生成器每一次产生一个值(yield语句),函数被冻结,被唤醒后再产生一个值
1 2 3 4 5 6 |
def gen(n): for i in range(n): yield i**2 for i in gen(5): print(i, " ",end="") 0 1 4 9 16 |
生成器相比一次列出所有内容的优势: 更节省存储空间
响应更加迅速使用更灵活
1 |
import scrapy |
2 |
|
3 |
class DemoSpider(scrapy.Spider): |
4 |
name = 'demo' |
5 |
|
6 |
def start_requests(self): |
7 |
urls = [ |
8 |
|
9 |
] |
10 |
for url in urls: |
11 |
yield scrapy.Request(url=url, classback=self.parse) |
12 |
13 14 15 16 17 |
def parse(self, response): fname = response.url.split('/')[‐1] with open(fname, 'wb') as f: f.write(response.body) self.log('Saved file %s.' % fname) |
Scrapy爬虫的基本使用Scrapy爬虫的使用步骤
步骤1:创建一个工程和Spider模板步骤2:编写Spider
步骤3:编写Item Pipeline 步骤4:优化配置策略Scrapy爬虫的数据类型
Request类;Response类:Item类Request类
class scrapy.http.Request()
Request对象表示一个HTTP请求 由Spider生成,由Downloader执行
属性或方法 |
说明 |
.url |
Request对应的请求URL地址 |
.method |
对应的请求方法,‘GET’ ‘POST’等 |
.headers |
字典类型风格的请求头 |
.body |
请求内容主体,字符串类型 |
.meta |
用户添加的扩展信息,在Scrapy内部模块间传递信息使用 |
.copy() |
复制该请求 |
Response类
class scrapy.http.Response()
Response对象表示一个HTTP响应由Downloader生成,由Spider处理
说明 |
属性或方法 |
.url |
Response对应的URL地址 |
.status |
HTTP状态码,默认是200 |
.headers |
Response对应的头部信息 |
.body |
Response对应的内容信息,字符串类型 |
.flags |
一组标记 |
.request |
产生Response类型对应的Requests对象 |
.copy() |
复制该响应 |
Item类
class scrapy.item.Item()
Item对象表示一个从HTML页面中提取的信息内容由Spider生成,由Item Pipeline处理
Item类似字典类型,可以按照字典类型操作Scrapy爬虫提取信息的方法
Scrapy爬虫支持多种HTML信息提取方法Beautiful Soup
lxml re
XPath Selector CSS Selector
CSS Selector的基本使用
![]() ![]() |
CSS Selector由W3C组织维护并规范“股票数据Scrapy爬虫”实例介绍
功能描述
技术路线:scrapy
目标:获取上交所和深交所所有股票的名称和交易信息
输出:保存到文件中数据网站的确定
获取股票列表:
东方财富网:http://quote.eastmoney.com/stocklist.html获取个股信息:
百度股票:https://gupiao.baidu.com/stock/
单个股票:https://gupiao.baidu.com/stock/sz002439.html “股票数据Scrapy爬虫”实例编写
步骤
步骤1:建立工程和Spider模板
- scrapy startproject BaiduStocks
- BaiduStocks
- scrapy genspider stocks baidu.com
- 进一步修改spiders/stocks.py 步骤2:编写Spider
配置stocks.py文件
修改对返回页面的处理
修改对新增URL爬取请求的处理(stocks.py)
1 |
# ‐*‐ coding: utf‐8 ‐*‐ |
2 |
import scrapy |
3 |
import re |
4 |
|
5 |
class StocksSpider(scrapy.Spider): |
6 |
name = 'stocks' |
7 |
start_urls = ['http://quote.eastmoney.com/stocklist.html'] |
8 |
|
9 |
def parse(self, response): |
10 |
for href in response.css('a::attr(href)').extract(): |
11 |
try: |
12 |
stock = re.findall(r"[s][hz]\d{6}", href)[0] |
13 |
url = 'https://gupiao.baidu.com/stock/' + stock + '.html' |
14 |
yield scrapy.Request(url, callback=self.parse_stock) |
15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 |
except: continue def parse_stock(self, response): infoDict = {} stockInfo = response.css('.stock‐bets') name = stockInfo.css('.bets‐name').extract()[0] keyList = stockInfo.css('dt').extract() valueList = stockInfo.css('dd').extract() for i in range(len(keyList)): key = re.findall(r'>.*</dt>', keyList[i])[0][1:‐5] try: val = re.findall(r'\d+\.?.*</dd>',valueList[i])[0][0:‐5] except: val = '‐‐' infoDict[key]=val infoDict.update( # 两个字典合并到一起 {'股票名称': re.findall('\s.*\(', name)[0].split()[0] + \ re.findall('\>.*\<', name)[0][1:‐1]}) yield infoDict |
步骤3:编写ITEM Pipelines
配置pipelines.py文件
定义对爬取项(Scrapy Item)的处理类(pipelines.py)
1 2 3 4 5 6 7 8 9 10 11 12 13 |
# ‐*‐ coding: utf‐8 ‐*‐ # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://docs.scrapy.org/en/latest/topics/item‐pipeline.html class BaidustocksPipeline(object): def process_item(self, item, spider): return item class BaidustocksInfoPipeline(object): def open_spider(self, spider): # 打开爬虫时进行的操作 self.f = open('BaiduStockInfo.txt', 'w') |
14 |
|
15 |
def close_spider(self, spider): |
16 |
self.f.close() |
17 |
|
18 |
def process_item(self, item, spider): |
19 |
try: |
20 |
line = str(dict(item)) + '\n' |
21 |
self.f.write(line) |
22 |
except: |
23 |
pass |
24 |
return item |
配置ITEM_PIPELINES选项(settings.py)
1 2 3 4 5 |
# Configure item pipelines # See https://docs.scrapy.org/en/latest/topics/item‐pipeline.html ITEM_PIPELINES = { 'BaiduStocks.pipelines.BaidustocksInfoPipeline': 300, } |
执行程序:scrapy crawl stocks ”股票数据Scrapy爬虫“实例优化
配置并发连接选项(settings.py)
选项 |
说明 |
CONCURRENT_REQUESTS |
Downloader最大并发请求下载数量,默认32 |
CONCURRENT_ITEMS |
Item Pipeline最大并发ITEM处理数量,默认100 |
CONCURRENT_REQUESTS_PER_DOMAI N |
每个目标域名最大的并发请求数量,默认8 |
CONCURRENT_REQUESTS_PER_IP |
每个目标IP最大的并发请求数量,默认0,非0有效 |
网络爬虫课程的未完待续
Scrapy爬虫的地位
Python语言最好的爬虫框架
具备企业级专业爬虫的扩展性(7X24高可靠性)
千万级URL爬取管理与部署
Scrapy足以支撑一般商业服务所需的爬虫能力Scrapy爬虫的应用展望
普通价值
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消基于Linux,7X24,稳定爬取输出商业级部署和应用(scrapy*)
转存失败重新上传取消
转存失败重新上传取消 千万级规模内URL爬取、内容分析和存储高阶价值
转存失败重新上传取消
转存失败重新上传取消基于docker,虚拟化部署
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消
转存失败重新上传取消中间键扩展,增加调度和监控各种反爬取对抗技术
Python网络爬虫与信息提取笔记的更多相关文章
-
第3次作业-MOOC学习笔记:Python网络爬虫与信息提取
1.注册中国大学MOOC 2.选择北京理工大学嵩天老师的<Python网络爬虫与信息提取>MOOC课程 3.学习完成第0周至第4周的课程内容,并完成各周作业 4.提供图片或网站显示的学习进 ...
-
第三次作业-MOOC学习笔记:Python网络爬虫与信息提取
1.注册中国大学MOOC 2.选择北京理工大学嵩天老师的<Python网络爬虫与信息提取>MOOC课程 3.学习完成第0周至第4周的课程内容,并完成各周作业 第一周 Requests库的爬 ...
-
第三次作业-Python网络爬虫与信息提取
1.注册中国大学MOOC 2.选择北京理工大学嵩天老师的<Python网络爬虫与信息提取>MOOC课程 3.学习完成第0周至第4周的课程内容,并完成各周作业 过程. 5.写一篇不少于100 ...
-
Python网络爬虫与信息提取
1.Requests库入门 Requests安装 用管理员身份打开命令提示符: pip install requests 测试:打开IDLE: >>> import requests ...
-
【学习笔记】PYTHON网络爬虫与信息提取(北理工 嵩天)
学习目的:掌握定向网络数据爬取和网页解析的基本能力the Website is the API- 1 python ide 文本ide:IDLE,Sublime Text集成ide:Pychar ...
-
Python网络爬虫与信息提取(一)
学习 北京理工大学 嵩天 课程笔记 课程体系结构: 1.Requests框架:自动爬取HTML页面与自动网络请求提交 2.robots.txt:网络爬虫排除标准 3.BeautifulSoup框架:解 ...
-
python网络爬虫与信息提取 学习笔记day2
Day2: 查看robots协议: 查看京东的robots协议 查看百度的robots协议,可以看到百度拒绝了搜狗的爬虫233 爬取京东商品页面相关信息: import requests url = ...
-
python网络爬虫与信息提取 学习笔记day3
Day3: 只需两行代码解析html或xml信息 具体代码实现:day3_1 注意BeautifulSoup的B和S需要大写,因为python大小写敏感 import requests r ...
-
python网络爬虫与信息提取 学习笔记day1
Day1: 安装python之后,为其配置requests第三方库,并爬取百度主页内容. 语句解释: r.status_code检测请求的状态码,如果状态码为200,则说明访问成功,否则,则说明访问失 ...
随机推荐
-
重制AdvanceWars第一步 -- 搞定地图
首先来聊下高级战争吧Advance Wars,由任天堂旗下的Intelligent Systems开发的战棋游戏.初作诞生于GBA上,后来继续跟进了高战2黑洞崛,而后在下一代掌机DS上也出了三代续作高 ...
-
将EnyimMemcached从.NET Core RC1升级至RC2
.NET Core RC1时project.json中的配置如下: { "version": "3.2.4", "summary": &qu ...
-
关于mybatis条件查询 报错:元素内容必须由格式正确的字符数据或标记组成
原查询 select sum(case when age<=16 then 1 else 0 end ) age1, sum(case when age>16 and age<=25 ...
-
Thirft简单使用
安装Thrift 到thrift官网下载thrift.exe http://thrift.apache.org/download 将thrift-0.10.0.exe复制到C:\Program Fil ...
-
Python3基础-分数运算
Python3分数运算 fractions 模块可以被用来执行包含分数的数学运算. 案例 >>> from fractions import Fraction >>> ...
-
android 开发 Intent使用技巧点
判断Intent是否为null: if (intent.resolveActivity(getPackageManager())!=null) { //判断Intent是否为null // Inten ...
-
argparse - 命令行选项与参数解析
argparse模块作为optparse的一个替代被添加到Python2.7.argparse的实现支持一些不易于添加到optparse以及要求向后不兼容API变化的特性,因此以一个新模块添加到标准库 ...
-
Spring Boot(九):定时任务
Spring Boot(九):定时任务 一.pom包配置 pom包里面只需要引入springboot starter包即可 <dependencies> <dependency> ...
-
Session实例
Session常用方法(一) session对象用来保存一些在与每个用户回话期间需要保存的数据信息,这样就方便了回话期间的一些处理程序.如可以用session变量记住用户的用户名,以后就不必在其他的网 ...
-
回顾2014 Java发生的5件大事
回顾2014 Java发生的5件大事 1.2月1日:RedMonk分析师确认并宣布Java是最受欢迎和多样化的语言! 2014年,Java生态圈伴随着引擎的轰鸣起步,随着FOSDEM年会的Free J ...