网络爬虫之requests模块的使用+Github自动登入认证

时间:2021-08-21 08:41:38

   本篇博客将带领大家梳理爬虫中的requests模块,并结合Github的自动登入验证具体讲解requests模块的参数。

一.引入:

    我们先来看如下的例子,初步体验下requests模块的使用:

response = requests.get("http://dig.chouti.com/")
print(type(response))
print(response.status_code)
print(response.encoding)
print(response.cookies)

打印结果如下: 

<class 'requests.models.Response'>
200
UTF-8
<RequestsCookieJar[<Cookie gpsd=b2ee6ddbe10a221eef5fb6584f9c6752 for .chouti.com/>, <Cookie JSESSIONID=aaaqP27NfnSMk7BRn76cw for dig.chouti.com/>, <Cookie route=37316285ff8286c7a96cd0b03d38e13b for dig.chouti.com/>]>

以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

二.Get请求

1.基本get请求:只需要传入待访问的url地址即可访问,response.text返回的是网页的字符串源代码

import requests
response=requests.get('http://dig.chouti.com/')
print(response.text, type(response.text))

如果我们需要访问图片,音频,视频等二进制数据,那么就使用response.content即可。

2.带参数的GET请求->params

#在请求头内将自己伪装成浏览器,否则百度不会正常返回页面内容,这里使用headers参数;
# 在实际生产环境下,我们通常使用一个开源的库:fake-useragent;
使用方法如下: pip install fake-useragent或者pip3 install fake-useragent 使用该库可以伪装成各大浏览器的请求:
from fake_useragent import UserAgent ua = UserAgent()
# ie浏览器的user agent
print(ua.ie) # opera浏览器
print(ua.opera) # Chrome浏览器
print(ua.chrome) # firefox浏览器
print(ua.firefox) # safri浏览器
print(ua.safari) 最实用的
但我认为写爬虫最实用的是可以随意变换headers,一定要有随机性。在这里我写了三个随机生成user agent,三次打印都不一样,随机性很强,十分方便。 from fake_useragent import UserAgent
ua = UserAgent()
print(ua.random)
print(ua.random)
print(ua.random) 爬虫中具体使用方法 import requests
from fake_useragent import UserAgent
ua = UserAgent()
headers = {'User-Agent': ua.random}
url = '待爬网页的url'
resp = requests.get(url, headers=headers)
#省略具体爬虫的解析代码,大家可以回去试试
...

如果查询关键词是中文或者有其他特殊符号,则不得不进行url编码,例如我在百度中输入关键词美女,那么就要使用urllib模块的urlencode方法对文中进行编码了,如下所示:

from urllib.parse import urlencode
params = {
'wd': '美女',
}
url = 'https://www.baidu.com/s?%s' % urlencode(params, encoding='utf-8')
print(url) # 打印结果:https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3

我们去浏览器中观察下,看是否满足我们的预期:

网络爬虫之requests模块的使用+Github自动登入认证

实际上,requests模块已经帮我们封装好了上面的过程,直接使用params参数即可,继续看下面的代码,我们在百度中输入美女,然后向后翻页,观察此时浏览器中的地址变化:

网络爬虫之requests模块的使用+Github自动登入认证

同时观察Chrome浏览器中Network的变化:

网络爬虫之requests模块的使用+Github自动登入认证

通常在Query String Parameters里面的参数都是需要跟在url地址栏中的,这就是为什么我们刚才在浏览器中看到如下的地址:

https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3&pn=10;pn=10表示我们向后翻到了第2页,针对这种情况,我们直接使用

params参数,代码如下:

import requests

url = 'https://www.baidu.com/s?'
response = requests.get(url, params={
'wd': '美女',
'pn': '10'
}, headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'
}) print(response.text)

# 在这里将网页的源代码写入到文件中即可,然后我们打开test.html,结果证明与我们上面的截图是类似的
with open("test.html", "w", encoding="utf-8") as file_obj:
file_obj.write(response.text)

3、带参数的GET请求->headers   # 注意清楚掉Chrom浏览器的cookie:Ctrl+Shift+Delete 快捷键

#通常我们在发送请求时都需要带上请求头,请求头是将自身伪装成浏览器的关键,常见的有用的请求头如下:
以下参数在Request Headers中:
Host
Referer #大型网站通常都会根据该参数判断请求的来源,主要是为了防止盗链
该参数表示你访问我这个网站,那你是从哪个链接跳转过来的,一般通过该参数防止盗链接
User-Agent #客户端,上面已经说过
Cookie #Cookie信息虽然包含在请求头里,但requests模块有单独的参数来处理他,headers={}内就不要放它了

代码示例如下:

#添加headers(服务器会识别请求头,不加可能会被拒绝访问,比如访问https://www.zhihu.com/explore)
import requests
response=requests.get('https://www.zhihu.com/explore')
response.status_code # #自己定制headers
headers={
'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.76 Mobile Safari/537.36', }
respone=requests.get('https://www.zhihu.com/explore',
headers=headers)
print(respone.status_code) #

4、带参数的GET请求->cookies

我们以Github为例进行说明,输入正确的用户名和密码后,会跳转到github的首页,我们查看github.com的network选项,发现cookie中存在一个user_session,那么之后再进入github进行其他的操作就不用输入用户名和密码了。这里登入后,我们来查看笔者主页下面的star项目,然后判断知道创宇的爬虫题目在不在里面,只要能够正常拿到登入的cookie,那么我们就可以使用requests模块进行请求了,来看看如下的代码:

reponse = requests.get('https://github.com/scalershare?tab=stars',
headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
cookies={
'user_session': 'Ep7pf6npoofRzwWjUIFt7u8plrmYjFVPoOVy0-j8e9KtkvCM'
}
) print('知道创宇爬虫题目 持续更新版本' in reponse.text) # 打印结果为True
表示我们直接拿到了正确登入的cookie,从而可以直接访问笔者的star项目

网络爬虫之requests模块的使用+Github自动登入认证

网络爬虫之requests模块的使用+Github自动登入认证

那我们能不能借助于requests模块实现自动登入呢?这就需要使用到requests模块的post方法了。

三.post请求

1.我们首先来看看get请求与post请求的区别:

#GET请求
HTTP默认的请求方法就是GET
* 没有请求体
* 数据必须在1K之内!
* GET请求数据会暴露在浏览器的地址栏中 GET请求常用的操作:
1. 在浏览器的地址栏中直接给出URL,那么就一定是GET请求
2. 点击页面上的超链接也一定是GET请求
3. 提交表单时,表单默认使用GET请求,但可以设置为POST #POST请求
(1). 数据不会出现在地址栏中
(2). 数据的大小没有上限
(3). 有请求体
(4). 请求体中如果存在中文,会使用URL编码! #!!!requests.post()用法与requests.get()完全一致,特殊的是requests.post()有一个data参数,用来存放请求体数据

2、发送post请求,模拟浏览器的登录行为

这里有一个非常重要的思路:对于模拟登入请求,我们采取的策略是先输入错误的信息,观察浏览器的包的具体情况,如果输对了正确的用户名和密码,那就无法分析包了,因为页面就直接跳转了。

在上一步的基础上,我们首先退出github,同时清除掉Chrome浏览器的缓存,然后来一步步分析具体的登入流程:

一 目标站点分析
浏览器输入https://github.com/login
然后输入错误的账号密码,抓包
发现登录行为是post提交到:https://github.com/session,如下图所示:
网络爬虫之requests模块的使用+Github自动登入认证

当输入错误的密码后,发现页面跳转到了session,请求头中而且带有cookie;并且抓包分析出有formdata,这是我们在form表单中输入的数据,如下:

网络爬虫之requests模块的使用+Github自动登入认证

Formdata中的数据如下:

commit:Sign in
utf8:✓
authenticity_token:Oiw0M00t+MhRG6ICWsQlDB8bjjqGq04zrOcXTmvSR2lHwmw+mf9yVshF4OIYh0SZJOa4u7CR6q0tc9bjEDqvhw==
login:@qq.com
password:
网络爬虫之requests模块的使用+Github自动登入认证

二 根据上面的流程,我们可以做出如下的分析:
先GET:https://github.com/login拿到初始cookie与authenticity_token;这是我们的猜测,我们可以去login网页中搜寻下authenticity_token,看这个参数是否是服务器中给我们的,如下图所示:

网络爬虫之requests模块的使用+Github自动登入认证

因此这里的authenticity_token就类似于我们Django中的csrf——token一样的作用,在客户端第一次访问登入页面时,服务器会返回给客户端浏览器;然后之后客户端再输入正确的用户名和密码,并且带上服务端返回给我们的authenticity_token参数一起发送给服务端。

然后正常情况下,我们应该输入正确的用户名和密码,但是为了分析具体的页面走向,所以在这里我们故意输错密码,看页面具体往哪走,当输入错误密码后,返回POST:https://github.com/session;因此我们可以分析出来,当我们正确输入密码后,post提交数据的地址就是:https://github.com/session。

第三步:我们输入正确的用户名和密码,然后点击登入,实际上,最终服务器判断时,会将先前的初始cookie,authenticity_token,用户名,密码等一起进行判断,只有都满足条件

才会跳转到笔者github的首页,于是乎我们就可以拿到登入的cookie了,如下所示:

网络爬虫之requests模块的使用+Github自动登入认证

注意:很多人在分析登入流程时,都喜欢输入正确的用户名和密码,然后分析网站的登入流程,实际上这种方法比较笨拙,一旦输入正确,页面就跳转了,我们无法观察。

另外我们观察到当输入错误的密码后,页面除了跳转到session,而且请求头中出现了Refer参数,所以我们伪造时也要加上:

网络爬虫之requests模块的使用+Github自动登入认证

根据上面的分析,我们通过requests模块来实现自动登入:

import requests
import re # 第一步:向https://github.com/login发送GET请求,拿到未授权的cookie,拿到服务器返回的authenticity_token
response = requests.get('https://github.com/login',
headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
) print(response.cookies)
cookies = response.cookies.get_dict() # 将cookie转换为字典
print(cookies)
authenticity_token = re.findall('name="authenticity_token".*?value="(.*?)"', response.text, re.S)[0]
print(authenticity_token) # 第二步:带着未授权的cookie,authenticity_token,账号密码,向https://github.com/session发送POST请求,拿到输入正确用户名和密码后的授权的cookie
response = requests.post('https://github.com/session',
cookies=cookies,
headers={
'Referer': 'https://github.com/',
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
    # 注意Form表单中的数据,我们通过requests模块中的data参数来封装
data={
'commit': 'Sign in',
'utf8': '✓',
'authenticity_token': authenticity_token,
'login': '894808074@qq.com',
'password': 'xxxxxxx' # 输入你正确的github账号和密码
},
# allow_redirects=False
)
# 因为cookies是浏览器返回给客户端的,所以我们可以从Http响应中拿到正确的cookie,
# 当我们输入完正确的账号和密码后,服务端会生成一个cookie给我们,并将cookie绑定在response响应中返回给我们,
# 所以我们可以使用response.cookies拿到服务端返回给我们的cookie
login_cookies = response.cookies.get_dict() # print(response.status_code)
# # print('Location' in response.headers)
# # print(response.text)
# print(response.history) # 第三步:带着cookie访问
reponse = requests.get('https://github.com/scalershare?tab=stars',
cookies=login_cookies,
headers={
'Referer': 'https://github.com/',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36',
},
)
print('知道创宇爬虫题目 持续更新版本' in reponse.text)

打印结果如下:

print(response.cookies)打印结果:
<RequestsCookieJar[<Cookie logged_in=no for .github.com/>, <Cookie _gh_sess=eyJzZXNzaW9uX2lkIjoiOGU4YmM3NzFmZTI4ZmUyZjRlMDNlZTM1ZjE5ODdkZmQiLCJsYXN0X3JlYWRfZnJvbV9yZXBsaWNhcyI6MTUxNTQ4NjU3NTczNiwiX2NzcmZfdG9rZW4iOiJzem90U3hyNUpOUnJxcDdrWWJpRGcwWGtTTmtBQ0xUN1RMUTg4UkkyQy84PSIsImZsYXNoIjp7ImRpc2NhcmQiOltdLCJmbGFzaGVzIjp7ImFuYWx5dGljc19sb2NhdGlvbl9xdWVyeV9zdHJpcCI6InRydWUifX19--bccd9d2bde98b098f853735b0f2d47115c9d9f94 for github.com/>]> print(cookies)打印结果:
{'_gh_sess': 'eyJzZXNzaW9uX2lkIjoiOGU4YmM3NzFmZTI4ZmUyZjRlMDNlZTM1ZjE5ODdkZmQiLCJsYXN0X3JlYWRfZnJvbV9yZXBsaWNhcyI6MTUxNTQ4NjU3NTczNiwiX2NzcmZfdG9rZW4iOiJzem90U3hyNUpOUnJxcDdrWWJpRGcwWGtTTmtBQ0xUN1RMUTg4UkkyQy84PSIsImZsYXNoIjp7ImRpc2NhcmQiOltdLCJmbGFzaGVzIjp7ImFuYWx5dGljc19sb2NhdGlvbl9xdWVyeV9zdHJpcCI6InRydWUifX19--bccd9d2bde98b098f853735b0f2d47115c9d9f94', 'logged_in': 'no'}
False print(authenticity_token)打印结果
QIYMXDRZNFNke3UkzLbKU79zR6B0GvZ6x+SkYKTVYWjKRxM/61wdH2coc1KPpvy43wAfNC39CpDdjnG7V7A08Q==

根据上面的分析流程,我们来总结下整个Github的自动登入流程如下:

.浏览器中输入github的登入地址:https://github.com/login,向该地址发送一个GET请求,
之所以要发送Get请求,是因为我们观察分析包的时候发现,第一次Request Headers中并没有cookie值;
但是第二次当我们点击登入时候,发现Request Headers中居然有一个cookie值,既然我们都没有登入,居然有cookie
我们就只能猜测这是服务器在我们第一次访问https://github.com/login时,随机发送给我们的;
我们可以认为这是一个未授权的cookie,因为我们还没有登入,但是我们必须要拿到,下次我们向服务端
请求登入时,会带着这个未经授权的cookie,这就是为什么要在第一步向https://github.com/login发送get请求的地址 .为了分析包的具体情况,我们首先错误的密码,观察浏览器中网址的跳转:https://github.com/session
接着分析Request Headers中我们重点关注的三个参数:cookie,UA,Refer发现存在UA和Refer,因此得出结论
我们在向https://github.com/session发送Post请求时,需要构造UA和Refer;同时发现观察到了
form表单中的数据:Form Data,而且Form Data中多了一个authenticity_token的参数;因此猜想
该参数应该是我们第一次向登入界面发送请求时,服务端发送给我们的,所以我们去login网页中搜寻authenticity_token参数,
果然发现存在该参数,因此我们也需要将该参数封装到data参数中 .经过第二步,我们再输入正确的密码,然后点击登入即可跳转到笔者的Github首页,为了验证我们是否成功登入,所以我们让requests去请求
https://github.com/scalershare?tab=stars地址,最终证明可以成功访问

注意在做这个登入的实验时,一定要彻底清除掉cookie,要不然我们是无法实际看到Request Headers中的参数的,可以发现第一次访问login时,Request Headers中根本没有cookie,但是第二次我们还没有登入成功,它里面居然有cookie,所以我们才会认为这个cookie是服务端第一次发送给我们的。

网络爬虫之requests模块的使用+Github自动登入认证

上面我们仔细分析了Github的自动登入流程,主要是怎么拿到cookie,其实requests已经帮我们封装好了,我们接着来看requests模块是怎么帮我们封装的:

# requests帮我们处理cookies与session

import requests
import re session = requests.session() # 第一步:向 https://github.com/login发送GET请求,拿到未授权的cookie,拿到authenticity_token
r1 = session.get('https://github.com/login',
headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
) authenticity_token = re.findall('name="authenticity_token".*?value="(.*?)"', r1.text, re.S)[] # 第二步:带着未授权的cookie,authenticity_token,账号密码,向https://github.com/session发送POST请求,拿到授权的cookie
r2 = session.post('https://github.com/session',
headers={
'Referer': 'https://github.com/',
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
data={
'commit': 'Sign in',
'utf8': '✓',
'authenticity_token': authenticity_token,
'login': '894808074@qq.com',
'password': 'xxxxxxxxxx'
},
allow_redirects=False
) # 第三步:带着cookie访问
r3 = session.get('https://github.com/settings/emails',
headers={
'Referer': 'https://github.com/',
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
},
) print('知道创宇爬虫题目 持续更新版本' in r3.text)

三.Requests中的编码问题

有时候我们拿到的response.text不是utf-8的编码类型,尤其是当我们将爬取下来的内容保存到文件中时不指定文件编码,此时会出现错误,我们需要使用response.encoding指定下爬取内容的编码类型,来看下汽车之家的爬取例子:
可以看到我们第一次访问汽车之家的网站时,Request Headers中是不会有cookie的,所有网站的第一次请求都是这样的:
网络爬虫之requests模块的使用+Github自动登入认证
import requests

response = requests.get('http://www.autohome.com/news')
with open("autohome.html", 'w') as file_obj:
file_obj.write(response.text) # 如果直接爬取汽车之家,会报错
那是因为汽车之家网站返回的页面内容为gb2312编码的,而requests的默认编码为ISO--,如果不设置成gbk则中文乱码
UnicodeEncodeError: 'gbk' codec can't encode character '\xa1' in position 76: illegal multibyte sequence 因此我们设置爬取下来的response对象的编码类型为gbk
import requests response = requests.get('http://www.autohome.com/news')
response.encoding='gbk'
# print(response.text)
with open("autohome.html", 'w') as file_obj:
file_obj.write(response.text) 然后打开autohome.html即可正常访问汽车之家的信息!

四. requests中的二进制数据获取

前面笔者提到过如果需要获取图片,视频,音频等二进制文件我们可以使用response.content来获取,但是如果视频比较大,例如10G,用response.content然后一下子写到文件中是不合理的,所以我们在这里需要借助于一个参数:stream;看如下的例子:

import requests

response = requests.get(
'https://gss3.baidu.com/6LZ0ej3k1Qd3ote6lo7D0j9wehsv/tieba-smallvideo-transcode/1767502_56ec685f9c7ec542eeaf6eac93a65dc7_6fe25cd1347c_3.mp4',
stream=True) with open(r'D:/b.mp4', 'wb') as f:
for line in response.iter_content(): # 这里主要借助于iter_content方法,配合stream参数使用
f.write(line)

五.Requests中解析JSON

先来看如下的例子:

网络爬虫之requests模块的使用+Github自动登入认证

import requests
response = requests.get('http://httpbin.org/get')
print(response.text)

打印结果如下,可以看到其是json格式的字符串

{
"args": {},
"headers": {
"Accept": "*/*",
"Accept-Encoding": "gzip, deflate",
"Connection": "close",
"Host": "httpbin.org",
"User-Agent": "python-requests/2.18.4"
},
"origin": "223.72.95.17",
"url": "http://httpbin.org/get"
}

如果我们想要使用,必须要使用json来反序列化,如下:

import requests
response = requests.get('http://httpbin.org/get')
print(response.text, type(response.text)) # json字符串 import json
#
res1 = json.loads(response.text) # 太麻烦
print(res1, type(res1)) # Python中的字典

requests为我们提供了一种更加方便的操作:

import requests
response = requests.get('http://httpbin.org/get')
import json
res1 = json.loads(response.text) # 太麻烦
res2 = response.json() # 直接获取json数据
print(res1 == res2) # True

今天暂时整理到这里,后面我们继续整理!