python爬虫中使用urli库可以使用opener"发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。
方法一:使用request库get方法
1
2
3
|
resp = requests.get( 'http://www.baidu.com/' )
print (resp.cookies)
print (resp.cookies.get_dict())
|
方法二:使用requests库提供的 session对象
1
2
3
4
5
6
7
8
9
10
|
import requests
url = "http://www.renren.com/PLogin.do"
data = { "email" : "970138074@qq.com" , 'password' : "pythonspider" }
headers = { 'User-Agent' : "Mozilla / 5.0 (Windows NT 10.0 ; Win64; x64) AppleWebKit / 537.36
(KHTML, like Gecko) Chrome / 62.0 . 3202.94 Safari / 537.36 " }
#登录
session = requests.session() session.post(url,data = data,headers = headers)
#访问
resp = session.get( 'http://www.renren.com/256450404/profile' )
print (resp.text) ```
|
知识点扩展:
我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。
1
2
3
4
5
6
7
8
9
10
11
|
import requests
s = requests.session()
# 第一步:发送一个请求,用于设置请求中的cookies
cookies = dict (cookies_are = 'cookie1' )
# tips: http://httpbin.org能够用于测试http请求和响应
r1 = s.get(url = 'http://httpbin.org/cookies' , cookies = cookies)
print (r1.text)
# 第二步:发送一个请求,用于再次设置请求中的cookies
cookies = dict (cookies_are = 'cookie2' )
r2 = s.get(url = 'http://httpbin.org/cookies' , cookies = cookies)
print (r2.text)
|
运行后
1
2
3
4
5
6
7
8
9
10
11
12
|
# r1.text
{
"cookies" : {
"cookies_are" : "cookie1"
}
}
# t2.text
{
"cookies" : {
"cookies_are" : "cookie2"
}
}
|
到此这篇关于python爬虫用request库处理cookie的实例讲解的文章就介绍到这了,更多相关python爬虫如何使用request库处理cookie内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://www.py.cn/spider/guide/25143.html