前言
在python爬虫中,使用requests发送请求,访问指定网站,是常见的做法。一般是发送get请求或者post请求,对于get请求没有什么好说的,而发送post请求,有很多朋友不是很清楚,主要是因为容易混淆 post提交的方式 。今天在微信交流群里,就有朋友遇到了这种问题,特地讲解一下。
在http协议中,post提交的数据必须放在消息主体中,但是协议中并没有规定必须使用什么编码方式,从而导致了 提交方式 的不同。服务端根据请求头中的 content-type 字段来获知请求中的消息主体是用何种方式进行编码,再对消息主体进行解析。具体的编码方式包括如下:
- application/x-www-form-urlencoded:以form表单形式提交数据,最常见也是大家最熟悉的
- application/json :以json串提交数据。
下面使用requests来发送上述三种编码的post请求。
1.提交form表单
requests提交form表单,一般存在于网站的登录,用来提交用户名和密码。以http://httpbin.org/post 为例,在requests中,以form表单形式发送post请求,只需要将请求的参数构造成一个字典,然后传给requests.post()的data参数即可。代码如下:
1
2
3
4
|
url = 'http://httpbin.org/post'
d = { 'key1' : 'value1' , 'key2' : 'value2' }
r = requests.post(url, data = d)
print r.text
|
输出效果如下:
{
"args":{},
"data":"",
"files":{},
"form":{"key1":"value1","key2":"value2"},
"headers":{"accept":"*/*","accept-encoding":"gzip, deflate",
"connection":"close",
"content-length":"23",
"content-type":"application/x-www-form-urlencoded",
"host":"httpbin.org",
"user-agent":"python-requests/2.12.3"},
"json":null,
"origin":"113.140.11.122",
"url":}
httpbin.org网站可以显示你提交请求的内容,大家注意一下输出的"content-type":"application/x-www-form-urlencoded",证明这是提交form的方式。大家在登录一个网站时,可以观察一下content-type是什么。
2.提交json串
对于提交json串,主要是用于发送ajax请求中,动态加载数据。以拼多多网站为例,加载商品的方式为ajax,商品的内容在响应中。
下面把请求头和请求实体列举一下:
一些初学者根据请求头写爬虫,就会犯requests的使用错误。
错误写法
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import requests
__author__ = 'qiye'
__date__ = '2018/5/19 21:59'
url = "http://jinbao.pinduoduo.com/network/api/common/goodslist"
data = { "pagesize" : 60 , "pagenumber" : 1 , "withcoupon" : 0 , "sorttype" : 0 }
headers = {
'content-type' : 'application/json; charset=utf-8' ,
'host' : 'jinbao.pinduoduo.com' ,
'origin' : 'http://jinbao.pinduoduo.com' ,
'referer' : 'http://jinbao.pinduoduo.com/' ,
'user-agent' : 'mozilla/5.0 (linux; android 6.0; nexus 5 build/mra58n) applewebkit/537.36 (khtml, like gecko) chrome/66.0.3359.181 mobile safari/537.36' ,
'accept' : 'application/json, text/javascript, */*; q=0.01' ,
}
r = requests.post(url = url,data = data,headers = headers)
print (r.text)
|
打印的内容如下:
{"success":false,"errorcode":4000000,"errormsg":"system error","result":null}
返回出错了,这时候百思不得其解,请求头我都保持一致了呀,'content-type':'application/json; charset=utf-8'都加上了,为什么会出错呀?
答案在于,你的请求实体的格式错了,服务端无法解码。
正确写法1
正确代码是把data进行json编码,再发送。代码如下:
1
|
r = requests.post(url = url,data = json.dumps(data),headers = headers)
|
这个时候再看一下打印内容,已经正确返回商品内容了。
{"success":true,"errorcode":1000000,"errormsg":null,"result":{"total":2271278,"goodslist":[{"goodsid":998422995,"goodsname":"【4液+1器】皎洁电热蚊香液 孕妇宝宝驱蚊儿童婴无味防蚊液体","goodsimageurl":"http://t11img.yangkeduo.com/images/2018-04-12/0292b5e75053dfa748b9762d3f3e74ef.jpeg","soldquantity":175,"mingroupprice":24890,"categoryid":4,"categoryname":"母婴","hascoupon":true,"couponminorderamount":5000,"coupondiscount":5000,"coupontotalquantity":5000,"couponremainquantity":3940,"couponstarttime":1526572800,"couponendtime":1527782399,"promotionrate":280},
...
正确写法2
处理将data主动编码为json发送之外,requests还提供了一个json参数,自动使用json方式发送,而且在请求头中也不用显示声明'content-type':'application/json; charset=utf-8'。完整代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import requests
__author__ = 'qiye'
__date__ = '2018/5/19 21:59'
url = "http://jinbao.pinduoduo.com/network/api/common/goodslist"
data = { "pagesize" : 60 , "pagenumber" : 1 , "withcoupon" : 0 , "sorttype" : 0 }
headers = {
'host' : 'jinbao.pinduoduo.com' ,
'origin' : 'http://jinbao.pinduoduo.com' ,
'referer' : 'http://jinbao.pinduoduo.com/' ,
'user-agent' : 'mozilla/5.0 (linux; android 6.0; nexus 5 build/mra58n) applewebkit/537.36 (khtml, like gecko) chrome/66.0.3359.181 mobile safari/537.36' ,
}
r = requests.post(url = url,json = data,headers = headers)
print (r.text)
|
3.上传文件
上传文件在爬虫中使用的很少,不过还是使用requests讲解一下使用方式。content-type类型为multipart/form-data,以multipart形式发送post请求,只需将一文件传给requests.post()的files参数即可。还是以http://httpbin.org/post 为例,代码如下:
1
2
3
4
|
url = 'http://httpbin.org/post'
files = { 'file' : open ( 'upload.txt' , 'rb' )}
r = requests.post(url, files = files)
print (r.text)
|
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:http://www.cnblogs.com/qiyeboy/p/9062667.html