下面给大家分享Python爬虫后获取重定向url的两种方法,具体内容如下所示;
方法(一)
1
2
3
4
5
|
# 获得重定向url
from urllib import request
# https://zhidao.baidu.com/question/681501874175782812.html
url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596"
print (request.urlopen(url).geturl())
|
方法(二)
1
2
3
4
5
6
7
8
9
10
|
# 请求头,这里我设置了浏览器代理
headers = headers = { 'User-Agent' : 'xx' }
# 这里chrome的user-agent获取方式:在浏览器地址栏输入 about://version 即可得到结果
url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596"
# 请求网页
response = requests.get(url, headers = headers)
# print(response.status_code) # 打印响应的状态码
print (response.url) # 打印重定向后的网址
# 两个结果都是:https://zhidao.baidu.com/question/681501874175782812.html
|
到此这篇关于Python爬虫后获取重定向url的两种方法的文章就介绍到这了,更多相关python爬虫获取url内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://blog.csdn.net/weixin_39568072/article/details/106258743