前言
最近一直想要写一个抖音爬虫来批量下载抖音的短视频,但是经过几天的摸索我发现了一个很严重的问题......抖音实在是难爬!从一开始的网页分析中就有着很多的坑,但是这几天的摸索也不是一无所获,我鼓捣出来了一个问题版的抖音爬虫(操作较为复杂),所以我也想通过这篇博客来记录下我分析网页的过程,也想请教一下路过大佬们,欢迎各位大佬指出问题!(这篇文章的分析比较麻烦了,但是也可以当做分析其他网页的一个参考吧,想要爬抖音的朋友们可以看这一篇的代码改良版抖音爬虫)
抖音爬虫制作
选定网页
想要爬取抖音上面的视频,就要先找到可以刷小视频的地址,于是我就开始在网上寻找网页版的抖音。经过一番寻找,发现抖音根本就没有网页版的这个板块,打开的网页大多都是如下图所示提示你下载app的网页:
想要爬取小视频的内容,没有网页地址可不行。于是我又想到了另一种寻找网页的方法:
首先我打开了手机抖音,选定了一个喜欢的抖音号,使用复制链接的方法来尝试是否可以在网页中打开:
将链接粘贴到记事本中,发现它是长这个样子的
https://v.douyin.com/wGf4e1/
将这个网址在浏览器中打开,发现这个网址可以正常显示
向下滑动,也可以看到这个账号发布的视频
ok,到现在为止,我已经选定了将这个页面作为我获取数据的起始页面
选定起始页之后,我的下一步想法是要去获取这些小视频的单独的网页地址,于是我又点击了下面的这些小视频。这里恶心的地方出现了,无论我点击哪一个小视频,弹出来的都是强迫你下载app的界面
于是我又想尝试上面获取到网页的操作来获取视频的地址,再次打开手机上的抖音,在这个漫威的账号下随便打开一个视频,点击右下角的分享,复制它的链接:
这个链接地址长这个样子:
#黑寡妇 北美终极预告!黑暗过往揭晓,2020即将强势开启漫威电影宇宙第四阶段!
https://v.douyin.com/wGqCNG/ 复制此链接,打开【抖音短视频】,直接观看视频!
我再把这段地址复制到浏览器中打开:
打开的确实是视频页,点击播放按钮也可以播放视频,所以这就是我们需要记住的第二个页面。
分析网页
现在又出现了一个比较麻烦的事情,在浏览器中输入网址过后,跳转到了视频的播放页,但是此时的播放页地址经过了重定向生成了非常长的一串地址,乍一看毫无规律可讲
这是重定向之后的网址:
正常来说请求第一种链接https://v.douyin.com/wGqCNG/和第二种重定向之后的链接都可以获取到信息,但是我发现第一种链接地址是找不到规律的,所以我猜测第二种网址的规律会更加的好找,先把链接地址复制到记事本中:
https://www.iesdouyin.com/share/video/6802189485015633160/?region=CN&mid=6802184753988471559&u_code=388k48lba520&titleType=title&utm_source=copy_link&utm_campaign=client_share&utm_medium=android
&app=aweme
看了这么长一串的链接,链接包含的内容也是非常多的,对分析规律有着很大的干扰,于是我试着精简一下这个链接(删掉链接里面的一些内容,看看是否还能找到页面)经过了一次又一次的尝试,我所得到的最简单的网址如下:
https://www.iesdouyin.com/share/video/6802189485015633160/?mid=6802184753988471559
这个网址依旧可以打开视频页,如果在删掉一点东西,出来的就是抖音的宣传页,所以这个网址就是我所需要的最简单网址
就一个网址当然是分析不出规律的,于是我又用同样的方法来得到两个新网址:
https://www.iesdouyin.com/share/video/6818885848784702728/?region=CN&mid=6818885858780203783&u_code=388k48lba520&titleType=title&utm_source=copy_link&utm_campaign=client_share
&utm_medium=android&app=aweme
https://www.iesdouyin.com/share/video/6820605884050181379/?region=CN&mid=6820605916115864328&u_code=388k48lba520&titleType=title&utm_source=copy_link&utm_campaign=client_share
&utm_medium=android&app=aweme
精简网址之后,将三个网址放在一起观察:
https://www.iesdouyin.com/share/video/6802189485015633160/?mid=6802184753988471559
https://www.iesdouyin.com/share/video/6818885848784702728/?mid=6818885858780203783
https://www.iesdouyin.com/share/video/6820605884050181379/?mid=6820605916115864328
不难发现,这三个网址的区别就在于数字的不同
接下来猜测:这串数字会不会是每个视频的Id值?
随后我打开漫威影业抖音号,右击检查,按下ctrl+f搜索内容,在搜索框内分别搜索https://www.iesdouyin.com/share/video/6802189485015633160/?mid=6802184753988471559链接中的6802189485015633160和6802189485015633160两个值
第一个值顺利找到,就是我们所猜测的id值,但是搜索第二个值却得不到任何的返回
这就叫我非常苦恼了,我开始想其他的办法来获取到这个值,我尝试了抓包和其他的一些方法,但是都没有找到这个值的相关信息。
我经过了一番思考,突然间冒出了一个想法:这个值是不是随机生成的?
然后我做了一个小小的尝试,我将这个值改成了随便的一个数
https://www.iesdouyin.com/share/video/6802189485015633160/?mid=18987
然而神奇的是,这个网址请求出了数据(去掉这个mid键不出数据,将mid随机赋值却可以得到数据emmm)
提取id构造网址
经过刚刚的分析,我发现我们想要提取的数据就只有一个id值,然后再用Id值替换掉网址中的数字就可以得到相应的视频页面了
id是这段代码的最重要的部分,经过前面曲折又困难的网页分析之后,我认为提取id只需要从网页中用表达式提取数据就可以了,但是我没想到的是这一步也是比较困难的
我先是在主页右击了检查,然后仔细的观察了elements里面的元素,我发现id就储存在elements之中
接着我就想办法获得这个页面中的id信息,我尝试了直接请求,发现输出的数据中没有Id信息; 我又加上了请求头,依旧没有id值输出(这个页面的元素是动态加载的,虽然不能一次获取全部Id,但是也不至于一个没有) ;然后我想到了selenium自动化测试模块,使用webdriver打开网址打印源码,可是输出还是没变
我查了百度的一些方法,也做了一些尝试,发现这个页面所做的反爬确实很难破解。于是我就只能换一条路去尝试
在谷歌开发者工具中,点击network选项卡,刷新界面 随着我刷新的操作,在XHR选项卡下出现了一个名字很奇怪的数据包
点击他的preview选项卡,点出他的下拉菜单,这里面存储的正是小视频的Id信息。但是需要注意的是,这个包里面只存储了0-20序列的共21条信息
但是从这个主页中我可以知道,它一共发布了64个短视频,所以我推断他还有三个数据包没有加载出来 ---->我滚动下拉条,观察有没有数据包
滚动到最后,验证了我的猜想,这个页面有四个数据包且为动态加载
好了,我们已经分析出来了这个网页的构造,先不要管一共有几个数据包,先以一个数据包为例提取id信息:
复制网页链接作为他的请求网址
将user-agaent加到请求头中(这个网页必须要加请求头,不然获取不到数据)
请求得到数据:
import requests
import json
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
random_field = 'RVb7WBAZG.rGG9zDDDoezEVW-0&dytk=a61cb3ce173fbfa0465051b2a6a9027e'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAF5ZfVgdRbJ3OPGJPMFHnDp2sdJaemZo3Aw6piEtkdOA&count=21&max_cursor=0&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成json数据
resp = json.loads(response)
#遍历
for data in resp["aweme_list"]:
# id值
video_id = data['aweme_id']
# 视频简介
video_title = data['desc']
# 构造视频网址
video_url = 'https://www.iesdouyin.com/share/video/{}/?mid=1'
# 填充内容
video_douyin = video_url.format(video_id)
print(video_id)
print(video_title)
print(video_douyin)
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num()
print一下i相关信息:
当前乍一看好像这个代码没有问题,但是在执行四五次之后,会出现请求不到数据或返回False的情况,一开始我以为是ip被限制的原因,但是加上了ip池之后也是一样的结果,后来我才发现:请求不到数据是因为之前请求的url被禁用了,要在抖音详情页刷新一下,再把新的数据包的网址复制过来才能重新得到数据(我也不知道这是什么类型的反爬,希望知道的老哥可以告诉我一下)
*我之所以把这个网址分成两部分来写,是因为当网址请求不到数据的时候,改变的是末尾的_signature=random_field字段,在请求不到数据的时候只需重新复制一下这个字段就可以了,会简化一点点代码
拼接数据包链接
上面提取Id的时候讲到,我们先拿一个数据包做例子,但是我们要爬的这个用户的全部视频,所以就要将它所有的数据包地址都访问一遍
想要得到这些数据包的地址,就需要分析他们的网址构造,我把这四个数据包的网址全部复制到记事本中,逐个分析他们构造规律
不难看出,这四个数据包的区别就在于max_cursor后面的值的不同,而这个值正好就包包含在它前一个数据包之中,这就说明我们可以从前一个数据包中提取到下一个数据包的max_curso值,从而构造出下一个数据包的链接地址
可是第四个数据包也包含着max_cursor的值,我们该在何时停止构造下一个数据包呢?
我把最后一个数据包的max_cursor值复制下来并替换到构造的数据包链接中,发现可以跳转到一个新的网址,这个网址中也有max_cursor的值,但是这个值为0
也可以多找几个网址测试,最后的结果指向都是0,所以我们可以通过if语句来判断这个值为0的时候就终止循环
构造网址代码:
import requests
import json
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
random_field = 'pN099BAV-oInkBpv2D3.M6TdPe&dytk=a61cb3ce173fbfa0465051b2a6a9027e'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAF5ZfVgdRbJ3OPGJPMFHnDp2sdJaemZo3Aw6piEtkdOA&count=21&max_cursor=' + str(max_cursor) + '&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成json数据
resp = json.loads(response)
#提取到max_cursor
max_cursor = resp['max_cursor']
#判断停止构造网址的条件
if max_cursor==0:
return 1
else:
print(url)
douyin.page_num(max_cursor)
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num(max_cursor=0)
输出构造后的网址:
获取视频地址
现在我们已经可以成功的进入获取到视频页面了,复杂的网页分析基本已经结束了,后续操作就变得简单了
先打开小视频的页面,右击检查,查看元素
经过检查发现,这个源代码中并没有视频地址,点击了一下播放按键,视频的地址才会加载出来
这个网址中只包含了一个小视频
看到这种动态加载的机制,我们首先就应该想到selenium自动化测试工具,步骤是先用selenium打开视频页面,再点击播放按钮,将此时已经刷新完的网页源代码保存,
再从中提取到视频的真正网址,最后再将调试好的webdriver设置为*面模式
实现代码:
from selenium import webdriver
from lxml import etree
from selenium.webdriver.chrome.options import Options
import requests
import json
import time
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
# 设置谷歌*面浏览器
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
# chromdriver地址
path = r'/home/jmhao/chromedriver'
#随机码
random_field = 'IU4uXRAbf-iiAwnGoS-puCFOLk&dytk=a61cb3ce173fbfa0465051b2a6a9027e'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAF5ZfVgdRbJ3OPGJPMFHnDp2sdJaemZo3Aw6piEtkdOA&count=21&max_cursor=' + str(max_cursor) + '&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成json数据
resp = json.loads(response)
#提取到max_cursor
max_cursor = resp['max_cursor']
#遍历
for data in resp["aweme_list"]:
# id值
video_id = data['aweme_id']
# 视频简介
video_title = data['desc']
# 构造视频网址
video_url = 'https://www.iesdouyin.com/share/video/{}/?mid=1'
# 填充内容
video_douyin = video_url.format(video_id)
driver = webdriver.Chrome(executable_path=path, options=chrome_options)
# 打开视频界面
driver.get(video_douyin)
# 点击播放按钮
driver.find_element_by_class_name('play-btn').click()
time.sleep(2)
# 将网页源码存放到变量中
information = driver.page_source
# 退出
driver.quit()
html = etree.HTML(information)
# 提取视频地址
video_adress = html.xpath("//video[@class='player']/@src")
print(video_adress)
#判断停止构造网址的条件
if max_cursor==0:
return 1
else:
#否则循环构造网址
douyin.page_num(max_cursor)
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num(max_cursor=0)
打印一下视频的真实网址:
下载视频
视频的真实网址我们已经获得了,接下来只剩下最后一步的操作了---->下载视频
视频下载的操作就非常简单了:
for i in video_adress:
#请求视频
video = requests.get(i,headers=headers).content
with open('douyin/' + video_title,'wb') as f:
print('正在下载:',video_title)
f.write(video)
全部代码
from selenium import webdriver
from lxml import etree
from selenium.webdriver.chrome.options import Options
import requests
import json
import time
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
# 设置谷歌*面浏览器
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
# chromdriver地址
path = r'/home/jmhao/chromedriver'
#随机码
random_field = 'yo91eRAflEhJwlLiO2coYsqPdW&dytk=4a01c95562f1f10264fb14086512f919'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAU7Bwg8WznVaafqWLyLUwcVUf9LgrKGYmctJ3n5SwlOA&count=21&max_cursor=' + str(max_cursor) + '&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成json数据
resp = json.loads(response)
#提取到max_cursor
max_cursor = resp['max_cursor']
#遍历
for data in resp["aweme_list"]:
# id值
video_id = data['aweme_id']
# 视频简介
video_title = data['desc']
# 构造视频网址
video_url = 'https://www.iesdouyin.com/share/video/{}/?mid=1'
# 填充内容
video_douyin = video_url.format(video_id)
driver = webdriver.Chrome(executable_path=path, options=chrome_options)
# 打开视频界面
driver.get(video_douyin)
# 点击播放按钮
driver.find_element_by_class_name('play-btn').click()
time.sleep(2)
# 将网页源码存放到变量中
information = driver.page_source
# 退出
driver.quit()
html = etree.HTML(information)
# 提取视频地址
video_adress = html.xpath("//video[@class='player']/@src")
for i in video_adress:
# 请求视频
video = requests.get(i, headers=headers).content
with open('douyin/' + video_title, 'wb') as f:
print('正在下载:', video_title)
f.write(video)
#判断停止构造网址的条件
if max_cursor==0:
return 1
else:
douyin.page_num(max_cursor)
return url
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num(max_cursor=0)
实现结果
可以看到这些视频已经下载到本地了,我们在打开本地文件夹看一下
随便打开一个视频文件:
可以播放!至此我这个问题版的抖音爬虫就做完了
待解决的问题
- 如何获取主页中所有的id地址
- 为什么请求的url后缀会一直变化,该怎么破解
其实所有的问题都指向了一个地方:该怎么获取小视频的id
如果大佬们有更好的方法可以获取id值,希望大佬们可以提出建议让我把这个爬虫的功能再完善!感谢各位!