关于json接口返回的数据不是json格式的处理方法——正则匹配 - 求知鱼

时间:2024-02-22 18:12:27

关于json接口返回的数据不是json格式的处理方法——正则匹配

今天尝试爬取一个小视频网站的视频(当然不是大家想的那个小视频):www.vmovier.com

一开始以为直接进去网页后使用xpath匹配链接就行 测试发现该网站使用懒加载技术  所以直接爬的方法行不通 不能完全匹配所有视频链接

于是我抓取了它的加载接口:https://www.vmovier.com/post/getbytab?tab=new&page=3&pagepart=1

其中page参数是页数、pagepart参数是每页的第几次加载,经过测试发现每一页都有三次加载,这里可以使用循环来实现

 

page = int(input("请输入您要爬取的页数:"))
    #将捕获接口拿过来  因为是动态的页面 所以捕获接口 向接口发送数据
    #page=页数  pagepart=每页的第几次刷新 每页有三次刷新分别是1 2 3 可以写一个循环
for T in range (1,4):
    url = "https://www.vmovier.com/post/getbytab?tab=new&page=% s&pagepart=%d" %(page,T)
    #print(url)
    # exit()

 

然后本文的主要问题是这个接口说是返回的是json数据格式,但是我打开发现根本不是标准json格式:

 

 这里我强烈谴责开发这个接口的程序员,耗费了我好长时间去寻找别的解决方法

下面这一块是我想过滤出的东西:

 

 

 

一开始想的是获取data字典的部分,转化为HTML格式, 使用xpath来过滤我需要的标题和视频链接,但是实验发现行不通,最后我选择使用了正则匹配的方法,不得不说正则真滴强:

import requests
from  bs4 import  BeautifulSoup
import time
from lxml import etree
import re
import json


#添加头部  作为全局
headers = {
    \'User-Agent\': \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36\'
}

url = "https://www.vmovier.com/post/getbytab?tab=new&page=3&pagepart=1"
r = requests.get(url=url,headers=headers)
#print(r.text)
obj = json.loads(r.text)
# print(obj)
# exit()
#取出所有和视频相关的数据 标题和url data是一个列表 里面存放的都是字典
data = obj[\'data\']
#print(data)
# # exit()
# tree = etree.HTML(data)
# title = tree.xpath(\'//div[@class ="index-more"]\')
# print(title)
match_obj_url = re.compile(r\'<a href="(.*)" title=".*全文" target="_blank">阅读全文...</a>\')
url = re.findall(match_obj_url,data)
print(url)
match_obj_title = re.compile(r\'<a href=".*" title="(.*)全文" target="_blank">阅读全文...</a>\')
title = re.findall(match_obj_title,data)
print(title)
exit()

 

 费了2个多小时的时间,可算搞出来了后面获得这个url还不是最终视频的url 竟然还有个跳转 真是块难啃的骨头,但是应该问题不大,先记录一下这个问题,以后遇到再看看  不管开发人员多么狡猾  我都要攻克你们