爬虫python=豆瓣Top250电影

时间:2024-10-22 12:32:59
from bs4 import BeautifulSoup #网页解析获取数据 import re #正则表达式 import urllib.request,urllib.error #获取网页数据 import sqlite3 #轻量级数据库 import xlwt #进行excel操作 #影视详情链接的正则表达式 findLink=re.compile(r'<a href="(.*?)">') #影视图片 findImgSrc=re.compile(r'<img.*?src="(.*?)"',re.S) #re.S让换行符包含在字符串中 #影片片名 findTitle=re.compile(r'<span class="title">(.*?)</span>') #影片评分 findRating=re.compile(r'<span class="rating_num" property="v:average">(.*?)</span>') #找到评价人数 findJudge=re.compile(r'<span>(\d*?)人评价</span>') #找到概况 findInq=re.compile(r'<span class="inq">(.*?)</span>') #找到影片的相关内容 findBd=re.compile(r'<p class="">(.*?)</p>',re.S) def main(): #要爬取的网页链接 baseurl="https://movie.douban.com/top250?start=" savepath="豆瓣电影Top250.xls" #1.爬取网页 datalist=getData(baseurl) #2.保存数据 saveData(datalist,savepath) def getData(baseurl): datalist=[] #用来存储网页爬取的信息 for i in range(0,10): #调用获取页面信息的函数 url=baseurl+str(i*25) html=askURL(url) #保存获取的网页源码 #2.逐一解析数据 soup=BeautifulSoup(html,"html.parser") # print(soup.find_all('div',class_="item")) for item in soup.find_all('div',class_="item"): data=[] #保存一部电影所有信息 item=str(item) link=re.findall(findLink,item)[0] data.append(link) imgSrc=re.findall(findImgSrc,item)[0] data.append(imgSrc) titles=re.findall(findTitle,item) if(len(titles)==2): ctitle=titles[0] data.append(ctitle) etitle=titles[1].replace("/","") #消除转义字符 data.append(etitle) else: data.append(titles[0]) data.append(" ") rating=re.findall(findRating,item)[0] data.append(rating) judgeNum=re.findall(findJudge,item)[0] data.append(judgeNum) inq=re.findall(findInq,item) if len(inq)!=0: inq=inq[0].replace("。","") data.append(inq) else: data.append(" ") bd=re.findall(findBd,item)[0] bd=re.sub('<br(\s+)?/>(\s+)?',"",bd) bd=re.sub('/',"",bd) data.append(bd.strip()) datalist.append(data) return datalist def askURL(url): head={ #模拟浏览器的头部信息,向豆瓣服务器发送消息 "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36 Edg/120.0.0.0" } #用户代理,告诉豆瓣服务器,我们是什么类型的机器 request=urllib.request.Request(url,headers=head) html="" try: response=urllib.request.urlopen(request) html=response.read().decode("utf-8") except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reason"): print(e.reason) # print(html) return html def saveData(datalist,savepath): print("save...........") book=xlwt.Workbook(encoding='utf-8',style_compression=0) #创建workbook对象 sheet=book.add_sheet('豆瓣电影Top250',cell_overwrite_ok=True) #创建工作表 col=("电影详情链接","图片链接","影片中文名","影片外国名","评分","评价数","概况","相关信息") for i in range(0,8): sheet.write(0,i,col[i]) #列名 for i in range(0,250): data=datalist[i] for j in range(0,8): sheet.write(i+1,j,data[j]) book.save(savepath) if __name__=="__main__": main() print("爬取完毕")