今天练习了抓取多页天涯帖子,重点复习的知识包括
- soup.find_all和soup.selcet两个筛选方式对应不同的参数;
- 希望将获取到的多个内容组合在一起返回的时候,要用'zip()'的代码来实现;
- 两层代码结构之间的关系如何构造;
这里有一个疑问:有时候一个标签可以有多个属性,不知道soup.find_all()能不能接受不止一个属性以缩小查找的范围。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
|
# 引入库和请求头文件
import requests
from bs4 import BeautifulSoup
headers = {
'User-Agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}
# 定义主体函数。函数主体由四部分组成:
#1.请求网址
#2.解析网页,形成可查找的html格式
#3.通过soup.select或者sopu.find_all查找需要的标签
#4.通过zip()代码将多个内容合并在一起
def get_content(url):
res = requests.get(url,headers = headers)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text, 'html.parser' )
contents = soup.find_all( 'div' , 'bbs-content' )
authors = soup.find_all( 'a' , 'js-vip-check' )
for author,content in zip (authors,contents):
data = {
'author' :author.get_text().strip(),
'content' : content.get_text().strip()
}
print (data)
# 在这里构造一个两层链接结构:帖子的1、2、3、4页和帖子的详情页的关系在这里实现
if __name__ = = '__main__' :
urls = [ 'http://bbs.tianya.cn/post-develop-2271894-{}.shtml' . format ( str (i)) for i in range ( 1 , 5 )] # 要注意,这里的‘5'是不包括在范围里的
for url in urls:
get_content(url)
|
原文链接:https://segmentfault.com/a/1190000013311449