会用到的功能的简单介绍
1、from bs4 import BeautifulSoup
#导入库
2、请求头herders
1
2
3
4
|
headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36' , 'referer' : "www.mmjpg.com" }
all_url = 'http://www.mmjpg.com/'
'User-Agent' :请求方式
'referer' :从哪个链接跳转进来的
|
3、建立连接
1
2
3
4
|
start_html = requests.get(all_url, headers = headers)
all_url:起始的地址,也就是访问的第一个页面
headers:请求头,告诉服务器是谁来了。
requests.get:一个方法能获取all_url的页面内容并且返回内容。
|
4、解析获取的页面
1
2
3
4
|
Soup = BeautifulSoup(start_html.text, 'lxml' )
BeautifulSoup:解析页面
lxml:解析器
start_html.text:页面的内容
|
5、处理获取的页面
1
2
3
4
5
6
7
|
all_a = Soup.find( 'div' , class_ = 'pic' ).find_all( 'a' )[ - 2 ]
Soup.find()查找某一个
find_all()查找所有的,返回一个列表
.find( 'img' )[ 'src' ] :获取img的src链接属性
class__:获取目标的类名
div / a:类型条件为div / a的
[ - 2 ]可以用来去掉最后多匹配的标签,这里表示去掉最后两个a标签
|
6、获取目标内容
1
2
|
<a href = # >内容</a>
a[i] / get_text():获取第i个a标签里面的内容
|
7、可能用到的其他功能介绍:
1、文件夹创建与切换
1
2
3
4
|
os.makedirs(os.path.join( "E:\name" , filename))
#在目录E:\name下创建名为filename的文件夹
os.chdir( "E:\name\\" + filename)
#切换工作路径到E:\name\filename下
|
2、文件保存
1
2
3
|
f = open (name + '.jpg' , 'ab' ) ##写入多媒体文件必须要 b 这个参数!
f.write(img.content) ##多媒体文件要是用conctent!
f.close()
|
案例:爬取妹纸图
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
|
import requests
from bs4 import BeautifulSoup
import os
#导入所需要的模块
class mzitu():
def all_url( self , url):
html = self .request(url) ##
all_a = BeautifulSoup(html.text, 'lxml' ).find( 'div' , class_ = 'all' ).find_all( 'a' )
for a in all_a:
title = a.get_text()
print ( '------开始保存:' , title)
path = str (title).replace( "?" , '_' ) ##替换掉带有的?
self .mkdir(path) ##调用mkdir函数创建文件夹!这儿path代表的是标题title
href = a[ 'href' ]
self .html(href)
def html( self , href): ##获得图片的页面地址
html = self .request(href)
max_span = BeautifulSoup(html.text, 'lxml' ).find( 'div' , class_ = 'pagenavi' ).find_all( 'span' )[ - 2 ].get_text()
#这个上面有提到
for page in range ( 1 , int (max_span) + 1 ):
page_url = href + '/' + str (page)
self .img(page_url) ##调用img函数
def img( self , page_url): ##处理图片页面地址获得图片的实际地址
img_html = self .request(page_url)
img_url = BeautifulSoup(img_html.text, 'lxml' ).find( 'div' , class_ = 'main-image' ).find( 'img' )[ 'src' ]
self .save(img_url)
def save( self , img_url): ##保存图片
name = img_url[ - 9 : - 4 ]
img = self .request(img_url)
f = open (name + '.jpg' , 'ab' )
f.write(img.content)
f.close()
def mkdir( self , path): ##创建文件夹
path = path.strip()
isExists = os.path.exists(os.path.join( "E:\mzitu2" , path))
if not isExists:
print ( '建了一个名字叫做' , path, '的文件夹!' )
os.makedirs(os.path.join( "E:\mzitu2" , path))
os.chdir(os.path.join( "E:\mzitu2" , path)) ##切换到目录
return True
else :
print ( path, '文件夹已经存在了!' )
return False
def request( self , url): ##这个函数获取网页的response 然后返回
headers = {
'User-Agent' : 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36' ,
'referer' : #伪造一个访问来源 "http://www.mzitu.com/100260/2"
}
content = requests.get(url, headers = headers)
return content
#设置启动函数
def main():
Mzitu = mzitu() ##实例化
Mzitu.all_url( 'http://www.mzitu.com/all' ) ##给函数all_url传入参数
main()
|
原文链接:https://segmentfault.com/a/1190000011192866