Python3 Scrapy + Selenium + 阿布云爬取拉钩网学习笔记

时间:2022-05-11 00:04:20

1 需求分析

想要一个能爬取拉钩网职位详情页的爬虫,来获取详情页内的公司名称职位名称薪资待遇学历要求岗位需求等信息。该爬虫能够通过配置搜索职位关键字搜索城市来爬取不同城市的不同职位详情信息,并将爬取下来的信息存入数据库。


2 目标站点分析

目标站点:https://www.lagou.com/。可以看见在左上角可以切换搜索城市,在正*可以输入搜索职位关键字,选择好城市和输入搜索职位关键字后点击搜索按钮,就可以跳转到相应职位的列表页,每个列表页有15个详情项(最后一页可能不足15个)。点击每个详情项,就可以跳转到对应公司的详情页,而要爬取的数据就在详情页中。

Tips:有可能同一个公司会由不同的HR发出相同的招聘信息,例如搜索Python爬虫,会发现公司Eigen发布了两条招聘信息,分别由云衫和Casey分别发布。


3 流程分析

为了复习ScrapySelenium,没有使用requests库来实现这个爬虫,具体流程:

1.切换城市和输入搜索关键字:用Selenium驱动浏览器模拟点击左上角的切换城市,然后输入搜索关键字,最后点击搜索按钮,跳转到相应职位的列表页。

2.解析列表页并模拟翻页:解析首个列表页,拿到整个职位列表页的页码数,用Selenium模拟翻页,在翻页的同时拿到各个详情页的url。

3.解析详情页并提取数据:解析每个公司的详情页,用ScrapyItemLoader来获取各个字段信息,并进行相应的数据处理工作。

4.存储数据到MongoDB:将获取到的每个公司详情信息存储到MongoDB数据库。


4 代码实现

Scrapy框架来组织整个代码。整个程序流程图:

Python3 Scrapy + Selenium + 阿布云爬取拉钩网学习笔记

大致的流程图是这样的,拉钩网的数据爬取是不需要Cookie的,加了Cookie反而会被识别出来是爬虫。流程图中关于模拟登陆保存cookie到本地从本地加载cookie只是加强https://www.cnblogs.com/strivepy/p/9233389.html的练习。

4.1 在Scrapy中一个Request是如何在DownloadMiddleware传递的

Scrapy官方文档https://doc.scrapy.org/en/master/topics/settings.html#std:setting-DOWNLOADER_MIDDLEWARES_BASE对于DOWNLOADER_MIDDLEWARES_BASE的说明:

 {
'scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware': 100,
'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware': 300,
'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware': 350,
'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware': 400,
'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': 500,
'scrapy.downloadermiddlewares.retry.RetryMiddleware': 550,
'scrapy.downloadermiddlewares.ajaxcrawl.AjaxCrawlMiddleware': 560,
'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware': 580,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 590,
'scrapy.downloadermiddlewares.redirect.RedirectMiddleware': 600,
'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700,
'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 750,
'scrapy.downloadermiddlewares.stats.DownloaderStats': 850,
'scrapy.downloadermiddlewares.httpcache.HttpCacheMiddleware': 900,
}

序号越小说明这个中间件离引擎越近,序号越大说明这个中间件离下载器越近。

每个Middleware都有process_request(request, spider)prcess_response(request, response, spider)process_exception(request, exception, spider)三个函数(哪怕没有实现)。

当一个request由调度器调度经过各个下载器中间件时(没有异常的情况下),request依次穿过序号从小到大的每个Middleware的process_request()函数到达下载器Downloader,下载器完成下载后即获取到response后,response依次穿过序号从大到小的每个Middleware的process_response()函数到达引擎

而Scrapy项目setting.py中DOWNLOADER_MIDDLEWARES自定义的各个Middleware会在项目运行时,框架自动和DOWNLOADER_MIDDLEWARES_BASE进行合并而得到一个完成的下载中间件列表。

4.2 实现城市切换和输入搜索关键字

基本思路:由start_request()函数发出带有flag的的初始请求,该flag只为在middleware中筛选出最初始的request,然后在process_request()函数中实现模拟登陆、加载本地cookie、切换城市、输入搜索关键字然后点击搜索按钮跳转到职位列表页。

4.2.1 start_request()发起的带有flag的请求

在meta中设置属性index_flag来在middleware中过滤出初始请求,brower来接收Chrome实例,wait来接收WebDriverWait实例,pagenumber来接收整个列表页的页数。

 # Location: LagouCrawler.spider.lagoucrawler.LagouCrawlerSpder

 def start_requests(self):
base_url = 'https://www.lagou.com'
index_flag = {'index_flag': 'fetch index page', 'brower': None, 'wait': None, 'pagenumber': None}
yield scrapy.Request(url=base_url, callback=self.parse_index, meta=index_flag, dont_filter=True)

4.2.2 process_request()函数过滤出初始请求

在process_request()函数中过滤出初始请求后,判断是否已经登陆,若已经登陆,则直判断是否需要切换城市,然后输入搜索关键字最后点击搜索跳转到列表页,否则判断本地是否存在cookie文件,如果存在则直接加载本地cookie文件,否则进行模拟登陆并将cookie保存为本地文件,然后再判断是否需要切换城市,并输入搜索关键字然后点击搜索跳转到列表页。

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
def process_request(self, request, spider):
"""
middleware的核心函数,每个request都会经过该函数。此函数过滤出初始request和详情页request,
对于初始request进行验证登陆、cookies等一系列操作,然后将最后获取到的索引页response返回,对
于详情页的request则,不做任何处理。
:param request:
:param spider:
:return:
"""
# 过滤出初始的登陆、切换索引页的request
if 'index_flag' in request.meta.keys():
# 判断是否为登陆状态,若未登陆则判断是否有cookies文件存在
if not self.is_logined(request, spider):
path = os.getcwd() + '/cookies/lagou.txt'
# 若cookies文件存在,则加载cookie文件,否则进行登陆操作
if os.path.exists(path):
self.load_cookies(path)
else:
# 登陆lagou网
self.login_lagou(spider)
# 登陆成功后的索引页的响应体,若不登录,请求响应提详情页面的url时,会重定向到登陆页面
response = self.fetch_index_page(request, spider)
return response

用Chrome驱动浏览器时,总会先弹出切换城市的窗口,所以需要先将其关掉,再通过获取右上角的登陆状态元素的为本内容,来判断是否已经为登陆状态。

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
def is_logined(self, request, spider):
"""
初始请求时,总会弹出切换城市的窗口,所以先关掉它,然后通过判断右上角是否显示
用户名判断是否为登陆状态,并初始化整个程序的brower实例
:param request: 初始请求request,其meta包含index_page属性
:param spider:
:return: 已经登陆返回True, 否则返回False
"""
self.brower.get(request.url)
try:
# 关掉城市选择窗口
box_close = self.wait.until(EC.element_to_be_clickable((By.XPATH, '//*[@id="cboxClose"]')))
box_close.click()
# 获取右上角的登录状态
login_status = self.wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="lg_tbar"]/div/ul/li[1]/a')))
# 若右上角显示为登陆,则说明用户还没有登陆
if login_status.text == '登录':
return False
else:
return True
except TimeoutException as e:
# 二次请求,不会出现地址框,需要重新设计
spider.logger.info('Locate Username Element Failed:%s' % e.msg)
return False

加载本地cookie文件到Chrome实例中。

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
def load_cookies(self, path):
"""
加载本地cookies文件,实现免登录访问
:param path: 本地cookies文件路径
:return:
"""
with open(path, 'r') as f:
cookies = json.loads(f.read())
for cookie in cookies:
cookies_dict = {'name': cookie['name'], 'value': cookie['value']}
self.brower.add_cookie(cookies_dict)

若没有本地cookie文件,则需要登录拉钩网,并将cookie保存为本地文件,待以后使用:

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
def login_lagou(self, spider):
"""
用selenium模拟登陆流程,并将登陆成功后的cookies保存为本地文件。
:param spider:
:return:
"""
try:
# 设置等待时间,否则会出现登陆元素查找不到的异常
time.sleep(2)
# 点击进入登录页面
login_status = self.wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="loginToolBar"]//a[@class="button bar_login passport_login_pop"]')))
login_status.click()
# 输入用户名
username = self.wait.until(EC.visibility_of_element_located((By.XPATH, '//*[@data-propertyname="username"]/input')))
username.send_keys(self.username)
# 输入用户密码
password = self.wait.until(EC.visibility_of_element_located((By.XPATH, '//*[@data-propertyname="password"]/input')))
password.send_keys(self.password)
# 点击登陆按钮
submit_button = self.wait.until(EC.visibility_of_element_located((By.XPATH, '//*[@data-propertyname="submit"]/input')))
submit_button.click()
# time.sleep(1)
# 获取登录成功后的cookies
cookies = self.brower.get_cookies()
# 保存登陆后的cookies
self.save_cookies(cookies)
except TimeoutException as e:
spider.logger.info('Locate Login Element Failed: %s' % e.msg)

在完成登陆后使用save_cookies()函数将cookie保存为本地文件:

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
@staticmethod
def save_cookies(cookies):
"""
登陆成功后,将cookie保存为本地文件,供下次程序运行或者以后使用
:param cookies:
:return:
"""
path = os.getcwd() + '/cookies/'
if not os.path.exists(path):
os.mkdir(path)
with open(path + 'lagou.txt', 'w') as f:
f.write(json.dumps(cookies))

最后在完成所有关于cookie的操作后,进行城市切换和输入搜索关键字并点击搜索按钮,使用WebDriverWait后,有些元素获取还是会报元素不可点击的异常,所以在前面加上time.sleep(1)

     # Location: LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware
def fetch_index_page(self, request, spider):
"""
该函数使用selenium完成城市切换,搜索关键字输入并点击搜索按钮操作。如果点击搜索按钮后,
页面没有成功跳转,则会因为31行的代码,抛出NoSuchElementException,而在load_cookies()
函数报一个NoneType没有get_cookies()的错误。原因是response是空的。
:param request:
:param spider:
:return:
"""
try:
# 判断是否需要切换城市
city_location = self.wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="lg_tnav"]/div/div/div/strong')))
if city_location.text != self.city:
time.sleep(1)
city_change = self.wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="changeCity_btn"]')))
city_change.click()
# 根据搜索城市定位到相应元素并点击切换
# time.sleep(1)
city_choice = self.wait.until(EC.presence_of_element_located((By.LINK_TEXT, self.city)))
city_choice.click()
time.sleep(1)
# 定位关键字输入框并输入关键字
keywords_input = self.wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="search_input"]')))
keywords_input.send_keys(self.job_keywords)
# time.sleep(1)
# 定位搜索按钮并点击,有时候点击后页面不会发生跳转,原因是被重定向了。
keywords_submit = self.wait.until(EC.element_to_be_clickable((By.XPATH, '//*[@id="search_button"]')))
keywords_submit.click()
# 跳转到列表页等待待抓取的内容元素加载完成,如果被重定向,则跳转不到该页面,会报NoSuchElementException
self.wait.until(EC.visibility_of_all_elements_located((By.XPATH, '//*[@id="s_position_list"]')))
pagenumber = self.wait.until(EC.presence_of_element_located((
By.XPATH, '//*[@id="s_position_list"]/div[@class="item_con_pager"]/div/span[@class="pager_next "]/preceding-sibling::span[1]'
)))
# 获取一共有多少页,供通过response传递到parse_detail函数,进行后续的翻页解析使用
request.meta['pagenumber'] = pagenumber.text
# 将brower和wait通过response传递到parse_detail函数,进行后续的翻页解析使用
request.meta['brower'] = self.brower
request.meta['wait'] = self.wait
body = self.brower.page_source
# 返回初始搜索页面,在parse_detail函数中进行相关信息的解析
response = HtmlResponse(
url=self.brower.current_url,
body=body,
encoding='utf-8',
request=request
)
return response
except TimeoutException:
spider.logger.info('Locate Index Element Failed And Use Proxy Request Again')
# except NoSuchElementException:
# 如果捕捉到该异常,说明页面被重定向了,没有正常跳转,重新请求输入关键字页面
return request

在跳转到列表页后,将brower(Chrome实例), wait(WebDriverWait实例)和pagenumber放入request.meta中。然后返回response(HtmlResponse实例),该responsestart_request()函数指定的回调函数parse_index()进行解析,在该函数中通过response.meta取出刚刚存放进request.meta中的browerwaitpagenumber,来进行接下来的翻页操作。

4.3 实现解析列表页和模拟翻页

Selenium驱动Chrome完成切换城市、输入搜索关键字、点击搜索按钮并成功跳转到列表页后,会将第一页列表页的response传递到parse_index()回调函数进行解析:

     # Location: LagouCrawler.spider.lagoucrawler.LagouCrawlerSpder
def parse_index(self, response):
"""
解析第一页列表页,拿到各个招聘详情页url,并发起请求;然后进行翻页做操,拿到每页
列表页各个详情页的url,并发起请求。注意:以杭州Python爬虫职位为例详情页请求发起
大概55个后(抓取的时候,一共有4页,每页15个招聘,供60个招聘详情),最后5个总是
被重定向到最初始输入搜索关键字的页面,即使设置了DOWNLOAD_DELAY也是没用。应该是
被服务器识别出了是机器人了,初步思路是在middlewares的process_response()函数中,
通过判断response的status_code,对重定向的request加上代理后,再次发起request,
但是这个思路没能实现,需要更深层次的理解框架,所以使用了阿布云代理的动态代理,
让每个request都通过代理服务器发出请求。
:param response: 经middleware筛选并处理后的第一页详情页response
:return:
"""
self.pagenumber = response.meta['pagenumber']
# 初始化spider中的brower和wait
self.brower = response.meta['brower']
self.wait = response.meta['wait']
# 解析索引页各项招聘详情页url
for url in self.parse_url(response):
yield scrapy.Request(url=url, callback=self.parse_detail, dont_filter=True)
# 翻页并解析
for pagenumber in range(2, int(self.pagenumber) + 1):
response = self.next_page()
for url in self.parse_url(response):
yield scrapy.Request(url=url, callback=self.parse_detail, dont_filter=True)

parse_index()函数中有两个函数,一个是解析单个列表页中各个详情项url的parse_url()函数,和模拟翻页的next_page()函数。在解析出详情项的url后,发起请求。Scrapy会对request的url去重(RFPDupeFilter),将dont_filter设置为True,则告诉Scrapy这个url不参与去重。

解析详情项url的parse_url()函数,返回详情项url列表:

     # Location: LagouCrawler.spider.lagoucrawler.LagouCrawlerSpder
@staticmethod
def parse_url(response):
"""
解析出每页列表页各项招聘信息的url
:param response: 列表页response
:return: 该列表页各项招聘详情页的url列表
"""
url_selector = response.xpath('//*[@id="s_position_list"]/ul/li')
url_list = []
for selector in url_selector:
url = selector.xpath('.//div[@class="p_top"]/a/@href').extract_first()
url_list.append(url)
return url_list

模拟翻页的next_page()函数,返回下一页列表页的response。将翻页速速控制为2秒,在寻找下一页这个元素时,需要注意的地方如代码所示:

     # Location: LagouCrawler.spider.lagoucrawler.LagouCrawlerSpder
def next_page(self):
"""
用selenium模拟翻页动作。用xpath获取next_page_button控件时,花了很久时间,原因是
span标签的class="pager_next "后引号前面有一个空格!!!
:return:
"""
try:
# 用xpath找这个下一页按钮居然花了半天的时间居然是这个程序员大哥在span标签的class="pager_next "加了个空格,空格!!!
next_page_button = self.wait.until(EC.presence_of_element_located((
By.XPATH, '//*[@id="s_position_list"]/div[@class="item_con_pager"]/div/span[@class="pager_next "]'
)))
next_page_button.click()
self.wait.until(EC.visibility_of_all_elements_located((By.XPATH, '//*[@id="s_position_list"]')))
# 控制翻页速度
time.sleep(2)
body = self.brower.page_source
response = HtmlResponse(url=self.brower.current_url, body=body, encoding='utf-8')
return response
except TimeoutException:
pass

每解析完一个列表页,都会对解析出来url发起请求,来请求详情页。

4.4 实现详情页解析并提取数据

每个详情项的url请求返回的response都会由parse_detail()函数来解析,使用ItemLoader完成数据提取和格式化操作:

     # Location: LagouCrawler.spider.lagoucrawler.LagouCrawlerSpder
@staticmethod
def parse_detail(response):
"""
解析每一页各个招聘信息的详情
:param response: 每个列表页的HtmlResponse实例
:return: 各个公司招聘详情生成器
"""
item_loader = CompanyItemLoader(item=CompanyItem(), response=response)
item_loader.add_xpath('company_name', '//*[@id="job_company"]/dt/a/div/h2/text()')
item_loader.add_xpath('company_location', 'string(//*[@id="job_detail"]/dd[@class="job-address clearfix"]/div[@class="work_addr"])')
item_loader.add_xpath('company_website', '//*[@id="job_company"]/dd/ul/li[5]/a/@href')
item_loader.add_xpath('company_figure', '//*[@id="job_company"]/dd/ul//i[@class="icon-glyph-figure"]/parent::*/text()')
item_loader.add_xpath('company_square', '//*[@id="job_company"]/dd/ul//i[@class="icon-glyph-fourSquare"]/parent::*/text()')
item_loader.add_xpath('company_trend', '//*[@id="job_company"]/dd/ul//i[@class="icon-glyph-trend"]/parent::*/text()')
item_loader.add_xpath('invest_organization', '//*[@id="job_company"]/dd/ul//p[@class="financeOrg"]/text()')
item_loader.add_xpath('job_position', '//*[@class="position-content-l"]/div[@class="job-name"]/span/text()')
item_loader.add_xpath('job_salary', '//*[@class="position-content-l"]/dd[@class="job_request"]/p/span[@class="salary"]/text()')
item_loader.add_xpath('work_experience', '//*[@class="position-content-l"]/dd[@class="job_request"]/p/span[3]/text()')
item_loader.add_xpath('degree', '//*[@class="position-content-l"]/dd[@class="job_request"]/p/span[4]/text()')
item_loader.add_xpath('job_category', '//*[@class="position-content-l"]/dd[@class="job_request"]/p/span[5]/text()')
item_loader.add_xpath('job_lightspot', '//*[@id="job_detail"]/dd[@class="job-advantage"]/p/text()')
item_loader.add_xpath('job_description', 'string(//*[@id="job_detail"]/dd[@class="job_bt"]/div)')
item_loader.add_xpath('job_publisher', '//*[@id="job_detail"]//div[@class="publisher_name"]/a/span/text()')
item_loader.add_xpath('resume_processing', 'string(//*[@id="job_detail"]//div[@class="publisher_data"]/div[2]/span[@class="tip"])')
item_loader.add_xpath('active_time', 'string(//*[@id="job_detail"]//div[@class="publisher_data"]/div[3]/span[@class="tip"])')
item_loader.add_xpath('publish_date', '//*[@class="position-content-l"]/dd[@class="job_request"]/p[@class="publish_time"]/text()')
item = item_loader.load_item()
yield item

Item字段和ItemLoader的定义,此处定义中完成提取字段的格式化处理(去掉空格、换行符等):

 # Location: LagouCrawler.items
# -*- coding: utf-8 -*- # Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html import datetime
from scrapy import Item, Field
from scrapy.loader import ItemLoader
from scrapy.loader.processors import TakeFirst, MapCompose, Join def formate_date(value):
"""
根据提取到的发布时间,若是当天发布则是H:M格式,则获取当天日期的年月日然后返回,否则是Y:M:D格式,
则直接返回该年月日
:param value: 提取到的时间字符串
:return: 格式化后的年月日
"""
if ':' in value:
now = datetime.datetime.now()
publish_date = now.strftime('%Y-%m-%d')
publish_date += '(今天)'
return publish_date
else:
return value class CompanyItemLoader(ItemLoader):
default_output_processor = TakeFirst() class CompanyItem(Item):
# define the fields for your item here like:
# name = scrapy.Field() # 公司名称
company_name = Field(
input_processor=MapCompose(lambda x: x.replace(' ', ''), lambda x: x.strip())
)
# 公司地址
company_location = Field(
input_processor=MapCompose(lambda x: x.replace(' ', ''), lambda x: x.replace('\n', ''), lambda x: x[:-4])
)
# 公司官网
company_website = Field()
# 公司规模
company_figure = Field(
input_processor=MapCompose(lambda x: x.replace(' ', ''), lambda x: x.replace('\n', '')),
output_processor=Join('')
)
# 公司领域
company_square = Field(
input_processor=MapCompose(lambda x: x.replace(' ', ''), lambda x: x.replace('\n', '')),
output_processor=Join('')
)
# 公司阶段
company_trend = Field(
input_processor=MapCompose(lambda x: x.replace(' ', ''), lambda x: x.replace('\n', '')),
output_processor=Join('')
)
# 投资机构
invest_organization = Field() # 岗位名称
job_position = Field()
# 岗位薪资
job_salary = Field(
input_processor=MapCompose(lambda x: x.strip())
)
# 经验需求
work_experience = Field(
input_processor=MapCompose(lambda x: x.replace(' /', ''))
)
# 学历需求
degree = Field(
input_processor=MapCompose(lambda x: x.replace(' /', ''))
)
# 工作性质
job_category = Field() # 职位亮点
job_lightspot = Field()
# 职位描述
job_description = Field(
input_processor=MapCompose(lambda x: x.replace('\xa0\xa0\xa0\xa0', '').replace('\xa0', ''), lambda x: x.replace('\n', '').replace(' ', ''))
) # 职位发布者
job_publisher = Field()
# 发布时间
publish_date = Field(
input_processor=MapCompose(lambda x: x.replace('\xa0 ', '').strip(), lambda x: x[:-6], formate_date)
)
# # 聊天意愿
# chat_will = Field()
# 简历处理
resume_processing = Field(
input_processor=MapCompose(lambda x: x.replace('\xa0', '').strip())
)
# 活跃时段
active_time = Field(
input_processor=MapCompose(str.strip)
)

ItemLoader的具体使用可以参考https://blog.csdn.net/zwq912318834/article/details/79530828

4.5 存储数据到MongoDB

通过使用itempipline将抓取到的数据存储到MongoDB:

 # Location: LagouCrawler.piplines

 # -*- coding: utf-8 -*-

 # Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html from pymongo import MongoClient class LagoucrawlerPipeline(object): def __init__(self, host=None, db=None, collection=None):
self.mongo_uri = host
self.mongo_db = db
self.mongo_collection = collection
self.client = None
self.db = None
self.collection = None @classmethod
def from_crawler(cls, crawler):
"""
通过该函数,获取在settings.py文件中定义的Mongodb地址、数据库名称和表名
:param crawler:
:return:
"""
return cls(
host=crawler.settings.get('MONGO_URI'),
db=crawler.settings.get('MONGO_DB'),
collection=crawler.settings.get('MONGO_COLLECTION')
) def open_spider(self, spider):
"""
在spider打开时,完成mongodb数据库的初始化工作。
:param spider:
:return:
"""
self.client = MongoClient(host=self.mongo_uri)
self.db = self.client[self.mongo_db]
self.collection = self.db[self.mongo_collection] def process_item(self, item, spider):
"""
pipeline的核心函数,在该函数中执行对item的一系列操作,例如存储等。
:param item: parse_detail函数解析出来的item
:param spider: 抓取该item的spider
:return: 返回处理后的item,供其它pipeline再进行处理(如果有的话)
"""
# 以公司名称做为查询条件
condition = {'company_name': item.get('company_name')}
# upsert参数设置为True后,若数据库中没有该条记录,会执行插入操作;
# 同时,使用update_one()函数,也可以完成去重操作。
result = self.collection.update_one(condition, {'$set': item}, upsert=True)
spider.logger.debug('The Matched Item is: {} And The Modified Item is: {}'.format(result.matched_count, result.modified_count))
return item def close_spider(self, spider):
"""
在spider关闭时,关闭mongodb数据连接。
:param spider:
:return:
"""
self.client.close()

Tips:在查看MongoDB数据时,会发现数据数量会比抓取下来的数据数量少,原因是数据插入是用MongoDB的更新函数update_one()以公司名称为查询条件完成的,而所有详情项中会出现同一个公司不同的hr发布相同职位的招聘信息。

然后在setting.py文件中配置一下该pipline:

 # Location: LagouCrawler.settings

 # Configure item pipelines
# See https://doc.scrapy.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
'LagouCrawler.pipelines.LagoucrawlerPipeline': 300,
} # Mongodb地址
MONGO_URI = 'localhost'
# Mongodb库名
MONGO_DB = 'job'
# Mongodb表名
MONGO_COLLECTION = 'works'

到此,运行爬虫,不出意外的话,程序能够完成城市的切换、搜索关键字的输入、索引页的翻页以及详情项的字段提取。事实是能到一部分数据,然后就是302重定向和各种40X和50X响应。原因是拉钩网的反爬虫措施。

4.6 爬取拉钩网IP被禁解决方案

如上所诉,在整个程序框架完成后,并没有如愿的拿到完整数据,而是在拿到部分数据后,请求被重定向,最后IP被禁。所以需要采取一些措施。

4.6.1 爬取拉钩网不需要cookie

拉钩网的爬取不是不需要cookie,而是不能有cookie,拉钩网根据cookie来识别是否是爬虫在访问,所以在settings.py中禁掉cookie:

 # Location: LagouCrawler.settings

 # Disable cookies (enabled by default)
COOKIES_ENABLED = False

4.6.2 爬取拉钩网的请求头Headers

需要在settings.py中配置一下请求头,来伪装成浏览器(此处没有配置User-Agent):

 # Location: LagouCrawler.settings

 # Override the default request headers:
DEFAULT_REQUEST_HEADERS = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Host': 'www.lagou.com',
'Referer': 'https://www.lagou.com/',
'Connection': 'keep-alive'
}

4.6.3 给每个request配置随机User-Agent

为了防止IP因为User-Agent被禁,所以定义一个下载中间件,用fake_useragent第三方包来给每个request添加一个随机的User-Agent:

 # Location: LagouCrawler.middlewares

 class RandomUserAgentMiddleware(object):
"""
给每一个request添加随机的User-Agent
""" def __init__(self, ua_type=None):
super(RandomUserAgentMiddleware, self).__init__()
self.ua = UserAgent()
self.ua_type = ua_type @classmethod
def from_crawler(cls, crawler):
"""
获取setting.py中配置的RANDOM_UA_TYPE,如果没有配置,则使用默认值random
:param crawler:
:return:
"""
return cls(
ua_type=crawler.settings.get('RANDOM_UA_TYPE', 'random')
) def process_request(self, request, spider):
"""
UserAgentMiddleware的核心方法,getattr(A, B)相当于A.B,也就是获取A
对象的B属性,在这就相当于ua.random
:param request:
:param spider:
:return:
"""
request.headers.setdefault('User-Agent', getattr(self.ua, self.ua_type))
# 每个请求禁止重定向
request.meta['dont_redirect'] = True
request.meta['handle_httpstatus_list'] = [301, 302]
spider.logger.debug('The <{}> User Agent Is: {}'.format(request.url, getattr(self.ua, self.ua_type)))

在settings.py中配置一下该下载中间件,注意需要禁掉Scrapy框架自带的UserAgentMiddleWare:

 # Location: LagouCrawler.settings

 DOWNLOADER_MIDDLEWARES = {
# 启用阿布云代理服务器中间件
'LagouCrawler.middlewares.AbuYunProxyMiddleware': 1,
# 在DownloaderMiddleware之前启用自定义的RandomUserAgentMiddleware
'LagouCrawler.middlewares.RandomUserAgentMiddleware': 542,
# 禁用框架默认启动的UserAgentMiddleware
'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
'LagouCrawler.middlewares.LagoucrawlerDownloaderMiddleware': 543,
}

Tips:在给每个request添加随机User-Agent的同时,让该request禁止重定向,原因是在后面使用代理服务器的时候,如果有一个请求通过代理服务器请求失败,该请求会被重定向,结果导致程序进入该重定向页面的死循环

4.6.4 使用阿布云代理服务器来发起请求

相对于自己维护一个代理池,使用阿布云代理的动态版(适用于爬虫业务,需要付费)来为每一个request分配一个随机IP更加方便灵活。

阿布云官网:https://center.abuyun.com

阿布云接口教程:https://www.jianshu.com/p/90d57e7a545a?spm=a2c4e.11153940.blogcont629314.15.59f8319fWrMVQK

同样写一个下载中间件,让每一个request通过阿布云来发起请求:

 # Location: LagouCrawler.middlewares

 class AbuYunProxyMiddleware(object):
"""
接入阿布云代理服务器,该服务器动态IP1秒最多请求5次。需要在setting中设置下载延迟
""" def __init__(self, settings):
self.proxy_server = settings.get('PROXY_SERVER')
self.proxy_user = settings.get('PROXY_USER')
self.proxy_pass = settings.get('PROXY_PASS')
self.proxy_authorization = 'Basic ' + base64.urlsafe_b64encode(
bytes((self.proxy_user + ':' + self.proxy_pass), 'ascii')).decode('utf8') @classmethod
def from_crawler(cls, crawler):
return cls(
settings=crawler.settings
) def process_request(self, request, spider):
request.meta['proxy'] = self.proxy_server
request.headers['Proxy-Authorization'] = self.proxy_authorization
spider.logger.debug('The {} Use AbuProxy'.format(request.url))

服务器的地址、阿布云的用户名和密码(可以1块钱买1个小时,默认每秒5个请求)都配置在settings.py中:

 # Location: LagouCrawler.settings

 # 阿布云代理服务器地址
PROXY_SERVER = "http://http-dyn.abuyun.com:9020"
# 阿布云代理隧道验证信息,注册阿布云购买服务后获取
PROXY_USER = 'H9470L5HEARXXXXX'
PROXY_PASS = '02E02D1D773XXXXX'
# 启用限速设置
AUTOTHROTTLE_ENABLED = True
AUTOTHROTTLE_START_DELAY = 0.2 # 初始下载延迟

同样在settings.py中配置一下该下载中间件,如4.6.3所示。


5 Scrapy的断点调试

为了方便Scrapy的断点调试,在scrapy.cfg同级目录下新建一个run.py文件:

 from scrapy.cmdline import execute

 def main():
spider_name = 'lagoucrawler'
cmd_string = 'scrapy crawl {spider_name}'.format(spider_name=spider_name)
execute(cmd_string.split()) if __name__ == '__main__':
main()

这样就可以通过Debug run.py,来进行Scrapy项目的断点调试。


6 项目代码

完整代码的Github地址:https://github.com/StrivePy/LaGouCrawler/tree/recode/LagouCrawler


7 参考资料