传统多线程方案会使用“即时创建, 即时销毁”的策略。尽管与创建进程相比,创建线程的时间已经大大的缩短,但是如果提交给线程的任务是执行时间较短,而且执行次数极其频繁,那么服务器将处于不停的创建线程,销毁线程的状态。
一个线程的运行时间可以分为3部分:线程的启动时间、线程体的运行时间和线程的销毁时间。在多线程处理的情景中,如果线程不能被重用,就意味着每次创建都需要经过启动、销毁和运行3个过程。这必然会增加系统相应的时间,降低了效率。
使用线程池:
由于线程预先被创建并放入线程池中,同时处理完当前任务之后并不销毁而是被安排处理下一个任务,因此能够避免多次创建线程,从而节省线程创建和销毁的开销,能带来更好的性能和系统稳定性。
体验一下使用线程池实现爬虫
在使用前需要安装线程池类库:
pip install threadpool
#!/usr/bin/env python # coding:utf-8 # @Time : 2018/4/19 16:06 # @Author : chenjisheng # @File : 17zwd_sample.py # @Mail : mail_maomao@163.com from bs4 import BeautifulSoup import threadpool import requests import threading import datetime baseurl = "http://hz.17zwd.com/sks.htm?cateid=0&page=" # 爬虫函数 def getResponse(url): target = baseurl + url content = requests.get(target).text soup = BeautifulSoup(content, 'lxml') tags = soup.find_all('div', attrs={"class": "huohao-img-container"}) for tag in tags: imgurl = tag.find('img').get('data-original') # print(imgurl) # 定义线程为 10 个 starttime = datetime.datetime.now() pool = threadpool.ThreadPool(10) # 定义线程池的任务 tasks = threadpool.makeRequests(getResponse, [str(x) for x in range(1, 11)]) # 使用线程池启动任务 [pool.putRequest(task) for task in tasks] pool.wait() endtime = datetime.datetime.now() alltime = (endtime - starttime).seconds print("线程池总耗时为: {}秒".format(alltime)) # 传统线程 starttime1 = datetime.datetime.now() tasklist = [threading.Thread(target=getResponse(str(x))) for x in range(1, 11)] for i in tasklist: i.start() for i in tasklist: i.join() endtime1 = datetime.datetime.now() alltime1 = (endtime1 - starttime1).seconds print("传统线程总耗时为: {}秒".format(alltime1)) if __name__ == "__main__": pass
最后执行结果: 线程池耗时3秒,传统线程耗时9秒;
差别还是挺大的哈;