并发编程之多进程

时间:2021-02-04 16:43:07

进程理论

一 、进程

进程:正在进行的一个过程或者说一个任务。而负责执行任务则是cpu。

 

  二、进程与程序的区别

 

程序仅仅只是一堆代码而已,而进程指的是程序的运行过程。

需要强调的是:同一个程序执行两次,那也是两个进程,比如打开暴风影音,虽然都是同一个软件,但是一个可以播放苍井空,一个可以播放饭岛爱。

三、并发与并行

无论是并行还是并发,在用户看来都是'同时'运行的,不管是进程还是线程,都只是一个任务而已,真是干活的是cpu,cpu来做这些任务,而一个cpu同一时刻只能执行一个任务。

  • 并发

  是伪并行,即看起来是同时运行。单个cpu+多道技术就可以实现并发

 

  • 并行

  同时运行,只有具备多个cpu才能实现并行

 

四、进程的创建

 

但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。

 

而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程

 

    1. 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)

    2. 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等) 我们主要研究对象

    3. 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)

    4. 一个批处理作业的初始化(只在大型机的批处理系统中应用)

 

无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的:

 

    1. 在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程) 

    2. 在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。

 

关于创建的子进程,UNIX和windows

 

1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。

 

2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。

unix父进程会拷贝数据给子进程,子进程的初始状态和父进程一模一样;windows父进程也会拷贝数据给子进程,但和父进程有区别。

 

五、进程的终止(了解)

 

  1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)

  2. 出错退出(自愿,python a.py中a.py不存在)

  3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)

  4. 被其他进程杀死(非自愿,如kill -9)

 

 

六 、进程的层次结构

 

无论UNIX还是windows,进程只有一个父进程,不同的是:

 

  1. 在UNIX中所有的进程,都是以init进程为根,组成树形结构。父子进程共同组成一个进程组,这样,当从键盘发出一个信号时,该信号被送给当前与键盘相关的进程组中的所有成员。

  2. 在windows中,没有进程层次的概念,所有的进程都是地位相同的,唯一类似于进程层次的暗示,是在创建进程时,父进程得到一个特别的令牌(称为句柄),该句柄可以用来控制子进程,但是父进程有权把该句柄传给其他子进程,这样就没有层次了。

 

 

七、 进程的状态

tail -f access.log |grep '404'

执行程序tail,开启一个子进程,执行程序grep,开启另外一个子进程,两个进程之间基于管道'|'通讯,将tail的结果作为grep的输入。

进程grep在等待输入(即I/O)时的状态称为阻塞,此时grep命令都无法运行

其实在两种情况下会导致一个进程在逻辑上不能运行,

  1. 进程挂起是自身原因,遇到I/O阻塞,便要让出CPU让其他进程去执行,这样保证CPU一直在工作

  2. 与进程无关,是操作系统层面,可能会因为一个进程占用时间过多,或者优先级等原因,而调用其他的进程去使用CPU。

因而一个进程由三种状态

 

 并发编程之多进程

 

 

八、 进程并发的实现(了解)

 进程并发的实现在于,硬件中断一个正在运行的进程,把此时进程运行的所有状态保存下来,为此,操作系统维护一张表格,即进程表(process table),每个进程占用一个进程表项(这些表项也称为进程控制块)

 并发编程之多进程

该表存放了进程状态的重要信息:程序计数器、堆栈指针、内存分配状况、所有打开文件的状态、帐号和调度信息,以及其他在进程由运行态转为就绪态或阻塞态时,必须保存的信息,从而保证该进程在再次启动时,就像从未被中断过一样。

 

开启进程两种方式

 

一 、multiprocessing模块介绍

python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu\_count\(\)查看),在python中大部分情况需要使用多进程。

Python提供了multiprocessing。 multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,>提供了Process、Queue、Pipe、Lock等组件。

需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。

 

二 、Process类的介绍

创建进程的类

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,可用来开启一个子进程 强调: 1. 需要使用关键字的方式来指定参数 2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号 

参数介绍:

group参数未使用,值始终为None target表示调用对象,即子进程要执行的任务 args表示调用对象的位置参数元组,args=(1,2,'egon',) kwargs表示调用对象的字典,kwargs={'name':'egon','age':18} name为子进程的名称

方法介绍
p.start():启动进程,并调用该子进程中的p.run() p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁 p.is_alive():如果p仍然运行,返回True p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间

属性介绍

p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置 p.name:进程的名称 p.pid:进程的pid

三 Process类的使用

 

注意:在windows中Process()必须放到# if __name__ == '__main__':下

 

创建并开启子进程的方式一

并发编程之多进程并发编程之多进程
 1 import time
 2 import random
 3 from multiprocessing import Process
 4 
 5 def piao(name):
 6     print('%s piaoing' %name)
 7     time.sleep(random.randrange(1,5))
 8     print('%s piao end' %name)
 9 
10 if __name__ == '__main__':
11     #实例化得到对象
12     p1=Process(target=piao,args=('egon',)) #必须加,('egon',) 表示元组否则与args='egon'一样
13 
14     #调用对象下的方法,开启进程
15     p1.start()
16 
17     print('') #运行至此父进程结束了,但子进程仍然在运行,因为运行完全独立
View Code
 
主
egon piaoing
egon piao end

  

 创建并开启子进程的方式二
定义子类 继承Process类
并发编程之多进程并发编程之多进程
 1 import time
 2 import random
 3 from multiprocessing import Process
 4 
 5 class Piao(Process):
 6     def __init__(self,name):
 7         super().__init__()
 8         self.name=name
 9     def run(self): #此处要定义一个方法,且方法名一定要交run
10         print('%s piaoing' %self.name)
11 
12         time.sleep(random.randrange(1,5))
13         print('%s piao end' %self.name)
14 
15 if __name__ == '__main__':
16     #实例化得到对象
17     p1=Piao('egon') #实例化传参数和第一种直接用Process类的不同
18 
19     #调用对象下的方法,开启进程
20     p1.start() #start会自动调用run
21 
22     print('')
View Code
 
主
egon piaoing
egon piao end

  

四、查看进程的pid和ppid

并发编程之多进程并发编程之多进程
 1 from multiprocessing import Process
 2 import time, os
 3 
 4 def task():
 5     print('%s is running,parent id is %s'%(os.getpid(),os.getppid()))
 6     time.sleep(2)
 7     print('%s is done' % os.getpid())
 8 
 9 if __name__ == '__main__':
10     p = Process(target=task,)
11     p.start()
12 
13     print('',os.getpid(),os.getppid())
View Code

 

主 5260 10292
2176 is running,parent id is 5260
2176 is done

  当前.py文件的进程pid为5260,

  该.py文件由pycharm运行,则pycharm为.py文件的符进程,pid为10292,

.py文件中发起了一个新的进程,因此.py对于该进程为父进程,新进程pid为2716。

 

Process对象的其他属性或方法

 一、join方法

在主进程运行过程中如果想并发地执行其他的任务,我们可以开启子进程,此时主进程的任务与子进程的任务分两种情况

 

情况一:在主进程的任务与子进程的任务彼此独立的情况下,主进程的任务先执行完毕后,主进程还需要等待子进程执行完毕,然后统一回收资源。

注:主进程任务执行完毕后不代表主进程结束,主进程任务结束了代表其中的代码运行完了,但进主程还在,主进程需要等子进程运行完后才结束,因此在子进程还没结束时关闭主进程会导致子进程结束时没有及时的回收资源,出现僵尸进程。

注意区分进程和进程任务

 

情况二:如果主进程的任务在执行到某一个阶段时,需要等待子进程执行完毕后才能继续执行,就需要有一种机制能够让主进程检测子进程是否运行完毕,在子进程执行完毕后才继续执行,否则一直在原地阻塞,这就是join方法的作用

并发编程之多进程并发编程之多进程
 1 from multiprocessing import Process
 2 import time, os
 3 
 4 
 5 def task(name,n):
 6     print('%s is piaoing' %name)
 7     # time.sleep(random.randint(1,3))
 8     time.sleep(n)
 9     print('%s is piao end' %name)
10 
11 
12 if __name__ == '__main__':
13     p1=Process(target=task,args=('子进程1',5))
14     p2=Process(target=task,args=('子进程2',3))
15     p3=Process(target=task,args=('子进程3',2))
16     p4=Process(target=task,args=('子进程4',1))
17     start = time.time()
18     p1.start()
19     p2.start()
20     p3.start()
21     p4.start() #此处p.star()只是给操作系统发送一个信号,有操作系统开启子进程,而不是程序去开启,因此此处不代表先开启p1,p2,p3,p4
22 
23     # 有的同学会有疑问: 既然join是等待进程结束, 那么我像下面这样写, 进程不就又变成串行的了吗?
24     # 当然不是了, 必须明确:p.join()是让谁等?
25     # 很明显p.join()是让主线程等待p的结束,卡住的是主进程而绝非子进程p,
26     p1.join()
27     p2.join()
28     p3.join()
29     p4.join()
30     print(time.time()-start)   #查看程序4子进程的共花了多少时间
31     print('',os.getppid(),os.getppid())
View Code
子进程2 is piaoing
子进程1 is piaoing
子进程3 is piaoing
子进程4 is piaoing
子进程4 is piao end
子进程3 is piao end
子进程2 is piao end
子进程1 is piao end
5.310313940048218
主 10292 10292

  4个子进程共花费的5.3s而不是1+2+3+5=11s,因此可以看出进程之间是串行执行的。

 

 

练习:基于多进程实现套接字

server端

并发编程之多进程并发编程之多进程
 1 from socket import *
 2 from multiprocessing import Process
 3 
 4 def talk(conn):
 5     while True:
 6         data = conn.recv(1024)  # 单位:bytes,  1024代表最大接收1024个bytes
 7         # conn tcp协议三次握手的成果,双向链接
 8         if not data: break  # 适用与linux操作,当client单方面终止链接时,service端会出现死循环
 9         print('客户端的数据', data)
10         conn.send(data.upper())
11 
12 def server(ip,port):
13     server = socket(AF_INET,SOCK_STREAM)
14     server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
15     server.bind((ip,port))
16     server.listen(5)
17 
18     while True:
19         conn,addr = server.accept()
20         p = Process(target=talk,args=(conn,))
21         p.start()
22 
23 if __name__ == '__main__':
24     server('127.0.01',8080)
View Code

 

 client端
并发编程之多进程并发编程之多进程
 1 from socket import *
 2 from multiprocessing import Process
 3 
 4 client = socket(AF_INET,SOCK_STREAM)
 5 client.connect(('127.0.0.1',8080))
 6 
 7 while True:
 8     cmd = input('>>:').encode('utf-8')
 9     if not cmd:continue
10     client.send(cmd)
11     data = client.recv(1024)
12     print(data.decode('utf-8'))
View Code
 

 这种方式的缺点:来多少个client,则server端就建多少个进程,会把服务器给拖垮。

 

守护进程

关于守护进程需要强调两点:

其一:守护进程会在主进程代码执行结束后就终止,但主进程代码结束并不代表主进程结束,除了守护进程外还有其他子进程的话,主进程需要等待所有子进程结束后才能结束。

其二:守护进程内无法再开启子进程(开启的子进程为守护进程也不可以),否则抛出异常:AssertionError: daemonic processes are not allowed to have children

   因为守护进程内再开启子进程,当但主进程结束时守护进程结束,但守护进程开启的子进程任务还没有结束,等到子进程任务结束时资源得不到回收,因此守护进程不能在开启子进程否则会造成僵尸进程

 如果我们有两个任务需要并发执行,那么开一个主进程和一个子进程分别去执行就ok了,如果子进程的任务在主进程任务结束后就没有存在的必要了,那么该子进程应该在开启前就被设置成守护进程。主进程代码运行结束,守护进程随即终止

并发编程之多进程并发编程之多进程
 1 from multiprocessing import Process
 2 import time, os
 3 import random
 4 
 5 def task(name):
 6     print('%s is piaoing' %name)
 7     time.sleep(random.randrange(1,3))
 8     print('%s is piao end' %name)
 9 
10 
11 if __name__ == '__main__':
12     p=Process(target=task,args=('egon',))
13     p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行
14     p.start()
15     print('') #只要终端打印出这一行内容,那么守护进程p也就跟着结束掉了
View Code

  守护进程内的打印操作没有执行,主进程结束,因此守护进程也跟着结束。

 

互斥锁

进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,而共享带来的是竞争,竞争带来的结果就是错乱,

互斥锁的原理,就是把并发改成串行,降低了效率,但保证了数据安全不错乱

并发编程之多进程并发编程之多进程
 1 #并发运行,效率高,但竞争同一打印终端,带来了打印错乱
 2 from multiprocessing import Process
 3 import os,time
 4 def work():
 5     print('%s is running' %os.getpid())
 6     time.sleep(2)
 7     print('%s is done' %os.getpid())
 8 
 9 if __name__ == '__main__':
10     for i in range(3):
11         p=Process(target=work)
12         p.start()
View Code
13856 is running
15448 is running
16256 is running
13856 is done
15448 is done
16256 is done

加锁控制:

并发编程之多进程并发编程之多进程
 1 #由并发变成了串行,牺牲了运行效率,但避免了竞争
 2 from multiprocessing import Process,Lock
 3 import os,time
 4 def work(lock):
 5     lock.acquire() #加锁
 6     print('%s is running' %os.getpid())
 7     time.sleep(2)
 8     print('%s is done' %os.getpid())
 9     lock.release() #释放锁
10 if __name__ == '__main__':
11     lock=Lock()
12     for i in range(3):
13         p=Process(target=work,args=(lock,))
14         p.start()
View Code
12492 is running
12492 is done
12980 is running
12980 is done
14552 is running
14552 is done