在Python程序中的进程操作,multiprocess.Process模块

时间:2022-03-19 23:09:26

在python程序中的进程操作

  之前我们已经了解了很多进程相关的理论知识,了解进程是什么应该不再困难了,刚刚我们已经了解了,运行中的程序就是一个进程。所有的进程都是通过它的父进程来创建的。因此,运行起来的python程序也是一个进程,那么我们也可以在程序中再创建进程。多个进程可以实现并发效果,也就是说,当我们的程序中存在多个进程的时候,在某些时候,就会让程序的执行速度变快。以我们之前所学的知识,并不能实现创建进程这个功能,所以我们就需要借助python中强大的模块。

multiprocess模块

仔细说来,multiprocess不是一个模块而是python中一个操作、管理进程的包。 之所以叫multi是取自multiple的多功能的意思,在这个包中几乎包含了和进程有关的所有子模块。由于提供的子模块非常多,为了方便大家归类记忆,我将这部分大致分为四个部分:创建进程部分,进程同步部分,进程池部分,进程之间数据共享。

multiprocess.process模块

process模块介绍

process模块是一个创建进程的模块,借助这个模块,就可以完成进程的创建。

1
2
3
4
5
6
7
8
9
10
11
12
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)
强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
参数介绍:
1 group参数未使用,值始终为None
2 target表示调用对象,即子进程要执行的任务
3 args表示调用对象的位置参数元组,args=(1,2,'egon',)
4 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
5 name为子进程的名称
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程

方法介绍

p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

属性介绍

在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。

在windows中使用process模块的注意事项

每一个进程,都有一个进程id号
查看进程号

1
2
3
4
import os
import time
print(os.getppid())
time.sleep(1000# 方便查看进程

执行输出:12492

打开windows的任务管理器,找到pid为12492进程,它是一个Pycharm进程

在Python程序中的进程操作,multiprocess.Process模块

系统中的进程id号,是不会冲突的。
每一个进程,对应一个唯一的进程id号

假设这台电脑是4核,它可以开4个进程,每一个进程对应一个核。

但是上面的代码,在同一时间,只能用一个核。如果想充分利用CPU,需要开4个线程才行。

多进程的作用,就是为了提高效率

使用process模块创建进程

1
2
3
4
5
6
7
8
9
import os
import time
from multiprocessing import Process
def process1():
    print('process1:',os.getppid())
    time.sleep(1)
print(os.getppid())  # 获取当前进程id
process1()  # 执行函数

执行输出:

12492
process1: 12492

进程id全都是一样的。程序一旦执行,进程id不会变。

 使用target调用对象,即子进程要执行的任务

1
2
3
4
5
6
7
8
9
10
import os
import time
from multiprocessing import Process
def process1():
    print('process1:',os.getppid())
    time.sleep(1)
print(os.getppid())  # 获取当前进程id
p = Process(target=process1)  # 调用函数
p.start()  # 启动进程

执行报错:

在Python程序中的进程操作,multiprocess.Process模块

在mac和linux执行不会报错
而windows会报错,why ?

在Python程序中的进程操作,multiprocess.Process模块

在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这
个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。
所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候 ,就不会递归运行了

linux 执行函数,会把代码copy一份,到一个空间里面
那么下一次执行时,直接调用,就可以了。

解决方案:

1
2
3
4
5
6
7
8
9
10
11
import os
import time
from multiprocessing import Process
def process1():
    print('process1:',os.getppid())
    time.sleep(1)
print(os.getppid())  # 获取当前进程id
if __name__ == '__main__':
    p = Process(target=process1)  # 调用函数
    p.start()  # 启动进程

执行输出:

12492
16876
process1: 16876

16876为父进程

1
2
3
4
5
6
7
8
9
10
11
12
import os
import time
from multiprocessing import Process
def process1():
    print('process1:',os.getppid())
    time.sleep(1)
if __name__ == '__main__':
    print(os.getppid())  # 获取当前进程id
    p = Process(target=process1)  # 调用函数
    p.start()  # 启动进程

执行输出:

12492
process1: 15624

执行结果,表示在当前进程中,开启了一个新的进程

使用args关键字给函数传参

1
2
3
4
5
6
7
8
9
10
11
12
13
import os
import time
from multiprocessing import Process
def process1(n,name):
    print('process1:',os.getppid())
    print('n:',n,name)
    time.sleep(1)
if __name__ == '__main__':
    print(os.getppid())  # 获取当前进程id
    p = Process(target=process1,args=[1,'alex'])  # 调用函数并传参
    p.start()  # 启动进程

执行输出:

12492
process1: 16676
n: 1 alex

那么函数如果加return,可以获取结果吗?等学到后面,就可以获取进程的返回值了。稍安勿躁!

进程与子进程

1
2
3
import os
print(os.getpid())  # 当前进程
print(os.getppid())  # 父进程

执行输出:

14920
12492

12492就是Pycharm进程,看下图

在Python程序中的进程操作,multiprocess.Process模块

多执行几次,当前进程会一直变,但是父进程却不会变。除非你把Pycharm关了。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import os
import time
from multiprocessing import Process
print('1',os.getpid())  # 当前进程
time.sleep(1)
print('2',os.getppid())  # 父进程
time.sleep(1)
def func():
    print('3',os.getpid(),os.getppid())
    time.sleep(1)
if __name__ == '__main__':
    #p = Process(target=func)
    #p.start()
    # 上面2句等于下面这句
    Process(target=func).start()

执行输出:

1 14512
2 12492
1 17048
2 14512
3 17048 14512

为啥会输出5个结果呢?应该是3个才对呀?

在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。

所以输出5个结果

整个py文件运行之后,就是主进程

总结:

主进程默认会等待子进程执行完毕之后才结束

看下面的代码,print会立刻执行吗?

1
2
3
4
5
6
7
8
9
10
11
12
import os
import time
from multiprocessing import Process
def func():
    print('func',os.getpid(),os.getppid())
    time.sleep(1)
if __name__ == '__main__':
    print(os.getpid(), os.getppid())
    Process(target=func).start()
    print('*'*20)

执行输出:

8652 12492
********************
func 16928 8652

立马就打印了****,这是为什么呢?

它是一个异步程序,主程序执行时,它不会等待1秒(子进程)
但是执行结束的动作时,它会等待子进程结束,除非异常退出。
否则子进程会变成一个僵尸进程。自己创建的,需要自己销毁。

总结:

主进程默认会等待子进程执行完毕之后才结束
主进程和子进程之间的代码是异步的
为什么主进程要等待子进程结束 回收一些子进程的资源
开启一个进程是有时间开销的 :操作系统响应开启进程指令,给这个进程分配必要的资源

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os
import time
from multiprocessing import Process
def func():
    print('func',os.getpid(),os.getppid())
    time.sleep(1)
if __name__ == '__main__':
    print(os.getpid(), os.getppid())
    Process(target=func).start()
    print('*'*20)
    print('*' * 30)
    time.sleep(0.5)
    print('*' * 40)

执行输出:

10424 12492
********************
******************************
func 4564 10424
****************************************

同步控制

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import os
import time
from multiprocessing import Process
def func():
    print('func',os.getpid(),os.getppid())
    time.sleep(1)
if __name__ == '__main__':
    print(os.getpid(), os.getppid())
    p = Process(target=func)
    p.start()
    p.join() #主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)
    print('*'*20# 等待1秒后执行

执行输出:

18328 12492
func 18376 18328
********************

上面的代码没啥意义,它和面向过程执行一个函数,没啥区别。

举一个实际的例子

让子进程计算一个值,主进程必须等到子进程计算完之后,根据计算的值,来进行下一步计算

以文件为消息中间件,来完成主进程获取子进程的值,从而计算最终结果

在Python程序中的进程操作,multiprocess.Process模块

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import os
import time
from multiprocessing import Process
def func(exp):
    print('func',os.getpid(),os.getppid())
    result = eval(exp)
    with open('file','w') as f:
        f.write(str(result))  # 写入的内容必须是一个字符串
if __name__ == '__main__':
    print(os.getpid(), os.getppid())
    p = Process(target=func,args=['3*5'])
    p.start()
    ret = 5/6
    p.join() #主线程等待子进程计算完
    with open('file') as f:
        result = f.read()  # 读取结果
    ret = ret + int(result)  # 最终计算结果
    print(ret)

执行输出:

16784 12492
func 17304 16784
15.833333333333334

一般情况下,是主进程,开启子进程
子进程开启子进程的情况很少。

开启多个子进程

1
2
3
4
5
6
7
8
9
10
11
import os
import time
from multiprocessing import Process
def func(n):
    print(n,os.getpid(),os.getppid())
    #print(n)
if __name__ == '__main__':
    Process(target=func,args=[1]).start()
    Process(target=func, args=[2]).start()

执行输出:

1 14648 9832
2 17024 9832

使用for循环开启10个进程

1
2
3
4
5
6
7
8
9
10
11
import os
import time
from multiprocessing import Process
def func(n):
    print(n,os.getpid(),os.getppid())
    #rint(n)
if __name__ == '__main__':
    for i in range(10):
        Process(target=func,args=[i]).start()

执行输出:

1 14048 16976
2 16876 16976
0 10944 16976
3 18276 16976
6 9484 16976
4 17092 16976
5 8652 16976
8 15624 16976
7 17832 16976
9 7012 16976

这是为什么是随机的?而不是顺序的?

多个进程同时运行(注意,子进程的执行顺序不是根据启动顺序决定的)
是操作系统来决定的。它不一定是按照你的顺序来开启进程的。
它有自己的算法,比如开启一个进程,时间片轮转了。那么就不是顺序的。

再来一个高大上的例子
假如有10个表达式

1
2
3
4
5
6
7
8
9
10
11
12
13
import os
import time
from multiprocessing import Process
def func(n):
    print(n,os.getpid(),os.getppid())
    #rint(n)
if __name__ == '__main__':
    for i in range(10):
        p = Process(target=func,args=[i])
        p.start()
    print('求和')

但是这样,是没有意义的。和面向过程没啥区别了

高级的办法,使用append

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import os
import time
from multiprocessing import Process
def process(n):
    print(os.getpid(),os.getppid())
    time.sleep(1)
    print(n)
if __name__ == '__main__':
    p_lst = []  # 定义一个列表
    for i in range(10):
        p = Process(target=process,args=[i,])
        p.start()
        p_lst.append(p)  # 将所有进程写入列表中
    for p in p_lst:p.join()  # 检测p是否结束,如果没有结束就阻塞直到结束,如果已经结束了就不阻塞
    print('求和') 

它是将所有进程放入一个列表里面,那么当列表里面的每一个进程都执行完成之后,
执行最后一个求和结果
这里用到了 异步+同步。每一个子进程执行,属于异步。最终计算结果时,属于同步,因为它要等待所有子进程结束。

执行输出:

17180 16032
10080 16032
17992 16032
18112 16032
18064 16032
17872 16032
13440 16032
8704 16032
15536 16032
14032 16032
0
2
3
4
6
1
7
5
8
9
求和

多执行几次,求和是最后一个输出的。

开启进程的第二种方式

上面讲的子进程开启方式是:

1
2
p = Process(target=process,args=[1])
        p.start()

第二种方式,是通过继承来实现的
必须要重写run方法,名字必须是run
看源码

1
from multiprocessing import Process

在Python程序中的进程操作,multiprocess.Process模块

女主播的例子:

1
2
3
4
5
6
7
8
9
10
11
import os
from multiprocessing import Process
class Myprocess(Process):
    def run(self):
        print(os.getpid())
        print('和女主播聊天')
if __name__ == '__main__':
    print(os.getpid())
    p = Myprocess()
    p.start()  # 在执行start的时候,会自动帮我们主动执行run方法

执行输出:

11604
13764
和女主播聊天

接收一个参数

那谁和女主播聊天呢?这个时候,需要参数。怎么传呢?使用__init__方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import os
from multiprocessing import Process
class Myprocess(Process):
    def __init__(self,name):
        super().__init__()
        self.name = name
    def run(self):
        print(os.getpid())
        print('%s和女主播聊天'%self.name)
if __name__ == '__main__':
    print(os.getpid())
    p = Myprocess('alex')
    p.start()  # 在执行start的时候,会自动帮我们主动执行run方法

执行输出:

10464
17860
alex和女主播聊天

接收多个参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os
from multiprocessing import Process
class Myprocess(Process):
    def __init__(self,*args):
        super().__init__()
        self.args = args
    def run(self):
        print(os.getpid())
        for i in self.args:
            print('%s和女主播聊天'%i)
if __name__ == '__main__':
    print(os.getpid())
    p = Myprocess('alex','taibai')
    p.start()  # 在执行start的时候,会自动帮我们主动执行run方法

执行输出:

17996
17532
alex和女主播聊天
taibai和女主播聊天

self.args 是一个元组类型,因为传了多个参数

打印进程名

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import os
from multiprocessing import Process
class Myprocess(Process):
    def __init__(self,*args):
        super().__init__()
        self.args = args
    def run(self):
        print(os.getpid(), self.name, self.pid)  # 打印进程id,进程名,也是进程id
        for i in self.args:
            print('%s和女主播聊天'%i)
if __name__ == '__main__':
    print(os.getpid())
    p = Myprocess('alex','taibai')
    p.start()  # 在执行start的时候,会自动帮我们主动执行run方法

执行输出:

15776
2628 Myprocess-1 2628
alex和女主播聊天
taibai和女主播聊天

注意:开启多个进程时,必须要写

1
if __name__ == '__main__':

这2种启动方式,喜欢哪种方式,就可以使用哪种方式
至少会一个就可以了。

进程中的数据隔离

如何证明是隔离的呢?

1
2
3
4
5
6
7
8
9
10
11
12
13
from multiprocessing import Process
n = 100  # 全局变量
def func():
    global n
    n += 1  # 修改全局变量
    print('son : ',n)
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    p.join()  # 等待子进程结束
    print(n)  # 打印全局变量

执行输出:

son : 101
100

子进程的变量不会影响主进程的变量

守护进程

守护进程会随着主进程的结束而结束。

主进程创建守护进程
  其一:守护进程会在主进程代码执行结束后就终止
  其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止

1
2
3
4
5
6
7
8
9
10
11
12
import time
from multiprocessing import Process
def func():
    print('son start')
    time.sleep(1)
    print('son end')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()<br>    print(p.name) # 打印进程名
    print('在主进程中'# 主进程会等待子进程结束而结束

执行输出:

Process-1
在主进程中
son start
son end

注意:

一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行

现在设置一个守护进程

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import time
from multiprocessing import Process
def func():
    print('son start')
    time.sleep(1)
    print('son end')
if __name__ == '__main__':
    p = Process(target=func)
    #在一个进程开启之前可以设置它为一个守护进程
    p.daemon = True
    p.start()
    print('main------')

执行输出: 在主进程中

为什么只输出了一句话,子进程的输出呢?

打印该行则主进程代码结束,则守护进程Process-1应该被终止.
可能会有Process-1任务执行的打印信息son start,
因为主进程打印main----时,Process-1也执行了,但是随即被终止.

总结:

守护进程的意义:
  子进程会随着主进程代码的执行结束而结束
  注意:守护进程不会关系主进程什么时候结束,我只关心主进程中的代码什么时候结束
守护进程的作用:
  守护主进程,程序报活
  主进程开启的时候 建立一个守护进程
  守护进程只负责每隔1分钟 就给检测程序发一条消息

如果没有守护,使用代码实现:

1
2
3
4
import time
while True:
    time.sleep(60)
    sk.send('我还活着')

但是这样,就无法做其他事情了

看下面的代码,它的执行效果是什么?

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
import time
from multiprocessing import Process
def func():
    print('son start')
    while True:
        time.sleep(1)
        print('son end')
def fun2():
    print('start :in fun2')
    time.sleep(5)
    print('end : in fun2')
if __name__ == '__main__':
    p = Process(target=func)
    #在一个进程开启之前可以设置它为一个守护进程
    p.daemon = True
    p.start() # 异步执行
    print(p.name)
    p2 = Process(target=fun2)
    p2.start() # 异步执行
    print(p2.name)
    time.sleep(2)
    print('在主进程中')

执行输出:

Process-1
Process-2
son start
start :in fun2
son end
在主进程中
end : in fun2

分析:
  主进程的代码 大概在2s多的时候就结束了
  p2子进程实在5s多的时候结束
  主进程结束
  p是在什么时候结束的?
  p是在主进程的代码执行完毕之后就结束了

总结:

主进程会等待子进程的结束而结束
守护进程的意义:
  子进程会随着主进程代码的执行结束而结束
  注意:守护进程不会关系主进程什么时候结束,我只关心主进程中的代码什么时候结束

守护进程的作用:
  守护主进程,程序报活
  主进程开启的时候 建立一个守护进程
  守护进程只负责每隔1分钟 就给检测程序发一条消息

进程中的其他方法:

显示进程名和id

1
2
3
4
5
6
7
8
9
10
from multiprocessing import Process
def func():
    print('wahaha')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    print(p.pid)  # 进程id
    print(p.name)  # 进程名

执行输出:

18256
Process-1
wahaha

检测当前进程是否活着

1
2
3
4
5
6
7
8
9
10
11
12
13
import time
from multiprocessing import Process
def func():
    print('wahaha')
    time.sleep(3)
    print('wahaha end')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    print(p.is_alive())  # 是否活着,返回bool值
    time.sleep(3)

执行输出:

True
wahaha
wahaha end

在主进程中结束一个子进程

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import time
from multiprocessing import Process
def func():
    print('wahaha')
    time.sleep(5)
    print('wahaha end')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    print(p.is_alive())  # 是否活着,返回bool值
    time.sleep(3)
    p.terminate()  # 在主进程中结束一个子进程

执行输出:

True
wahaha

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import time
from multiprocessing import Process
def func():
    print('wahaha')
    time.sleep(5)
    print('wahaha end')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    print(p.is_alive())  # 是否活着,返回bool值
    time.sleep(1)
    p.terminate()  # 在主进程中结束一个子进程
    print(p.is_alive())

执行输出:

True
wahaha
True

为啥最后会输出True呢?因为terminate是告知操作系统,要关闭这个进程。但是操作系统不会立即执行,它还有别的任务执行。那么执行is_alive时,结果仍然为True

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import time
from multiprocessing import Process
def func():
    print('wahaha')
    time.sleep(5)
    print('wahaha end')
if __name__ == '__main__':
    p = Process(target=func)
    p.start()
    print(p.is_alive())  # 是否活着,返回bool值
    time.sleep(1)
    p.terminate()  # 在主进程中结束一个子进程
    time.sleep(0.5#等待0.5秒
    print(p.is_alive())

执行输出:

True
wahaha
False

由于停顿了0.5秒,操作系统有反应的时间,所以能结束掉子进程。

今日作业:

socket聊天并发实例,使用原生socket的TCP协议,实现一个聊天的并发实例

server.py

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
import socket
from multiprocessing import Process
server=socket.socket()
server.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1# 允许端口复用
server.bind(('127.0.0.1',9000))
server.listen(5#开始监听TCP传入连接,表示允许最大5个连接数
def talk(conn,client_addr):  # 说话
    while True:
        try:
            msg=conn.recv(1024# 接收客户端信息
            if not msg:break
            conn.send(msg.upper())  # 发送信息,将内容转换为大写
        except Exception:
            break
if __name__ == '__main__': #windows下start进程一定要写到这下面
    while True:
        conn,client_addr=server.accept()  # 等待接受客户端连接
        p=Process(target=talk,args=(conn,client_addr))  # 调用函数
        p.start()  # 启动进程

client.py

1
2
3
4
5
6
7
8
9
10
11
12
import socket
client=socket.socket()
client.connect(('127.0.0.1',9000))
while True:
    msg=input('>>: ').strip()
    if not msg:continue
    client.send(msg.encode('utf-8'))
    msg=client.recv(1024)
    print(msg.decode('utf-8'))

先执行server.py,再执行client.py

client输出:

在Python程序中的进程操作,multiprocess.Process模块

明日默写:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import os
from multiprocessing import Process
def func(exp):
    print(os.getpid(),os.getppid())
    result = eval(exp)
    with open('file','w') as f:
        f.write(str(result))
if __name__ == '__main__':
    print(os.getpid(),os.getppid())  # process id,parent process id
    # 3*5+5/6
    p = Process(target=func,args=['3*5'])    # func
    p.start()
    ret = 5/6
    p.join()  # join方法能够检测到p进程是否已经执行完了,阻塞知道p执行结束
    with open('file') as f:
        result = f.read()
    ret = ret + int(result)
    print(ret)