2331 发表于 2016-1-7 09:50:02

python并发执行之多进程

多进程顾名思义程序启动的时候运行多个进程,每个进程启动一条线程进行程序处理。 没启动一个进程就要单独划分一块内存资源。就像工厂的厂房。为了提高效率每多添加一条生产线就要单独再盖一个厂房。每个厂房相互是独立的。所以启动多进程是很消耗资源的,毕竟厂房盖多了厂区就没地方给其他设施用了。
    多进程的代码实现方法和多线程的函数方式很类似


1
2
3
4
5
6
7
8
9
10
11
12
13
#!/usr/bin/env python
# -*-coding:utf-8-*-
from multiprocessing import Process
#引用的模块变成了多进程模块
def foo(i):
    print 'say hi',i
for i in range(10):
    """
    同时启动10个进程,把Process()实例化给p
    调用p.start()方法启动每个进程
    """
    p = Process(target=foo,args=(i,))
    p.start()




上面提到了多进程之间数据是相互独立的,我们来写一段代码测试一下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
#!/usr/bin/env python
#coding:utf-8

from multiprocessing import Process

li = []

def foo(i):
#向列表中加入当前的进程序列号
    li.append(i)
    print 'say hi',li
   
for i in range(10):
    p = Process(target=foo,args=(i,))
    p.start()
      
print 'ending',li




上面的代码运行结果是

1
2
3
4
5
6
7
8
9
10
11
12
$ python test.py
say hi
say hi
say hi
say hi
say hi
say hi
say hi
say hi
say hi
ending []
say hi




注意看ending [] 这一列。通过代码我们得知每个一个派生的子进程都会调用foo()函数并将自己的进程运行序列号添加到li表中。但是当最后我们要查看li[]表里存储的内容,我们并没有看到自己希望看到的内容这是为什么呢?这其实就是进程的内存相互独立导致的。我们创建了进程0,那么进程就复制了一个空列表li[],并把0追加到表里。那么对于进程0来说li列表的内容就是li。但是进程1在启动之后也和进程0一样复制了一个空列表li[],对于进程1来说运行结束时候自己的列表li的内容就是li。以此类推,启动了10个子进程就复制了10个li[]空列表。每个进程中的列表都是相互独立的,而程序的最后我们打印的是最主进程的那个li[]列表,这个列表没有被操作过所以还是空的。通过这里我们也可以得知,多进程的时候每个进程都要对资源进行复制。所以进程启动多了会异常的消耗资源。

页: [1]
查看完整版本: python并发执行之多进程