设为首页 收藏本站
查看: 1229|回复: 0

[经验分享] Python的进程

[复制链接]

尚未签到

发表于 2018-8-4 10:45:01 | 显示全部楼层 |阅读模式
进程

  说明:本文是基于Py2.X环境,3.X在我电脑上出了些问题。两者差别并不大。

  Python实现多进程的方式主要有两种:一种方法是使用os模块中的fork方法; 另一种是使用multiprocessing模块。这两种方法的区别在于前者仅适用于Unix/Linux操作操作。对win是不支持的,而后者则是跨平台的实现方式。

使用os模块中的fork方式实现多进程。
  Unix/Linux操作系统提供了一个fork()系统调用,它非常特殊。普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回。
  子进程永远返回0,而父进程返回子进程的ID。这样做的理由是,一个父进程可以fork出很多子进程,所以,父进程要记下每个子进程的ID,而子进程只需要调用getppid()就可以拿到父进程的ID。
  Python的os模块封装了常见的系统调用,其中就包括fork,可以在Python程序中轻松创建子进程:
  

  
import os
  

  
print 'Process (%s) start...' % os.getpid()
  

  
pid = os.fork()
  

  
if pid == 0:
  

  print 'I am child process (%s) and my parent is %s.' % (os.getpid(), os.getppid())
  

  
else:
  

  print 'I (%s) just created a child process (%s).' % (os.getpid(), pid)
  

  
得到:
  

  
Process (2450) start...
  

  
I (2450) just created a child process (2451).
  

  
I am child process (2451) and my parent is 2450.
  

  

使用Multiprocessing查模块创建多进程。
  multiprocessing模块提供了一个Process类来描述一个进程对象,创建子进程时,只需要传入一个执行函数和函数的参数即可完成一个Process实例的创建,用start()方法启动进程,用join()方法实现进程间的同步。join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。
  

  
# -*- coding:utf-8 -*-
  

  
from multiprocessing import Process
  

  
import os
  

  
# 子进程要执行的代码
  

  
def run_proc(name):
  

  print 'Run child process %s (%s)...' % (name, os.getpid())
  

  
if __name__ == '__main__':
  

  print 'Parent process %s.' % os.getpid()
  

  p = Process(target=run_proc, args=('test',))
  

  print 'Process will start.'
  

  p.start()
  

  p.join()
  

  print 'Process end.'
  

  
得到:
  

  
Parent process 2533.
  

  
Process will start.
  

  
Run child process test (2534)...
  

  
Process end.
  

  

  ####multiprocessing模块提供了一个pool类来代表进程池对象
  Pool可以提供指定数量的进程供用户调用,默认大小是cpu的核数,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求,但如果池的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束才会创建新的进程来处理它。
  

  
# -*- coding:utf-8 -*-
  

  
from multiprocessing import Pool
  

  
import os, time, random
  

  
def long_time_task(name):
  

  print 'Run task %s (%s)...' % (name, os.getpid())
  

  start = time.time()
  

  time.sleep(random.random() * 3)
  

  end = time.time()
  

  print 'Task %s runs %0.2f seconds.' % (name, (end - start))
  

  
if __name__ == '__main__':
  

  print 'Parent process %s.' % os.getpid()
  

  p = Pool()
  

  for i in range(5):
  

  p.apply_async(long_time_task, args=(i,))
  

  print 'Waiting for all subprocesses done...'
  

  p.close()
  

  p.join()
  

  print 'All subprocesses done.'
  

  
得到:
  

  
Parent process 2541.
  

  
Waiting for all subprocesses done...
  

  
Run task 0 (2543)...
  

  
Run task 1 (2544)...
  

  
Run task 2 (2545)...
  

  
Run task 3 (2546)...
  

  
Task 0 runs 0.02 seconds.
  

  
Run task 4 (2543)...
  

  
Task 2 runs 0.60 seconds.
  

  
Task 4 runs 1.18 seconds.
  

  
Task 3 runs 1.26 seconds.
  

  
Task 1 runs 1.66 seconds.
  

  
All subprocesses done.
  

  

  对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了。

进程间的通信
  Process之间肯定是需要通信的,操作系统提供了很多机制来实现进程间的通信。Python的multiprocessing模块包装了底层的机制,提供了Queue、Pipes等多种方式来交换数据。两者的区别在于Pipe常用于两个进程间的通讯而Queue用于多个进程间实现通讯。

Queue通讯
  Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传输,有两个方法:put和get进行Queue操作。


  •   put方法用以插入数据队列中它可以有两个可选参数:blocked和timeout,如果blocked为True(默认值)并且timeout是正值,该方法会阻塞timeout指定的时间,直到该队列有剩余空间,如果超时,会抛出Queue.Full异常,如果blocked为False,但该Queue已满,则会立即抛出Queue.Full异常。

  • Get方法用以从队列读取并且删除一个元素。它可以有两个可选参数:blocked和timeout,如果blocked为True(默认值)并且timeout是正值,那么在等待时间内没有取到任何元素会抛出Queue.Empty异常,如果blocked为False,分两种情况:如果Queue有一个值木口月禾,则立即返回该值,否则如果队列为空,则立即抛出Queuq.Empty异常。
  

  
# -*- coding:utf-8 -*-
  

  
from multiprocessing import Process, Queue
  

  
import os, time, random
  

  
# 写数据进程执行的代码:
  

  
def write(q):
  

  for value in ['A', 'B', 'C']:
  

  print 'Put %s to queue...' % value
  

  q.put(value)
  

  time.sleep(random.random())
  

  
# 读数据进程执行的代码:
  

  
def read(q):
  

  while True:
  

  value = q.get(True)
  

  print 'Get %s from queue.' % value
  

  
if __name__ == '__main__':
  

  # 父进程创建Queue,并传给各个子进程:
  

  q = Queue()
  

  pw = Process(target=write, args=(q,))
  

  pr = Process(target=read, args=(q,))
  

  # 启动子进程pw,写入:
  

  pw.start()
  

  # 启动子进程pr,读取:
  

  pr.start()
  

  # 等待pw结束:
  

  pw.join()
  

  # pr进程里是死循环,无法等待其结束,只能强行终止:
  

  pr.terminate()
  

  
得到:
  

  
Put A to queue...
  

  
Get A from queue.
  

  
Put B to queue...
  

  
Get B from queue.
  

  
Put C to queue...
  

  
Get C from queue.
  

  

Pipes通讯
  Pipe常用来在两个进程间进行通信,两个进程分别位于管道的两端。
  Pipe方法返回(conn1,conn2)代表一个管道的两个端,Pipe方法有duplex参数,如果duplex参数为True(默认值),那么这个管道是全双工模式,也就是说conn1和conn2均可收发,若duplex为False,conn1只负责接收消息,conn2只负责发送消息。send和recv方法分别是发送和接收消息的方法。例如,在全双工模式下,可以调用conn1.send发送消息,conn1.recv接收消息。如果没有消息可接收,recv方法会一直阻塞。如果管道已经被关闭,那么recv方法会抛出EOFError.
  

  
import multiprocessing
  

  
import random
  

  
import time, os
  

  
def proc_send(pipe, urls):
  

  for url in urls:
  

  print "process(%s) send:%s" % (os.getpid(), url)
  

  pipe.send(url)
  

  time.sleep(random.random())
  

  
def proc_recv(pipe):
  

  while True:
  

  print "Process(%s) rev:%s" % (os.getpid(), pipe.recv())
  

  time.sleep(random.random())
  

  
if __name__ == "__main__":
  

  pipe = multiprocessing.Pipe()
  

  p1 = multiprocessing.Process(target=proc_send,args=(pipe[0],['url_'+str(i) for i in range(10)]))
  

  p2 = multiprocessing.Process(target=proc_recv,args=(pipe[1],))
  

  p1.start()
  

  p2.start()
  

  p1.join()
  

  p2.join()
  

  
得到:
  

  
process(1134) send:url_0
  

  
Process(1135) rev:url_0
  

  
process(1134) send:url_1
  

  
Process(1135) rev:url_1
  

  
process(1134) send:url_2
  

  
Process(1135) rev:url_2
  

  
process(1134) send:url_3
  

  
Process(1135) rev:url_3
  

  
process(1134) send:url_4
  

  
Process(1135) rev:url_4
  

  
process(1134) send:url_5
  

  
Process(1135) rev:url_5
  

  
process(1134) send:url_6
  

  
Process(1135) rev:url_6
  

  
process(1134) send:url_7
  

  
Process(1135) rev:url_7
  

  
process(1134) send:url_8
  

  
Process(1135) rev:url_8
  

  
process(1134) send:url_9
  

  
Process(1135) rev:url_9
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-546359-1-1.html 上篇帖子: 利用Python编写linux自动备份脚本 下篇帖子: 学习:Python之Python安装(一)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表