Python菜鸟学习手册16----多进程

来源:互联网 发布:天庭网络直播间txt下载 编辑:程序博客网 时间:2024/06/06 05:36

python下的多进程

在批评Python的讨论中,常常说起Python多线程是多么的难用。由于GIL的存在,python一个进程同时只能执行一个线程。因此在python开发时,计算密集型的程序常用多进程,IO密集型的使用多线程。

multiprocessing

Process

类似threading下的Thread,创建一个Process是很简单的。

#coding=utf-8__author__ = 'a359680405'from multiprocessing import Process#方法1:将要执行的方法作为参数传给Processdef f(name):    print('hello', name)#方法2:从Process继承,并重写run()class MyProcess(Process):    def run(self):        print("MyProcess extended from Process")if __name__ == '__main__':                     #需要注意的是,多进程只能在main中执行    p1 = Process(target=f, args=('bob',))    p1.start()    p2=MyProcess()    p2.start()

构造方法:
Process(group=None, target=None, name=None, args=(), kwargs={})
group: 进程组,目前还没有实现,库引用中提示必须是None;
target: 要执行的方法;
name: 进程名;
args/kargs: 要传入方法的参数。

实例方法:
run(): 默认的run()函数调用target的函数,你也可以在子类中覆盖该函数。
start() : 启动该进程。
join([timeout]) : 父进程被停止,直到子进程被执行完毕。当timeout为None时没有超时,否则有超时。
is_alive(): 返回进程是否在运行。正在运行指启动后、终止前。
terminate():结束进程。

实例属性:
name :进程名
daemon : 守护进程
pid : 进程ID

#coding=utf-8__author__ = 'a359680405'from multiprocessing import Processfrom threading import Threadimport timeimport  osdef foo(n):    time.sleep(2)    print("报数:",n)    print("子进程ID",os.getpid(),",父进程ID",os.getppid())def main1():    for i in range(2):        foo(i)def main2():    for i in range(2):        p=Process(target=foo,args=(i,))        print(p.name,"准备执行")                  #p.name为进程名        p.start()        print(p.pid,"开始执行")                   #在进程start前,进程号p.pid为None        p.join(1)                                 #join([timeout])        父进程被停止,直到子进程被执行完毕。def main3():    for i in range(2):        p=Thread(target=foo,args=(i,))        p.start()if __name__ == '__main__':    print("主进程ID",os.getpid())                  #单进程执行, 子进程与主进程是同一个进程    #main1()    main2()                                       #多进程执行,子进程id不同,父进程都是主进程    #main3()                                        #多线程执行,子线程获取的进程号与主进程相同

Lock

multiprocessing.Lock的用法与threading.Lock用法相同。在下面例子中,如果两个进程没有使用lock来同步,则他们对同一个文件的写操作可能会出现混乱。当然一般可以用文件锁控制多个进程对同一文件的读写。

import multiprocessing  import sys  def worker_with(lock, f):      with lock:          fs = open(f,"a+")          fs.write('Lock acquired via with\n')          fs.close()  def worker_no_with(lock, f):      lock.acquire()      try:          fs = open(f,"a+")          fs.write('Lock acquired directly\n')          fs.close()      finally:          lock.release()  if __name__ == "__main__":      f = "file.txt"      lock = multiprocessing.Lock()      w = multiprocessing.Process(target=worker_with, args=(lock, f))      nw = multiprocessing.Process(target=worker_no_with, args=(lock, f))      w.start()      nw.start()      w.join()      nw.join()  

Semaphore

Semaphore用来控制对共享资源的访问数量,例如池的最大连接数。

#coding=utf-8__author__ = 'a359680405'import multiprocessingimport timedef worker(s,i):    s.acquire()    print(multiprocessing.current_process().name + " acquire")    time.sleep(i)    print(multiprocessing.current_process().name + " release")    s.release()if __name__ == "__main__":    s = multiprocessing.Semaphore(2)  #最多同时执行两个进程    for i in range(5):        p = multiprocessing.Process(target=worker, args=(s,i*2))        p.start()

Event

Event用来实现进程间同步通信。

#coding=utf-8__author__ = 'a359680405'import multiprocessingimport timedef wait_for_event(e):    """Wait for the event to be set before doing anything"""    print ('wait_for_event: starting')    e.wait()    print ('wait_for_event: e.is_set()->' + str(e.is_set()))def wait_for_event_timeout(e, t):    """Wait t seconds and then timeout"""    print ('wait_for_event_timeout: starting')    e.wait(t)                                      #等两秒钟set,等不到就不等了    print ('wait_for_event_timeout: e.is_set()->' + str(e.is_set()))if __name__ == '__main__':    e = multiprocessing.Event()    w1 = multiprocessing.Process(name='block',                                 target=wait_for_event,                                 args=(e,))    w1.start()    w2 = multiprocessing.Process(name='non-block',                                 target=wait_for_event_timeout,                                 args=(e, 2))    w2.start()    time.sleep(3)    e.set()    print ('main: event is set')

进程间的数据共享

进程同步,默认是不同步的。比如下列程序。一般通过使用特殊结构进行进程间的数据共享。

#coding=utf-8__author__ = 'a359680405'from multiprocessing import Processfrom threading import Threadimport timedef foo(info_list,n):    info_list.append(n)    print(info_list)if __name__ == '__main__':    info_list=[]    for i in range(10):        p=Process(target=foo,args=(info_list,i,))        p.start()                                      #输出[0],[1]....        # p=Thread(target=foo,args=(info_list,i,))      #输出[0],[0,1],[0,1,2].....        # p.start()

上面例子,进程会输出[0][1][3][2]。。。。。。。。。。。
而线程会输出[0],[0,1],[0,1,2]…..

multiprocessing.Queue

利用multiprocess中的Queue进行进程数据共享。

#coding=utf-8__author__ = 'a359680405'"""注意这里的Queue用的不是queue中的Queue!!Queue.Queue是进程内非阻塞队列,multiprocess.Queue是跨进程通信队列。多进程前者是各自私有,后者是各子进程共有。""" from multiprocessing import Process,Queue             def foo(q,n):    q.put(n)if __name__ == '__main__':    que=Queue()    for i in range(5):        p=Process(target=foo,args=(que,i))        p.start()        p.join()    print(que.qsize())

multiprocessing.Value与multiprocessing.Array

利用multiprocessing.Value与multiprocessing.Array进行数据共享

#coding=utf-8__author__ = 'a359680405'from multiprocessing import Process,Value,Arraydef foo1(n,a):    n.value=3    for i in range(len(a)):        a[i]=-a[i]if __name__ == '__main__':    num=Value("d",0.0)                   #d的意思是小数.创建0.0    arr=Array("i",range(10))             #i的意思是整数.创建一个0-9的整数    p=Process(target=foo1,args=(num,arr))    p.start()    p.join()    print(num.value)    print(arr[:])

multiprocessing.Manager

Value、Array比Manager稍微快一些,支持的类型比Manager要少。因此,一般情况下,用Queue和Manager。下面是使用Manager进行数据共享。

#coding=utf-8__author__ = 'a359680405'from multiprocessing import Process,Managerdef f(d,l):    d[1]="1"    d["2"]=2    d[0.25]=None    l.reverse()if __name__ == '__main__':    manager=Manager()    d=manager.dict()            #创建一个进程间可共享的dict    l=manager.list(range(10))   #创建一个进程间可共享的list    p=Process(target=f,args=(d,l))    p.start()    p.join()    print(d)                   #输出{0.25: None, 1: '1', '2': 2}    print(l)                   #输出[9, 8, 7, 6, 5, 4, 3, 2, 1, 0]

pool

如果需要多个子进程时可以考虑使用进程池(pool)来管理.

from multiprocessing import Poolimport timedef foo(x):    x+=x    time.sleep(2)    return xif __name__ == '__main__':    p=Pool(2)    res_list=[]    for i in range(10):        res=p.apply_async(foo,[i,])      #异步。 将10个进程放到进程池里。默认已经启动。如果用p.apply()就会阻塞。        # res.get()                      #这样会进程阻塞,一个一个的启动。所以不能把res。get()放在这里        res_list.append(res)    for i in res_list:        print(i.get(timeout=3))                 #可以发现两个两个的执行。如果等待时间超过3秒就会报错    #print(pool.map(f,range(10)))   #上面10到17行相当于本句

本文地址:http://blog.csdn.net/a359680405/article/details/51213682

1 0
原创粉丝点击