Python多进程写入同一文件

来源:互联网 发布:杏花春雨落雪时节知乎 编辑:程序博客网 时间:2024/05/21 06:40

最近用python的正则表达式处理了一些文本数据,需要把结果写到文件里面,但是由于文件比较大,所以运行起来花费的时间很长。但是打开任务管理器发现CPU只占用了25%,上网找了一下原因发现是由于一个叫GIL的存在,使得Python在同一时间只能运行一个线程,所以只占用了一个CPU,由于我的电脑是4核的,所以CPU利用率就是25%了。

既然多线程没有什么用处,那就可以使用多进程来处理,毕竟多进程是可以不受GIL影响的。Python提供了一个multiprocessing的多进程库,但是多进程也有一些问题,比如,如果进程都需要写入同一个文件,那么就会出现多个进程争用资源的问题,如果不解决,那就会使文件的内容顺序杂乱。这就需要涉及到锁了,但是加锁一般会造成程序的执行速度下降,而且如果进程在多处需要向文件输出,也不好把这些代码整个都锁起来,如果都锁起来,那跟单进程还有什么区别。有一个解决办法就是把向文件的输出都整合到一块去,在这一块集中加个锁,这样问题就不大了。不过还有一种更加优雅的解决方式:使用multiprocessing库的回调函数功能。

具体思路跟把文件输出集中在一起也差不多,就是把进程需要写入文件的内容作为返回值返回给惠和的回调函数,使用回调函数向文件中写入内容。这样做在windows下面还有一个好处,在windows环境下,python的多进程没有像linux环境下的多进程一样,linux环境下的multiprocessing库是基于fork函数,父进程fork了一个子进程之后会把自己的资源,比如文件句柄都传递给子进程。但是在windows环境下没有fork函数,所以如果你在父进程里打开了一个文件,在子进程中写入,会出现ValueError: I/O operation on closed file这样的错误,而且在windows环境下最好加入if __name__ == '__main__'这样的判断,以避免一些可能出现的RuntimeError或者死锁。

下面是代码:

from multiprocessing import Poolimport timedef mycallback(x):    with open('123.txt', 'a+') as f:        f.writelines(str(x))def sayHi(num):    return numif __name__ == '__main__':    e1 = time.time()    pool = Pool()    for i in range(10):        pool.apply_async(sayHi, (i,), callback=mycallback)    pool.close()    pool.join()    e2 = time.time()    print float(e2 - e1)def log_result(res):    list=[]    f = open("out.csv", "a")    for k in res:        f.write(k+"\n")    f.close()            def getContenByUrl(url):    list=[]    file_object = open(url, 'r')    try:        for line in file_object.readlines():            list.append(line.strip('\n'))    finally:        file_object.close()    return list    if __name__ == '__main__':        print "test"     print map_route     get_map_route()    #print map_route    pool = Pool(processes=12)     list=getFileList(filefolder)    k=0    for file in list:        print file , k        k=k+1        pool.apply_async(readFileByFilename,(file,'type1'),callback = log_result)        #readFileByFilename(file)            pool.close()    pool.join()                
原创粉丝点击