Heim > Artikel > Backend-Entwicklung > Einführung in die Methode der Parallelverarbeitung im Python-Multiprozess
Dieser Artikel stellt hauptsächlich eine Zusammenfassung der Methoden zur Verwendung mehrerer Prozesse zur Erzielung einer parallelen Verarbeitung in Python vor. Er hat einen gewissen Referenzwert.
Prozesse und Threads liegen im Bereich Computer Software Es gibt einen Unterschied zwischen Prozess und Thread, und sie sind zunächst eng miteinander verbunden:
1 Definition
Ein Prozess ist Ein Programm mit bestimmten unabhängigen Funktionen ist eine unabhängige Einheit für die Ressourcenzuweisung und -planung durch das System.
Ein Thread ist eine Einheit eines Prozesses und die grundlegende Basis für die CPU Planung und Versand Eine Einheit ist eine Basiseinheit, die kleiner als ein Prozess ist und unabhängig ausgeführt werden kann. Der Thread selbst besitzt im Grunde keine Systemressourcen, sondern nur einige Ressourcen, die für den Betrieb unerlässlich sind (z. B. ein Programmzähler, eine Reihe von Register und ein Stapel), aber alle Ressourcen, die dem Prozess gehören, können mit anderen Threads geteilt werden, die zum selben Prozess gehören.
2. Beziehung
Ein Thread kann einen anderen Thread erstellen und zerstören. Mehrere Threads im selben Prozess können gleichzeitig ausgeführt werden.
Im Vergleich zu einem Prozess ist ein Thread ein Konzept, das näher an einem Ausführungskörper liegt und mit dem geteilt werden kann Andere Threads verarbeiten dieselben Daten, verfügen jedoch über einen eigenen Stapelspeicher und eine unabhängige Ausführungssequenz.
3. Unterschied
Der Hauptunterschied zwischen Prozessen und Threads besteht darin, dass es sich um unterschiedliche Methoden zur Ressourcenverwaltung des Betriebssystems handelt. Der Prozess verfügt über einen unabhängigen Adressraum. Nach einem Prozessabsturz hat dies keine Auswirkungen auf andere Prozesse im geschützten Modus, und Threads sind lediglich unterschiedliche Ausführungspfade in einem Prozess. Threads haben ihre eigenen Stapel und lokalen Variablen, aber es gibt keinen separaten Adressraum zwischen Threads. Der Tod eines Threads entspricht dem Tod des gesamten Prozesses. Daher sind Multiprozessprogramme robuster als Multithread-Programme Beim Wechseln von Prozessen wird viel Zeit verbraucht. Die Ressourcen sind größer und die Effizienz geringer. Aber für einige gleichzeitige Vorgänge, die die gleichzeitige Ausführung und gemeinsame Nutzung bestimmter Variablen erfordern, können nur Threads und keine Prozesse verwendet werden.
1) Kurz gesagt, ein Programm hat mindestens einen Prozess und ein Prozess hat mindestens einen Thread.
2) Die Teilungsskala von Threads ist kleiner als die von Prozessen, wodurch die Parallelität von Multithread-Programmen hoch ist.
3) Darüber hinaus verfügt der Prozess während der Ausführung über eine unabhängige Speichereinheit, und mehrere Threads teilen sich den Speicher, wodurch die Laufeffizienz des Programms erheblich verbessert wird.
4) Es gibt Unterschiede zwischen Threads und Prozessen während der Ausführung. Jeder unabhängige Thread verfügt über einen Einstiegspunkt für die Programmausführung, eine sequentielle Ausführungssequenz und einen Ausstiegspunkt für das Programm. Threads können jedoch nicht unabhängig ausgeführt werden und müssen im Anwendungsprogramm vorhanden sein, und das Anwendungsprogramm bietet eine Steuerung für die Ausführung mehrerer Threads.
5) Aus logischer Sicht bedeutet Multithreading, dass in einer Anwendung mehrere Ausführungsteile gleichzeitig ausgeführt werden können. Das Betriebssystem betrachtet mehrere Threads jedoch nicht als mehrere unabhängige Anwendungen zur Implementierung der Prozessplanung und -verwaltung sowie der Ressourcenzuweisung. Dies ist der wichtige Unterschied zwischen Prozessen und Threads.
4. Vor- und Nachteile
Threads und Prozesse haben ihre eigenen Vor- und Nachteile: Der Aufwand für die Thread-Ausführung ist gering, aber er ist es nicht förderlich für Ressourcenmanagement und -schutz; Gleichzeitig eignen sich Threads für die Ausführung auf SMP-Maschinen, während Prozesse maschinenübergreifend migriert werden können.
In diesem Artikel geht es hauptsächlich um die Anwendung von Multiprozessen in Python
Das Unix/Linux-Betriebssystem bietet einen fork()-Systemaufruf, der etwas ganz Besonderes ist. Gewöhnliche Funktionsaufrufe rufen einmal auf und geben einmal zurück, aber fork() ruft einmal auf und kehrt zweimal zurück, da das Betriebssystem automatisch eine Kopie des aktuellen Prozesses (genannt übergeordneter Prozess) (genannt untergeordneter Prozess) und dann jeweils erstellt Wird im übergeordneten und untergeordneten Prozess zurückgegeben.
Der untergeordnete Prozess gibt immer 0 zurück und der übergeordnete Prozess gibt die ID des untergeordneten Prozesses zurück. Der Grund dafür ist, dass ein übergeordneter Prozess viele untergeordnete Prozesse austeilen kann, sodass der übergeordnete Prozess die ID jedes untergeordneten Prozesses aufzeichnen muss und der untergeordnete Prozess nur getpid() aufrufen muss, um die ID des übergeordneten Prozesses abzurufen.
Das Betriebssystemmodul von Python kapselt allgemeine Systemaufrufe, einschließlich Fork, mit denen problemlos untergeordnete Prozesse in Python-Programmen erstellt werden können:
import os print('Process (%s) start...' % os.getpid()) # Only works on Unix/Linux/Mac: pid = os.fork() if pid == 0: print('I am child process (%s) and my parent is %s.' % (os.getpid(), os.getppid())) else: print('I (%s) just created a child process (%s).' % (os.getpid(), pid))
Die laufenden Ergebnisse sind wie folgt folgt:
Prozess (876) starten...
Ich (876) habe gerade einen untergeordneten Prozess (877) erstellt.
Ich bin untergeordneter Prozess (877) und mein übergeordneter Prozess ist 876.
Da Windows keinen Fork-Aufruf hat, kann der obige Code nicht unter Windows ausgeführt werden.
Mit dem Fork-Aufruf kann ein Prozess, wenn er eine neue Aufgabe empfängt, einen untergeordneten Prozess kopieren, um die neue Aufgabe zu verarbeiten. Der gemeinsame Apache-Server lässt den übergeordneten Prozess den Port überwachen. Immer wenn eine neue http-Anfrage vorliegt, wird der untergeordnete Prozess geforkt, um die neue http-Anfrage zu verarbeiten.
Multiprocessing
Wenn Sie vorhaben, ein Multiprozess-Dienstprogramm zu schreiben, ist Unix/Linux zweifellos die richtige Wahl. Da Windows keinen Fork-Aufruf hat, ist es dann unmöglich, Multiprozessprogramme in Python unter Windows zu schreiben?
Da Python plattformübergreifend ist, sollte es natürlich plattformübergreifende Multiprozessunterstützung bieten. Das Multiprocessing-Modul ist eine plattformübergreifende Version des Multi-Process-Moduls.
Das Multiprocessing-Modul stellt eine Process-Klasse zur Darstellung eines Prozessobjekts bereit. Das folgende Beispiel zeigt das Starten eines untergeordneten Prozesses und das Warten auf dessen Ende:
from multiprocessing import Process import os # 子进程要执行的代码 def run_proc(name): print('Run child process %s (%s)...' % (name, os.getpid())) if __name__=='__main__': print('Parent process %s.' % os.getpid()) p = Process(target=run_proc, args=('test',)) print('Child process will start.') p.start() p.join() print('Child process end.')
创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动,这样创建进程比fork()还要简单。
join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。
Pool
如果要启动大量的子进程,可以用进程池的方式批量创建子进程:
from multiprocessing import Pool import os, time, random def long_time_task(name): print('Run task %s (%s)...' % (name, os.getpid())) start = time.time() time.sleep(random.random() * 3) end = time.time() print('Task %s runs %0.2f seconds.' % (name, (end - start))) if __name__=='__main__': print('Parent process %s.' % os.getpid()) p = Pool(4) for i in range(5): p.apply_async(long_time_task, args=(i,)) print('Waiting for all subprocesses done...') p.close() p.join() print('All subprocesses done.')
执行结果如下:
Parent process 669.
Waiting for all subprocesses done...
Run task 0 (671)...
Run task 1 (672)...
Run task 2 (673)...
Run task 3 (674)...
Task 2 runs 0.14 seconds.
Run task 4 (673)...
Task 1 runs 0.27 seconds.
Task 3 runs 0.86 seconds.
Task 0 runs 1.41 seconds.
Task 4 runs 1.91 seconds.
All subprocesses done.
代码解读:
对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了。
请注意输出的结果,task 0,1,2,3是立刻执行的,而task 4要等待前面某个task完成后才执行,这是因为Pool的默认大小在我的电脑上是4,因此,最多同时执行4个进程。这是Pool有意设计的限制,并不是操作系统的限制。如果改成:
p = Pool(5)
就可以同时跑5个进程。
由于Pool的默认大小是CPU的核数,如果你不幸拥有8核CPU,你要提交至少9个子进程才能看到上面的等待效果。
子进程
很多时候,子进程并不是自身,而是一个外部进程。我们创建了子进程后,还需要控制子进程的输入和输出。
subprocess模块可以让我们非常方便地启动一个子进程,然后控制其输入和输出。
下面的例子演示了如何在Python代码中运行命令nslookup www.python.org,这和命令行直接运行的效果是一样的:
import subprocess print('$ nslookup www.python.org') r = subprocess.call(['nslookup', 'www.python.org']) print('Exit code:', r)
运行结果:
$ nslookup www.python.org
Server: 192.168.19.4
Address: 192.168.19.4#53
Non-authoritative answer:
www.python.org canonical name = python.map.fastly.net.
Name: python.map.fastly.net
Address: 199.27.79.223
Exit code: 0
如果子进程还需要输入,则可以通过communicate()方法输入:
import subprocess print('$ nslookup') p = subprocess.Popen(['nslookup'], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE) output, err = p.communicate(b'set q=mx\npython.org\nexit\n') print(output.decode('utf-8')) print('Exit code:', p.returncode)
上面的代码相当于在命令行执行命令nslookup,然后手动输入:
set q=mx
python.org
exit
进程间通信
Process之间肯定是需要通信的,操作系统提供了很多机制来实现进程间的通信。Python的multiprocessing模块包装了底层的机制,提供了Queue、Pipes等多种方式来交换数据。
我们以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:
from multiprocessing import Process, Queue import os, time, random # 写数据进程执行的代码: def write(q): print('Process to write: %s' % os.getpid()) for value in ['A', 'B', 'C']: print('Put %s to queue...' % value) q.put(value) time.sleep(random.random()) # 读数据进程执行的代码: def read(q): print('Process to read: %s' % os.getpid()) while True: value = q.get(True) print('Get %s from queue.' % value) if __name__=='__main__': # 父进程创建Queue,并传给各个子进程: q = Queue() pw = Process(target=write, args=(q,)) pr = Process(target=read, args=(q,)) # 启动子进程pw,写入: pw.start() # 启动子进程pr,读取: pr.start() # 等待pw结束: pw.join() # pr进程里是死循环,无法等待其结束,只能强行终止: pr.terminate()
运行结果如下:
Process to write: 50563
Put A to queue...
Process to read: 50564
Get A from queue.
Put B to queue...
Get B from queue.
Put C to queue...
Get C from queue.
在Unix/Linux下,multiprocessing模块封装了fork()调用,使我们不需要关注fork()的细节。由于Windows没有fork调用,因此,multiprocessing需要“模拟”出fork的效果,父进程所有Python对象都必须通过pickle序列化再传到子进程去,所有,如果multiprocessing在Windows下调用失败了,要先考虑是不是pickle失败了。
小结
在Unix/Linux下,可以使用fork()调用实现多进程。
要实现跨平台的多进程,可以使用multiprocessing模块。
进程间通信是通过Queue、Pipes等实现的。
多线程
多任务可以由多进程完成,也可以由一个进程内的多线程完成。进程是由若干线程组成的,一个进程至少有一个线程。
由于线程是操作系统直接支持的执行单元,因此,高级语言通常都内置多线程的支持,Python也不例外,并且,Python的线程是真正的Posix Thread,而不是模拟出来的线程。
Python的标准库提供了两个模块:_thread 和 threading,_thread是低级模块,threading是高级模块,对_thread进行了封装。绝大多数情况下,我们只需要使用threading这个高级模块。
启动一个线程就是把一个函数传入并创建Thread实例,然后调用start()开始执行:
import time, threading # 新线程执行的代码: def loop(): print('thread %s is running...' % threading.current_thread().name) n = 0 while n < 5: n = n + 1 print('thread %s >>> %s' % (threading.current_thread().name, n)) time.sleep(1) print('thread %s ended.' % threading.current_thread().name) print('thread %s is running...' % threading.current_thread().name) t = threading.Thread(target=loop, name='LoopThread') t.start() t.join() print('thread %s ended.' % threading.current_thread().name) thread MainThread is running... thread LoopThread is running... thread LoopThread >>> 1 thread LoopThread >>> 2 thread LoopThread >>> 3 thread LoopThread >>> 4 thread LoopThread >>> 5 thread LoopThread ended. thread MainThread ended.
由于任何进程默认就会启动一个线程,我们把该线程称为主线程,主线程又可以启动新的线程,Python的threading模块有个current_thread()函数,它永远返回当前线程的实例。主线程实例的名字叫MainThread,子线程的名字在创建时指定,我们用LoopThread命名子线程。名字仅仅在打印时用来显示,完全没有其他意义,如果不起名字Python就自动给线程命名为Thread-1,Thread-2……
Lock
多线程和多进程最大的不同在于,多进程中,同一个变量,各自有一份拷贝存在于每个进程中,互不影响,而多线程中,所有变量都由所有线程共享,所以,任何一个变量都可以被任何一个线程修改,因此,线程之间共享数据最大的危险在于多个线程同时改一个变量,把内容给改乱了。
来看看多个线程同时操作一个变量怎么把内容给改乱了:
import time, threading # 假定这是你的银行存款: balance = 0 def change_it(n): # 先存后取,结果应该为0: global balance balance = balance + n balance = balance - n def run_thread(n): for i in range(100000): change_it(n) t1 = threading.Thread(target=run_thread, args=(5,)) t2 = threading.Thread(target=run_thread, args=(8,)) t1.start() t2.start() t1.join() t2.join() print(balance)
我们定义了一个共享变量balance,初始值为0,并且启动两个线程,先存后取,理论上结果应该为0,但是,由于线程的调度是由操作系统决定的,当t1、t2交替执行时,只要循环次数足够多,balance的结果就不一定是0了。
原因是因为高级语言的一条语句在CPU执行时是若干条语句,即使一个简单的计算:
balance = balance + n
也分两步:
计算balance + n,存入临时变量中;
将临时变量的值赋给balance。
也就是可以看成:
x = balance + n balance = x
数据错误的原因:是因为修改balance需要多条语句,而执行这几条语句时,线程可能中断,从而导致多个线程把同一个对象的内容改乱了。
两个线程同时一存一取,就可能导致余额不对,你肯定不希望你的银行存款莫名其妙地变成了负数,所以,我们必须确保一个线程在修改balance的时候,别的线程一定不能改。
如果我们要确保balance计算正确,就要给change_it()上一把锁,当某个线程开始执行change_it()时,我们说,该线程因为获得了锁,因此其他线程不能同时执行change_it(),只能等待,直到锁被释放后,获得该锁以后才能改。由于锁只有一个,无论多少线程,同一时刻最多只有一个线程持有该锁,所以,不会造成修改的冲突。创建一个锁就是通过threading.Lock()来实现:
balance = 0 lock = threading.Lock() def run_thread(n): for i in range(100000): # 先要获取锁: lock.acquire() try: # 放心地改吧: change_it(n) finally: # 改完了一定要释放锁: lock.release()
当多个线程同时执行lock.acquire()时,只有一个线程能成功地获取锁,然后继续执行代码,其他线程就继续等待直到获得锁为止。
获得锁的线程用完后一定要释放锁,否则那些苦苦等待锁的线程将永远等待下去,成为死线程。所以我们用try...finally来确保锁一定会被释放。
锁的好处就是确保了某段关键代码只能由一个线程从头到尾完整地执行,坏处当然也很多,首先是阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了。其次,由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁,导致多个线程全部挂起,既不能执行,也无法结束,只能靠操作系统强制终止。
多核CPU
如果你不幸拥有一个多核CPU,你肯定在想,多核应该可以同时执行多个线程。
如果写一个死循环的话,会出现什么情况呢?
打开Mac OS X的Activity Monitor,或者Windows的Task Manager,都可以监控某个进程的CPU使用率。
我们可以监控到一个死循环线程会100%占用一个CPU。如果有两个死循环线程,在多核CPU中,可以监控到会占用200%的CPU,也就是占用两个CPU核心。要想把N核CPU的核心全部跑满,就必须启动N个死循环线程。
试试用Python写个死循环:
import threading, multiprocessing def loop(): x = 0 while True: x = x ^ 1 for i in range(multiprocessing.cpu_count()): t = threading.Thread(target=loop) t.start()
启动与CPU核心数量相同的N个线程,在4核CPU上可以监控到CPU占用率仅有102%,也就是仅使用了一核。
但是用C、C++或Java来改写相同的死循环,直接可以把全部核心跑满,4核就跑到400%,8核就跑到800%,为什么Python不行呢?
因为Python的线程虽然是真正的线程,但解释器执行代码时,有一个GIL锁:Global Interpreter Lock,任何Python线程执行前,必须先获得GIL锁,然后,每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行。这个GIL全局锁实际上把所有线程的执行代码都给上了锁,所以,多线程在Python中只能交替执行,即使100个线程跑在100核CPU上,也只能用到1个核。
GIL是Python解释器设计的历史遗留问题,通常我们用的解释器是官方实现的CPython,要真正利用多核,除非重写一个不带GIL的解释器。
所以,在Python中,可以使用多线程,但不要指望能有效利用多核。如果一定要通过多线程利用多核,那只能通过C扩展来实现,不过这样就失去了Python简单易用的特点。
不过,也不用过于担心,Python虽然不能利用多线程实现多核任务,但可以通过多进程实现多核任务。多个Python进程有各自独立的GIL锁,互不影响。
多线程编程,模型复杂,容易发生冲突,必须用锁加以隔离,同时,又要小心死锁的发生。
Python解释器由于设计时有GIL全局锁,导致了多线程无法利用多核。
ThreadLocal
在多线程环境下,每个线程都有自己的数据。一个线程使用自己的局部变量比使用全局变量好,因为局部变量只有线程自己能看见,不会影响其他线程,而全局变量的修改必须加锁。但是局部变量也有问题,就是在函数调用的时候,传递起来很麻烦:
import threading # 创建全局ThreadLocal对象: local_school = threading.local() def process_student(): # 获取当前线程关联的student: std = local_school.student print('Hello, %s (in %s)' % (std, threading.current_thread().name)) def process_thread(name): # 绑定ThreadLocal的student: local_school.student = name process_student() t1 = threading.Thread(target= process_thread, args=('Alice',), name='Thread-A') t2 = threading.Thread(target= process_thread, args=('Bob',), name='Thread-B') t1.start() t2.start() t1.join() t2.join()
全局变量local_school就是一个ThreadLocal对象,每个Thread对它都可以读写student属性,但互不影响。你可以把local_school看成全局变量,但每个属性如local_school.student都是线程的局部变量,可以任意读写而互不干扰,也不用管理锁的问题,ThreadLocal内部会处理。
可以理解为全局变量local_school是一个dict,不但可以用local_school.student,还可以绑定其他变量,如local_school.teacher等等。
ThreadLocal最常用的地方就是为每个线程绑定一个数据库连接,HTTP请求,用户身份信息等,这样一个线程的所有调用到的处理函数都可以非常方便地访问这些资源。
一个ThreadLocal变量虽然是全局变量,但每个线程都只能读写自己线程的独立副本,互不干扰。ThreadLocal解决了参数在一个线程中各个函数之间互相传递的问题。
进程 vs. 线程
我们介绍了多进程和多线程,这是实现多任务最常用的两种方式。现在,我们来讨论一下这两种方式的优缺点。
首先,要实现多任务,通常我们会设计Master-Worker模式,Master负责分配任务,Worker负责执行任务,因此,多任务环境下,通常是一个Master,多个Worker。
如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker。
如果用多线程实现Master-Worker,主线程就是Master,其他线程就是Worker。
多进程模式最大的优点就是稳定性高,因为一个子进程崩溃了,不会影响主进程和其他子进程。(当然主进程挂了所有进程就全挂了,但是Master进程只负责分配任务,挂掉的概率低)著名的Apache最早就是采用多进程模式。
多进程模式的缺点是创建进程的代价大,在Unix/Linux系统下,用fork调用还行,在Windows下创建进程开销巨大。另外,操作系统能同时运行的进程数也是有限的,在内存和CPU的限制下,如果有几千个进程同时运行,操作系统连调度都会成问题。
多线程模式通常比多进程快一点,但是也快不到哪去,而且,多线程模式致命的缺点就是任何一个线程挂掉都可能直接造成整个进程崩溃,因为所有线程共享进程的内存。在Windows上,如果一个线程执行的代码出了问题,你经常可以看到这样的提示:“该程序执行了非法操作,即将关闭”,其实往往是某个线程出了问题,但是操作系统会强制结束整个进程。
在Windows下,多线程的效率比多进程要高,所以微软的IIS服务器默认采用多线程模式。由于多线程存在稳定性的问题,IIS的稳定性就不如Apache。为了缓解这个问题,IIS和Apache现在又有多进程+多线程的混合模式,真是把问题越搞越复杂。
线程切换
无论是多进程还是多线程,只要数量一多,效率肯定上不去,为什么呢?
我们打个比方,假设你不幸正在准备中考,每天晚上需要做语文、数学、英语、物理、化学这5科的作业,每项作业耗时1小时。
如果你先花1小时做语文作业,做完了,再花1小时做数学作业,这样,依次全部做完,一共花5小时,这种方式称为单任务模型,或者批处理任务模型。
Angenommen, Sie planen, zum Multitasking-Modell zu wechseln. Sie können zuerst 1 Minute lang Chinesisch machen, dann zu Mathe-Hausaufgaben wechseln, dann 1 Minute lang zu Englisch wechseln und so weiter Schnell genug, diese Methode ist dasselbe wie Single-Tasking. Für die Kern-CPU ist es dasselbe, Multitasking durchzuführen. Aus der Sicht eines Kindergartenkindes erledigen Sie gleichzeitig Hausaufgaben für 5 Fächer.
Der Wechsel der Hausaufgaben ist jedoch mit Kosten verbunden. Wenn Sie beispielsweise von Chinesisch auf Mathematik umsteigen, müssen Sie zuerst die chinesischen Bücher und Stifte auf dem Tisch wegräumen (dies wird als Speichern der Szene bezeichnet) und dann die öffnen Lesen Sie das Mathematiklehrbuch und finden Sie Zirkel und Lineal (das nennt man „Vorbereitung auf die neue Umgebung“), bevor Sie mit den Mathe-Hausaufgaben beginnen können. Das Betriebssystem ist beim Wechseln von Prozessen oder Threads dasselbe. Es muss zuerst die aktuelle Ausführungsumgebung (CPU-Registerstatus, Speicherseiten usw.) speichern und dann die Ausführungsumgebung für die neue Aufgabe vorbereiten (den letzten Registerstatus wiederherstellen). Speicherseite wechseln usw.), bevor die Ausführung beginnen kann. Dieser Umschaltvorgang ist zwar schnell, erfordert aber auch Zeit. Wenn Tausende von Aufgaben gleichzeitig ausgeführt werden, ist das Betriebssystem möglicherweise hauptsächlich damit beschäftigt, Aufgaben zu wechseln, so dass nur wenig Zeit für die Ausführung von Aufgaben bleibt. Die häufigste Situation in dieser Situation ist, dass die Festplatte wild piept und beim Klicken keine Reaktion erfolgt auf dem Fenster und das System befindet sich in einem angehaltenen Animationszustand.
Sobald die Anzahl der Multitasking-Aufgaben eine Grenze erreicht, werden daher alle Ressourcen des Systems verbraucht. Infolgedessen sinkt die Effizienz stark und alle Aufgaben werden nicht ordnungsgemäß erledigt.
Rechenintensiv vs. IO-intensiv
Die zweite Überlegung bei der Verwendung von Multitasking ist die Art der Aufgabe. Wir können Aufgaben in rechenintensive und IO-intensive Aufgaben unterteilen.
Rechenintensive Aufgaben zeichnen sich dadurch aus, dass sie eine große Menge an Berechnungen erfordern und CPU-Ressourcen verbrauchen, wie z. B. die Berechnung von Pi, die hochauflösende Dekodierung von Videos usw., die alle auf der Rechenleistung der CPU basieren. Obwohl diese Art von rechenintensiven Aufgaben auch mit Multitasking erledigt werden kann, gilt: Je mehr Aufgaben vorhanden sind, desto mehr Zeit wird für den Aufgabenwechsel aufgewendet und desto geringer ist die Effizienz der CPU bei der Ausführung von Aufgaben Auslastung der CPU, rechenintensive Aufgaben Die Anzahl der gleichzeitigen Aufgaben sollte gleich der Anzahl der CPU-Kerne sein.
Rechenintensive Aufgaben verbrauchen hauptsächlich CPU-Ressourcen, daher ist die Effizienz der Codeausführung von entscheidender Bedeutung. Skriptsprachen wie Python laufen sehr ineffizient und sind für rechenintensive Aufgaben völlig ungeeignet. Für rechenintensive Aufgaben ist es besser, in der Sprache C zu schreiben.
Die zweite Art von Aufgabe ist E/A-intensiv. Aufgaben, die Netzwerk- und Festplatten-E/A betreffen, sind alle E/A-intensive Aufgaben. Das Merkmal dieser Art von Aufgabe ist, dass der CPU-Verbrauch sehr gering ist, und zwar meistens Die Aufgabe besteht darin, auf den Abschluss des E/A-Vorgangs zu warten (da die E/A-Geschwindigkeit viel langsamer ist als die Geschwindigkeit von CPU und Speicher). Bei E/A-intensiven Aufgaben gilt: Je mehr Aufgaben, desto höher die CPU-Effizienz, es gibt jedoch eine Grenze. Die häufigsten Aufgaben sind E/A-intensive Aufgaben wie Webanwendungen.
Während der Ausführung von E/A-intensiven Aufgaben werden 99 % der Zeit für E/A aufgewendet, und nur sehr wenig Zeit wird für die CPU aufgewendet. Verwenden Sie daher die extrem schnelle C-Sprache, um Python durch eine extrem langsame Ausführung zu ersetzen Die Skriptsprache kann die Betriebseffizienz überhaupt nicht verbessern. Für IO-intensive Aufgaben ist die Sprache mit der höchsten Entwicklungseffizienz am besten geeignet (die Skriptsprache ist die erste Wahl und die Sprache C ist die schlechteste).
Asynchrone E/A
Angesichts des enormen Geschwindigkeitsunterschieds zwischen CPU und E/A verbringt eine Aufgabe den größten Teil ihrer Ausführung damit, auf E/A-Vorgänge zu warten, den Einzelprozess -Thread-Modell führt dazu, dass andere Aufgaben nicht parallel ausgeführt werden können. Daher benötigen wir ein Multiprozessmodell oder ein Multithread-Modell, um die gleichzeitige Ausführung mehrerer Aufgaben zu unterstützen.
Moderne Betriebssysteme haben enorme Verbesserungen bei E/A-Vorgängen vorgenommen. Das größte Merkmal ist, dass sie asynchrone E/A unterstützen. Wenn Sie die vom Betriebssystem bereitgestellte asynchrone E/A-Unterstützung vollständig nutzen, können Sie ein Einzelprozess-Single-Thread-Modell verwenden, um mehrere Aufgaben auszuführen. Dieses neue Modell wird als ereignisgesteuertes Modell bezeichnet Asynchrone E/A läuft auf einer Single-Core-CPU und kann Multitasking effizient unterstützen. Auf einer Multi-Core-CPU können Sie mehrere Prozesse ausführen (die Anzahl entspricht der Anzahl der CPU-Kerne) und so die Vorteile der Multi-Core-CPU voll ausnutzen. Da die Gesamtzahl der Prozesse im System sehr begrenzt ist, ist die Betriebssystemplanung sehr effizient. Die Verwendung des asynchronen IO-Programmiermodells zur Implementierung von Multitasking ist ein wichtiger Trend.
Entsprechend der Python-Sprache wird das asynchrone Einzelprozess-Programmiermodell als Coroutine bezeichnet. Mit der Unterstützung von Coroutine können effiziente Multitasking-Programme ereignisgesteuert geschrieben werden. Wir werden später besprechen, wie man Coroutinen schreibt.
Verteilter Prozess
Unter Thread und Prozess sollte der Prozess bevorzugt werden, da der Prozess stabiler ist und der Prozess nur auf mehrere Maschinen verteilt werden kann höchstens auf mehrere CPUs auf derselben Maschine verteilt.
Das Multiprocessing-Modul von Python unterstützt nicht nur mehrere Prozesse, sondern das Manager-Submodul unterstützt auch die Verteilung mehrerer Prozesse auf mehrere Maschinen. Ein Dienstprozess kann als Planer fungieren und Aufgaben auf mehrere andere Prozesse verteilen, wobei er sich auf die Netzwerkkommunikation verlässt. Da das Manager-Modul gut gekapselt ist, können Sie problemlos verteilte Multiprozessprogramme schreiben, ohne die Details der Netzwerkkommunikation zu kennen.
Zum Beispiel: Wenn wir bereits ein Programm mit mehreren Prozessen haben, das über die Warteschlange kommuniziert und auf demselben Computer ausgeführt wird, möchten wir nun den Prozess, der sendet, trennen, da der Prozess, der die Aufgabe verarbeitet, eine hohe Arbeitslast hat die Aufgabe und der Prozess, der die Aufgabe erledigt. Auf zwei Maschinen verteilt. Wie implementiert man es mithilfe eines verteilten Prozesses?
原有的Queue可以继续使用,但是,通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了。
我们先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务:
import random, time, queue from multiprocessing.managers import BaseManager # 发送任务的队列: task_queue = queue.Queue() # 接收结果的队列: result_queue = queue.Queue() # 从BaseManager继承的QueueManager: class QueueManager(BaseManager): pass # 把两个Queue都注册到网络上, callable参数关联了Queue对象: QueueManager.register('get_task_queue', callable=lambda: task_queue) QueueManager.register('get_result_queue', callable=lambda: result_queue) # 绑定端口5000, 设置验证码'abc': manager = QueueManager(address=('', 5000), authkey=b'abc') # 启动Queue: manager.start() # 获得通过网络访问的Queue对象: task = manager.get_task_queue() result = manager.get_result_queue() # 放几个任务进去: for i in range(10): n = random.randint(0, 10000) print('Put task %d...' % n) task.put(n) # 从result队列读取结果: print('Try get results...') for i in range(10): r = result.get(timeout=10) print('Result: %s' % r) # 关闭: manager.shutdown() print('master exit.')
当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。
然后,在另一台机器上启动任务进程(本机上启动也可以):
import time, sys, queue from multiprocessing.managers import BaseManager # 创建类似的QueueManager: class QueueManager(BaseManager): pass # 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字: QueueManager.register('get_task_queue') QueueManager.register('get_result_queue') # 连接到服务器,也就是运行task_master.py的机器: server_addr = '127.0.0.1' print('Connect to server %s...' % server_addr) # 端口和验证码注意保持与task_master.py设置的完全一致: m = QueueManager(address=(server_addr, 5000), authkey=b'abc') # 从网络连接: m.connect() # 获取Queue的对象: task = m.get_task_queue() result = m.get_result_queue() # 从task队列取任务,并把结果写入result队列: for i in range(10): try: n = task.get(timeout=1) print('run task %d * %d...' % (n, n)) r = '%d * %d = %d' % (n, n, n*n) time.sleep(1) result.put(r) except Queue.Empty: print('task queue is empty.') # 处理结束: print('worker exit.')
任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。http://www.jb51.net/article/65112.htm
小结
Python的分布式进程接口简单,封装良好,适合需要把繁重任务分布到多台机器的环境下。
注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。
Das obige ist der detaillierte Inhalt vonEinführung in die Methode der Parallelverarbeitung im Python-Multiprozess. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!