検索

1. はじめに

実行中のプログラムをプロセスと呼びます。各プロセスには独自のシステム状態があり、これにはメモリの状態、開いているファイルのリスト、命令の実行を追跡するプログラム ポインタ、ローカル変数を保持するコール スタックが含まれます。通常、プロセスは、プロセスのメイン スレッドと呼ばれる単一の制御フロー シーケンスに従って順次実行されます。いかなる瞬間においても、プログラムは 1 つのことだけを実行します。

プログラムは、Python ライブラリ関数の os または subprocess モジュール (os.fork() や subprocess.Popen() など) を通じて新しいプロセスを作成できます。ただし、子プロセスと呼ばれるこれらのプロセスは独立して実行され、独自の独立したシステム状態とメイン スレッドを持ちます。プロセスは互いに独立しているため、元のプロセスと同時に実行されます。これは、元のプロセスが子プロセスの作成後に他の作業を実行できることを意味します。

プロセスは互いに独立していますが、プロセス間通信 (IPC) と呼ばれるメカニズムを通じて相互に通信できます。典型的なパターンは、単純に純粋なバイト バッファとして理解できるメッセージ パッシングに基づいており、send() または recv() オペレーション プリミティブは、パイプやネットワーク ソケットなどを介して渡すことができます。 O メッセージを送信または受信するチャネル。メモリ マッピング メカニズム (mmap モジュールなど) を通じて完了できる IPC モードもいくつかあり、メモリ マッピングを通じてプロセスはメモリ内に共有領域を作成でき、これらの領域への変更はすべてのプロセスに表示されます。

マルチプロセスは、タスクの異なる部分を異なるプロセスで担当し、複数のタスクを同時に実行する必要があるシナリオで使用できます。ただし、作業をタスクに分割する別の方法は、スレッドを使用することです。プロセスと同様に、スレッドにも独自の制御フローと実行スタックがありますが、スレッドはそれを作成したプロセス内で実行され、親プロセスのすべてのデータとシステム リソースを共有します。スレッドは、アプリケーションが同時タスクを完了する必要がある場合に便利ですが、大量のシステム状態をタスク間で共有する必要があるという潜在的な問題があります。

複数のプロセスまたはスレッドを使用する場合、オペレーティング システムがスケジューリングを担当します。これは、各プロセス (またはスレッド) に小さなタイム スライスを与え、すべてのアクティブなタスク間を迅速に循環させることによって実現されます。このプロセスは、CPU 時間を小さなフラグメントに分割し、各タスクに分散します。たとえば、システム上で 10 個のアクティブなプロセスが実行されている場合、オペレーティング システムは CPU 時間の 10 分の 1 を各プロセスに適切に割り当て、10 個のプロセス間を循環します。システムに複数の CPU コアがある場合、オペレーティング システムは、システムの負荷を均等に保ち、並列実行を実現するために、プロセスを異なる CPU コアにスケジュールできます。

同時実行メカニズムを使用して作成されたプログラムでは、いくつかの複雑な問題を考慮する必要があります。複雑さの主な原因は、データの同期と共有に関するものです。通常、複数のタスクが同じデータ構造を同時に更新しようとすると、ダーティ データや一貫性のないプログラム ステータスの問題 (正式にはリソース競合問題と呼ばれます) が発生します。この問題を解決するには、ミューテックスまたは他の同様の同期プリミティブを使用して、プログラムの重要な部分を識別して保護する必要があります。たとえば、複数の異なるスレッドが同時に同じファイルに書き込もうとしている場合、これらの書き込みを順番に実行するには、1 つのスレッドが書き込みを行っている間、他のスレッドは現在のスレッドが解放されるまで待機する必要があります。リソース。

Python での同時プログラミング

Python は、スレッド、サブプロセス、ジェネレーター関数を利用するその他の同時実行実装など、さまざまな同時プログラミング方法を長い間サポートしてきました。

Python は、ほとんどのシステムでメッセージ パッシングとスレッドベースの同時プログラミング メカニズムの両方をサポートしています。ほとんどのプログラマはスレッド インターフェイスに慣れていますが、Python のスレッド メカニズムには多くの制限があります。 Python は内部グローバル インタープリター ロック (GIL) を使用して、スレッドの安全性を確保します。GIL は一度に 1 つのスレッドのみを実行できます。これにより、マルチコア システムであっても、Python プログラムは単一のプロセッサ上でのみ実行できます。 Python コミュニティでは GIL について多くの議論が行われていますが、近い将来に GIL が削除される可能性はありません。

Python は、スレッドとプロセスに基づいて同時操作を管理するための非常に洗練されたツールをいくつか提供します。単純なプログラムでも、これらのツールを使用してタスクを同時に実行し、より高速に実行できます。サブプロセス モジュールは、サブプロセスの作成と通信のための API を提供します。これらの API は新しいプロセスの標準入出力チャネルを介したデータの受け渡しをサポートしているため、これはテキスト関連プログラムの実行に特に適しています。シグナル モジュールは、プロセス間でイベント情報を受け渡すために、UNIX システムのセマフォ メカニズムをユーザーに公開します。信号は非同期で処理され、通常、信号が到着するとプログラムの現在の作業が中断されます。シグナリング メカニズムにより、粗粒度のメッセージング システムが可能になりますが、より複雑なメッセージを配信できる、より信頼性の高いプロセス内通信テクノロジは他にもあります。スレッド モジュールは、同時操作のための一連の高レベルのオブジェクト指向 API を提供します。スレッド オブジェクトはプロセス内で同時に実行され、メモリ リソースを共有します。スレッドを使用すると、I/O 集中型のタスクをより適切にスケーリングできます。マルチプロセッシング モジュールはスレッディング モジュールに似ていますが、プロセスに対する操作を提供します。各プロセス クラスは実際のオペレーティング システム プロセスであり、共有メモリ リソースはありませんが、マルチプロセッシング モジュールはプロセス間でデータを共有し、メッセージを渡すためのメカニズムを提供します。通常、スレッドベースのプログラムをプロセスベースのプログラムに変更するのは非常に簡単で、一部の import ステートメントを変更するだけです。

スレッドモジュールの例

スレッディング モジュールを例として、セグメント化された並列処理を使用して大量の累算を完了する方法について考えてみましょう。

import threading
 
class SummingThread(threading.Thread):
  def __init__(self, low, high):
    super(SummingThread, self).__init__()
    self.low = low
    self.high = high
    self.total = 0
 
  def run(self):
    for i in range(self.low, self.high):
      self.total += i
 
thread1 = SummingThread(0, 500000)
thread2 = SummingThread(500000, 1000000)
thread1.start() # This actually causes the thread to run
thread2.start()
thread1.join() # This waits until the thread has completed
thread2.join()
# At this point, both threads have completed
result = thread1.total + thread2.total
print(result)

カスタマイズされた Threading クラス ライブラリ

私はスレッドで使いやすく、いくつかの便利なクラスと関数を含む小さな Python ライブラリを作成しました。

主要パラメータ:

* do_threaded_work – この関数は、指定された一連のタスクを対応する処理関数に割り当てます (割り当て順序は決定されません)

* ThreadedWorker – このクラスは、同期された作業キューから作業タスクを取得し、処理結果を同期された結果キューに書き込むスレッドを作成します

* start_logging_with_thread_info – すべてのログ メッセージにスレッド ID を書き込みます。 (ログ環境により異なります)

* stop_logging_with_thread_info – すべてのログ メッセージからスレッド ID を削除するために使用されます。 (ログ環境により異なります)

import threading
import logging
 
def do_threaded_work(work_items, work_func, num_threads=None, per_sync_timeout=1, preserve_result_ordering=True):
  """ Executes work_func on each work_item. Note: Execution order is not preserved, but output ordering is (optionally).
 
    Parameters:
    - num_threads        Default: len(work_items) --- Number of threads to use process items in work_items.
    - per_sync_timeout     Default: 1        --- Each synchronized operation can optionally timeout.
    - preserve_result_ordering Default: True       --- Reorders result_item to match original work_items ordering.
 
    Return: 
    --- list of results from applying work_func to each work_item. Order is optionally preserved.
 
    Example:
 
    def process_url(url):
      # TODO: Do some work with the url
      return url
 
    urls_to_process = ["http://url1.com", "http://url2.com", "http://site1.com", "http://site2.com"]
 
    # process urls in parallel
    result_items = do_threaded_work(urls_to_process, process_url)
 
    # print(results)
    print(repr(result_items))
  """
  global wrapped_work_func
  if not num_threads:
    num_threads = len(work_items)
 
  work_queue = Queue.Queue()
  result_queue = Queue.Queue()
 
  index = 0
  for work_item in work_items:
    if preserve_result_ordering:
      work_queue.put((index, work_item))
    else:
      work_queue.put(work_item)
    index += 1
 
  if preserve_result_ordering:
    wrapped_work_func = lambda work_item: (work_item[0], work_func(work_item[1]))
 
  start_logging_with_thread_info()
 
  #spawn a pool of threads, and pass them queue instance 
  for _ in range(num_threads):
    if preserve_result_ordering:
      t = ThreadedWorker(work_queue, result_queue, work_func=wrapped_work_func, queue_timeout=per_sync_timeout)
    else:
      t = ThreadedWorker(work_queue, result_queue, work_func=work_func, queue_timeout=per_sync_timeout)
    t.setDaemon(True)
    t.start()
 
  work_queue.join()
  stop_logging_with_thread_info()
 
  logging.info('work_queue joined')
 
  result_items = []
  while not result_queue.empty():
    result = result_queue.get(timeout=per_sync_timeout)
    logging.info('found result[:500]: ' + repr(result)[:500])
    if result:
      result_items.append(result)
 
  if preserve_result_ordering:
    result_items = [work_item for index, work_item in result_items]
 
  return result_items
 
class ThreadedWorker(threading.Thread):
  """ Generic Threaded Worker
    Input to work_func: item from work_queue
 
  Example usage:
 
  import Queue
 
  urls_to_process = ["http://url1.com", "http://url2.com", "http://site1.com", "http://site2.com"]
 
  work_queue = Queue.Queue()
  result_queue = Queue.Queue()
 
  def process_url(url):
    # TODO: Do some work with the url
    return url
 
  def main():
    # spawn a pool of threads, and pass them queue instance 
    for i in range(3):
      t = ThreadedWorker(work_queue, result_queue, work_func=process_url)
      t.setDaemon(True)
      t.start()
 
    # populate queue with data  
    for url in urls_to_process:
      work_queue.put(url)
 
    # wait on the queue until everything has been processed   
    work_queue.join()
 
    # print results
    print repr(result_queue)
 
  main()
  """
 
  def __init__(self, work_queue, result_queue, work_func, stop_when_work_queue_empty=True, queue_timeout=1):
    threading.Thread.__init__(self)
    self.work_queue = work_queue
    self.result_queue = result_queue
    self.work_func = work_func
    self.stop_when_work_queue_empty = stop_when_work_queue_empty
    self.queue_timeout = queue_timeout
 
  def should_continue_running(self):
    if self.stop_when_work_queue_empty:
      return not self.work_queue.empty()
    else:
      return True
 
  def run(self):
    while self.should_continue_running():
      try:
        # grabs item from work_queue
        work_item = self.work_queue.get(timeout=self.queue_timeout)
 
        # works on item
        work_result = self.work_func(work_item)
 
        #place work_result into result_queue
        self.result_queue.put(work_result, timeout=self.queue_timeout)
 
      except Queue.Empty:
        logging.warning('ThreadedWorker Queue was empty or Queue.get() timed out')
 
      except Queue.Full:
        logging.warning('ThreadedWorker Queue was full or Queue.put() timed out')
 
      except:
        logging.exception('Error in ThreadedWorker')
 
      finally:
        #signals to work_queue that item is done
        self.work_queue.task_done()
 
def start_logging_with_thread_info():
  try:
    formatter = logging.Formatter('[thread %(thread)-3s] %(message)s')
    logging.getLogger().handlers[0].setFormatter(formatter)
  except:
    logging.exception('Failed to start logging with thread info')
 
def stop_logging_with_thread_info():
  try:
    formatter = logging.Formatter('%(message)s')
    logging.getLogger().handlers[0].setFormatter(formatter)
  except:
    logging.exception('Failed to stop logging with thread info')

使用例

from test import ThreadedWorker
from queue import Queue
 
urls_to_process = ["http://facebook.com", "http://pypix.com"]
 
work_queue = Queue()
result_queue = Queue()
 
def process_url(url):
  # TODO: Do some work with the url
  return url
 
def main():
  # spawn a pool of threads, and pass them queue instance 
  for i in range(5):
    t = ThreadedWorker(work_queue, result_queue, work_func=process_url)
    t.setDaemon(True)
    t.start()
 
  # populate queue with data  
  for url in urls_to_process:
    work_queue.put(url)
 
  # wait on the queue until everything has been processed   
  work_queue.join()
 
  # print results
  print(repr(result_queue))
 
main()

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
Pythonの主な目的:柔軟性と使いやすさPythonの主な目的:柔軟性と使いやすさApr 17, 2025 am 12:14 AM

Pythonの柔軟性は、マルチパラダイムサポートと動的タイプシステムに反映されていますが、使いやすさはシンプルな構文とリッチ標準ライブラリに由来しています。 1。柔軟性:オブジェクト指向、機能的および手続き的プログラミングをサポートし、動的タイプシステムは開発効率を向上させます。 2。使いやすさ:文法は自然言語に近く、標準的なライブラリは幅広い機能をカバーし、開発プロセスを簡素化します。

Python:汎用性の高いプログラミングの力Python:汎用性の高いプログラミングの力Apr 17, 2025 am 12:09 AM

Pythonは、初心者から上級開発者までのすべてのニーズに適した、そのシンプルさとパワーに非常に好まれています。その汎用性は、次のことに反映されています。1)学習と使用が簡単、シンプルな構文。 2)Numpy、Pandasなどの豊富なライブラリとフレームワーク。 3)さまざまなオペレーティングシステムで実行できるクロスプラットフォームサポート。 4)作業効率を向上させるためのスクリプトおよび自動化タスクに適しています。

1日2時間でPythonを学ぶ:実用的なガイド1日2時間でPythonを学ぶ:実用的なガイドApr 17, 2025 am 12:05 AM

はい、1日2時間でPythonを学びます。 1.合理的な学習計画を作成します。2。適切な学習リソースを選択します。3。実践を通じて学んだ知識を統合します。これらの手順は、短時間でPythonをマスターするのに役立ちます。

Python vs. C:開発者の長所と短所Python vs. C:開発者の長所と短所Apr 17, 2025 am 12:04 AM

Pythonは迅速な開発とデータ処理に適していますが、Cは高性能および基礎となる制御に適しています。 1)Pythonは、簡潔な構文を備えた使いやすく、データサイエンスやWeb開発に適しています。 2)Cは高性能で正確な制御を持ち、ゲームやシステムのプログラミングでよく使用されます。

Python:時間のコミットメントと学習ペースPython:時間のコミットメントと学習ペースApr 17, 2025 am 12:03 AM

Pythonを学ぶのに必要な時間は、人によって異なり、主に以前のプログラミングの経験、学習の動機付け、学習リソースと方法、学習リズムの影響を受けます。現実的な学習目標を設定し、実用的なプロジェクトを通じて最善を尽くします。

Python:自動化、スクリプト、およびタスク管理Python:自動化、スクリプト、およびタスク管理Apr 16, 2025 am 12:14 AM

Pythonは、自動化、スクリプト、およびタスク管理に優れています。 1)自動化:OSやShutilなどの標準ライブラリを介してファイルバックアップが実現されます。 2)スクリプトの書き込み:Psutilライブラリを使用してシステムリソースを監視します。 3)タスク管理:スケジュールライブラリを使用してタスクをスケジュールします。 Pythonの使いやすさと豊富なライブラリサポートにより、これらの分野で優先ツールになります。

Pythonと時間:勉強時間を最大限に活用するPythonと時間:勉強時間を最大限に活用するApr 14, 2025 am 12:02 AM

限られた時間でPythonの学習効率を最大化するには、PythonのDateTime、時間、およびスケジュールモジュールを使用できます。 1. DateTimeモジュールは、学習時間を記録および計画するために使用されます。 2。時間モジュールは、勉強と休息の時間を設定するのに役立ちます。 3.スケジュールモジュールは、毎週の学習タスクを自動的に配置します。

Python:ゲーム、GUIなどPython:ゲーム、GUIなどApr 13, 2025 am 12:14 AM

PythonはゲームとGUI開発に優れています。 1)ゲーム開発は、2Dゲームの作成に適した図面、オーディオ、その他の機能を提供し、Pygameを使用します。 2)GUI開発は、TKINTERまたはPYQTを選択できます。 TKINTERはシンプルで使いやすく、PYQTは豊富な機能を備えており、専門能力開発に適しています。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

SublimeText3 Linux 新バージョン

SublimeText3 Linux 新バージョン

SublimeText3 Linux 最新バージョン

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境