検索
ホームページバックエンド開発Python チュートリアルPython を使用した同時プログラミング

コンピューター プログラムの同時実行はよく議論されるトピックですが、今日は Python でのさまざまな同時実行方法について説明したいと思います。

同時実行方式

スレッド

マルチスレッドは、あらゆる言語を使用するときにほぼすべてのプログラマーが最初に考えるツールです (JS プログラマーは避けてください)、マルチスレッドの使用は効果的です CPU リソースを活用します (Python を除く) 。ただし、マルチスレッドによってもたらされるプログラムの複雑さ、特に競合するリソースの同期の問題は避けられません。

ただし、Python では Global Interpretation Lock (GIL) が使用されているため、コードを複数のコアで同時に実行することはできません。つまり、Python のマルチスレッドを同時に実行できないことに気づくでしょう。 - スレッド化によって、Python コードを追加すると、プログラムの実行効率が大幅に低下します。さらに詳しく知りたい場合は、この記事を読むことをお勧めします。実際、マルチスレッド プログラミング モデルを使用するのは非常に難しく、プログラマーは間違いを犯しやすいです。これはプログラマーのせいではありません。なぜなら、並列思考は非人間的であり、私たちのほとんどは逐次的に思考するからです (統合失調症については議論されていません)。 、フォン・ノイマンによって設計されたコンピュータ アーキテクチャも逐次実行に基づいています。マルチスレッド プログラムを常に処理できない場合は、おめでとうございます。あなたは正常な思考のプログラマーです:)

Python には 2 つのスレッド インターフェイス セットがあり、1 つはスレッド モジュールであり、基本的な低レベル (低レベル) を提供します。 ) Level) インターフェイス。スレッドの実行本体として Function を使用します。また、(Java に似た) 使いやすいオブジェクトベースのインターフェイスを提供するスレッド モジュールのグループもあり、Thread オブジェクトを継承してスレッドを実装したり、Timer などの他のスレッド関連オブジェクトも提供したりできます。 Lock

スレッドモジュールの使用例

1

2

3

4

5

import thread

def worker():

"""スレッドワーカー関数"""

PRint 'Worker'

thread.start_new_thread(worker)

スレッドモジュールの使用例

1

2

3

4

5

6

インポートスレッド

def worker():

"""スレッドワーカー関数"""

print 'Worker'

t = threading.Thread(target=worker)

t.start()

or Java スタイル

1

2

3

4

5

6

7

8

9

10

インポートスレッドing

クラスワーカー(スレッドing.Thread) :

def __init__(self) :

PASSf DEF RUN ():

"" Thread Worker Function "" "

Print 'worker'

t = worker ()

t.start ()

Process (プロセス)

前述のグローバル解釈ロックの問題のため、Python でのより良い並列方法は、CPU リソースを使用できる複数のプロセスを使用することです。非常に効果的に、真の並行性を実現します。もちろん、プロセスのオーバーヘッドはスレッドのオーバーヘッドよりも大きいため、驚くべき数の同時プロセスを作成したい場合は、マシンが強力な心臓を備えているかどうかを考慮する必要があります。

Python の multiprocess モジュールには、スレッド化と同様のインターフェイスがあります。

1

2

3

4

5

6

7

8

from multiprocessing import Process

def ():

"""スレッドワーカーfunction"""

print 'Worker'

p = Process(target=worker)

p.start()

p.join()

🎜 スレッドは同じアドレス空間とメモリを共有しているため、したがって、スレッド間の通信は非常に簡単ですが、プロセス間の通信はより複雑です。一般的なプロセス間通信には、パイプ、メッセージ キュー、ソケット インターフェイス (TCP/IP) などが含まれます。 🎜🎜Python の multiprocess モジュールは、プロセス間でメッセージを簡単に転送できるカプセル化されたパイプとキューを提供します。 🎜🎜Pythonプロセス間の同期には、スレッドと同じロックが使用されます。 🎜🎜さらに、Python はスレッドを簡単に管理および制御できるプロセス プール Pool オブジェクトも提供します。 🎜🎜リモート分散ホスト (分散ノード)🎜

ビッグデータ時代の到来により、ムーアの定理は単一のマシンでは効果を失ったようです。データの計算と処理には、複数のホスト ノードで並行して実行されるプログラムが必要です。 . ソフトウェア アーキテクチャで考慮する必要がある問題。

リモート ホスト間のプロセス間通信にはいくつかの一般的な方法があります

TCP/IP

TCP/IP はすべてのリモート通信の基礎ですが、API は比較的低レベルで使用が難しいため、一般的には考慮されていません

リモート関数呼び出し

RPC は、リモート プロセス間通信の初期の手段です。 Python にはオープンソース実装 RPyC があります

リモート オブジェクト

リモート オブジェクトは、より高レベルのカプセル化であり、プログラムはローカル オブジェクトと同じ方法でリモート オブジェクトのローカル プロキシを操作できます。 CORBA は、リモート オブジェクトで最も広く使用されている仕様です。CORBA の最大の利点は、さまざまな言語とプラットフォームで通信できることです。さまざまな言語やプラットフォームにも、Java の RMI、MS の DCOM

Python のオープンソース実装など、独自のリモート オブジェクト実装があり、リモート オブジェクトのサポートが多数あります

Dopy

Fnorb (CORBA)

ICE

omniORB (CORBA)

Pyro

YAMI

Message Queue

RPC やリモート オブジェクトと比較して、メッセージは、Python インターフェイスをサポートする一般的なメッセージ メカニズムです。

RabbitMQ

ZeroMQ

Kafka

AWS SQS + BOTO

リモートホストでの同時実行とローカルマルチプロセスの実行には大きな違いはなく、どちらもプロセス間通信の問題を解決する必要があります。もちろん、リモート プロセスの管理と調整はローカル プロセスよりも複雑です。

Python には、分散同時実行をサポートし、効果的な管理方法を提供するオープンソース フレームワークが数多くあります。以下のものが挙げられます。

Celery

Celery は、分散システム タスクで非同期に実行でき、効果的な管理とスケジューリングを提供する、非常に成熟した Python 分散フレームワークです。機能。こちらを参照してください

SCOOP

SCOOP (Scalable COncurrent Operations in Python) は、同時実行用の Future インターフェイスを使用した、シンプルで使いやすい分散呼び出しインターフェイスを提供します。

Dispy

Celery や SCOOP と比較して、Dispy はより軽量な分散並列サービスを提供します

PP

PP (Parallel Python) は別の軽量 Python 並列サービスです。こちらを参照してください

Asyncoro

Asyncoro は別の Python フレームワークです。分散同時実行性を実現するためにジェネレーターを使用します

もちろん、他にも多くのシステムがありますが、1 つずつリストしていません

さらに、多くの分散システムは、Spark

疑似スレッドをサポートしています。

一般的ではない別の同時実行メソッドがあります。これは、スレッドのように見え、スレッド インターフェイスに似たインターフェイスを使用しますが、実際には非スレッド メソッドを使用します。対応するスレッド オーバーヘッドは次のとおりです。保存されていません。

greenlet

greenlet は、プロセス内同時実行をサポートする軽量のコルーチンを提供します。

greenlet は Stackless の副産物であり、mirco-thread と呼ばれるテクノロジーをサポートするためにタスクレットを使用します。 以下に、greenlet を使用した疑似スレッドの例を示します

1

2

3

4

5。

6

7

8

9

10

11

12

13

14

15

from greenlet import greenlet

def test1 ():

print 12

gr2.switch()

print 34

def test2():

print 56

gr1.switch()

Print 78

gr1 = greenlet(test1)

gr2 = greenさせて( test2)

gr1.switch()

上記のプログラムを実行すると、次の結果が得られます:

1

2

3

12

56

34

疑似スレッド gr1 スイッチは 12 を出力し、次に gr2 スイッチを呼び出して 56 を取得し、その後 gr1 に戻り、34 を出力します。その後、疑似スレッド gr1 が終了してプログラムが終了するため、78 は出力されません。この例から、擬似スレッドを使用するとプログラムの実行フローを効果的に制御できることがわかりますが、擬似スレッドには実際の同時実行性がありません。

Eventlet、gevent、concurence はすべて、greenlet に基づいた同時実行性を提供します。

eventlet http://eventlet.net/

eventlet は、ネットワーク呼び出しの同時実行を提供する Python ライブラリであり、ユーザーは非ブロッキングな方法でブロッキング IO 操作を呼び出すことができます。

1

2

3

4

5

6

7

8

9

10

11

12

eventlet.green からイベントレット

をインポートimport urllib2

urls = ['http://www.google.com', 'http://www.example.com', 'http://www.python.org']

def fetch(url):

return urllib2.urlopen(url).read()

EPool = Eventlet.greenPool ()

FOR BODY in Pool.imap (fetch, urls):

Print ("Got Body", Len (Body)

実行結果は以下の通りです

1

2

3

('got body', 17629)

('got body', 1270)

('got body', 46949)

イベントレット注文urllib2ジェネレータ操作をサポートするように変更されており、インターフェイスは urllib2 と一貫しています。ここでの GreenPool は、Python の Pool インターフェイスと一致しています。

gevent

gevent は、eventlet と似ています。その違いについては、

import gevent

from gevent importソケット

urls = ['www.google.com', 'www.example.com' を参照してください。 , 'www.python.org']

jobs = [gevent.spawn(socket.gethostbyname, url) for urls]

gevent.joinall(jobs, timeout=2)

print [job.value for job in jobs]

実行結果は次のとおりです:

1

[ '206.169.145.226', '93.184.216.34', 3分]

concurrence https://github.com/concurrence/concurrence

concurence は別のグリーンレットです ネットワーク同時実行性を提供します 私はオープンソース ライブラリを使用したことがないので、自分で試すことができます。

実用的なアプリケーション

同時実行性が必要となる状況は通常 2 つあります。1 つは計算集約型であり、プログラムが大量の CPU リソースを必要とすることを意味し、もう 1 つは IO 集約型であり、プログラムで大量の読み取りが行われる可能性があります。書き込み操作には、ファイルの読み取りと書き込み、ネットワーク要求の送受信などが含まれます。

計算負荷の高いアプリケーション

計算負荷の高いアプリケーションに対応して、有名なモンテカルロ アルゴリズムを選択して PI 値を計算します。基本原理は次のとおりです

モンテカルロアルゴリズムは、統計原理を使用して円周率をシミュレートし、計算します。正方形において、1/4の円の領域に入るランダムな点(赤い点)の確率は、その円周率に比例します。エリア。つまり、確率 p = Pi * R * R / 4: R * R です。ここで、R は正方形の辺の長さと円の半径です。つまり、確率は円周率の 1/4 です。この結論を使用すると、点が 4 分の 1 円に当たる確率をシミュレーションする限り、この確率を求めることができます。多くの実験を行って、大量の点を生成し、その点がどの領域にあるかを確認し、結果を計算します。

基本的なアルゴリズムは次のとおりです:

1

2

3

4

5

from math import hypert

Python を使用した同時プログラミングfrom random import randa

def test (試行):

return sum(hypot(random(), random())

ここで、テストメソッドは n (試行) 回のテストを実行し、4 分の 1 の円を返します。ポイント。判定方法は、点から円の中心までの距離がR未満であれば円上にあります。

大量の同時実行により、複数のテストを迅速に実行でき、実行するテストの数が増えるほど、結果は真の pi に近づきます。

ここでは、さまざまな同時実行方式のプログラム コードを示します

非同時実行

最初は単一スレッドで実行しますが、パフォーマンスがどのようになるかを確認するためにプロセスで実行します

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

数学インポート Hypot より

ランダムからインポートランダム

インポートイベントレット

インポート時間

def test(tries):

return sum(hypot(random(), random())

def calcPi(nbFutures, Trys):

ts = time.time()

result = map(test, [tries] * nbFutures)

ret = 4. * sum(result) / float (nbFu tures * Trys) スパン

マルチスレッド

スレッドプールを使用するために、マルチスレッドをカプセル化したマルチプロセッシングのダミーパッケージを使用します。ここのコードではスレッドについてまったく言及していませんが、間違いなくマルチスレッドであることに注意してください。

テストの結果、スレッド プール数を 1 に設定した場合の実行結果は、スレッド プール数を 5 に設定した場合とほぼ 2 倍高速であることがわかりました。同時実行を行わない場合よりも、テスト データの所要時間は 5 秒から 9 秒になりました。したがって、計算負荷の高いタスクの場合は、マルチスレッドをあきらめたほうがよいでしょう。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

from multiprocessing.dummy import Pool

from mathインポートhypot

fromランダムインポートランダム

インポート時間

デフォルトテスト( Trys):

return sum(hypot(random(), random())

def calcPi(nbFutures, Trys):

ts = time.time()

p = Pool(1)

result = p.map(test, [tries] * nbFutures)

ret = 4. * sum(result) / float(nbFutures * Trys)

span = time.time( ) - ts

print "消費時間"、span

return ret

if __name__ == '__main__':

p = Pool()

print("pi = {}".format(calcPi( 3000, 4000)))

multiprocess multiprocess

理論的には、計算集約型のタスクでは、マルチプロセスの同時実行を使用する方が適切です。次の例では、プロセス プールのサイズは次のように設定されています。 5. 変更します。プロセス プールのサイズが結果に与える影響を確認できます。プロセス プールを 1 に設定すると、この時点では同時実行性がないため、マルチスレッドの結果に必要な時間は同様になります。 2 に設定すると、応答時間は同時実行なしの場合の半分になりますが、プロセス プールを拡張し続けるとパフォーマンスにほとんど影響がなく、おそらく Apple Air の CPU のみが低下する可能性があります。コアが2つありますか?

非常に大規模なプロセス プールを設定すると、システムはあまりにも多くのプロセスの作成をサポートできないため、注意してください。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

マルチプロセッシングインポートプールから

数学からインポートhypot

ランダムからインポートランダム

インポート時間

デフォルトテスト(試行):

return sum(hypot(random(), random())

def calcPi(nbFutures, Trys):

ts = time.time()

p = プール(5)

result = p.map(test, [tries] * nbFutures) ret = 4. * sum(result) / float(nbFutures * Trys) span = time.time() - ts

print "消費時間"、span

return ret

if __name__ == '__main__':

print("pi = {}".format(calcPi(3000, 4000)))

gevent ( pseudo-thread)

geventでもeventletでも、実際には同時実行がないため、応答時間は同時実行なしの場合とあまり変わりません。これはテスト結果と一致しています。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

import gevent

数学から import hybrid

import time

def test(tries):

return sum(hypot(random(),ランダム())

def calcPi(nbFutures, Trys):

ts = time.time()

jobs = [gevent.spawn(test, t) for t in [tries] * nbFutures]

gevent.joinall(jobs, timeout=2)

ret = 4. * sum([job.value for jobs in jobs]) / float(nbFutures * Trys)

span = time.time() - ts

print 「所要時間」、span

return ret

print calcPi(3000,4000)

イベントレット(伪線程)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

from math import hypot

from random import random

import eventlet

import time

def test(trys):

return sum(hypot(random(), random ())

def calcPi(nbFutures, Trys):

ts = time.time()

pool = eventlet.GreenPool()

result = プール。 IMAP(test、[tries]*nbfutures)

ret = 4.*sum(result)/float(nbfutures*trie)

return ret

print calcPi(3000,4000)

SCOOP

SCOOP内の将来のインターフェース標識PEP-3148の定義、ヤ就Python3 で提供される将来のインターフェイスです。

省スペースな SCOOP 構成環境 (単体マシン、ワーカー 4 台) でのパフォーマンスは向上していますが、2 つのプロセス池構成とは異なります。

6

7

8

9

10

11

12

13

14

15

16

17

18

19

from math import hypot

from random import random

from scoop import futures

import time

def test(tries):

return sum(hypot(random(), random()) span = time.time() - ts

print 「消費時間」、span

return ret

if __name__ == 「__main__」 :

print("pi = {}".format(calcPi(3000, 4000)))

セロリ

任务代码

1

2

3

4

5

6

7

8

9

10

11

from celery import Celery

from math import hypot

ランダムインポートからランダム

アプリ = セロリ(' task'、backend='amqp'、broker='amqp://guest@localhost//')

app.conf.CELERY_RESULT_BACKEND = 'db+sqlite:///results.sqlite'

@app. task

def test(tries):

return sum(hypot(random(), random())

客户端代

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

セロリ 輸入品group

タスクからインポートテスト

インポート時間

def calcPi(nbFutures, Trys):

ts = time.time()

result = group(test.s(tries) for i in xrange (nbFutures))().get()

ret = 4. * sum(result) / float(nbFutures * tries)

span = time.time() - ts

print 「消費時間」、スパン

return ret

print calcPi(3000, 4000)

Celery を使用した同時実行テストの結果は予想外でした (環境は単一マシン、4frefork 同時実行、メッセージ ブローカーは RabbitMQ です)。応答時間は全テスト ケースの中で最悪で、同時実行なしの場合の 5 ~ 6 倍でした。 。これは、制御調整のオーバーヘッドが大きすぎることが原因である可能性があります。このようなコンピューティング タスクには、Celery は適切な選択ではない可能性があります。

asyncoro

Asyncoro のテスト結果は、非同時実行性と一致しています。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

asyncoro

をインポート

数学からインポートhypot

ランダムからインポートランダム

インポート時間

defテスト(試行):

利回り合計(hypot(ランダム()、ランダム())

def calcPi(nbFutures, Trys):

ts = time.time()

coros = [ asyncoro.Coro (test,t) for t in [tries] * nbFutures]

ret = 4. * sum([job.value() for job in coros]) / float(nbFutures * Trys)

scan = time.time( ) - ts

print "time Spend "、span

return ret

print calcPi(3000,4000)

IO 集中型

IO 集中型のタスクも一般的な使用例です。たとえば、次のようになります。ネットワーク WEB サーバーはその一例であり、1 秒あたりに処理できるリクエストの数は WEB サーバーの重要な指標です。

最も単純な例として Web ページの読み取りを考えてみましょう

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

数学インポートhypotから

インポート時間

import urllib2

urls = ['http://www.google. com' , ' http://www.example.com', 'http://www.python.org']

def test(url):

return urllib2.urlopen(url).read()

def testIO(nbF​​utures):

ts = time.time()

map(test, urls * nbFutures)

span = time.time() - ts

印刷時間 "、span

testIO(10)

さまざまな同時実行ライブラリのコードは比較的似ているため、1 つずつリストしません。計算負荷の高いコードを参考として参照してください。

テストを通じて、IO 集中型のタスクでは、マルチスレッドまたはマルチプロセスを使用すると、プログラムの効率が効果的に向上することがわかりました。同時実行なしでは時間が 9 秒から 0.03 秒に増加しました。同時に、eventlet/gevent は、非常に便利なノンブロッキングの非同期呼び出しモードを提供します。応答時間が同等であれば、スレッドと擬似スレッドの方が消費するリソースが少ないため、ここではスレッドまたは擬似スレッドを使用することをお勧めします。

概要

Python では、さまざまなシナリオに応じてさまざまな同時実行メソッドを選択する必要があります。適切な方法を選択するには、その方法の原理を理解するだけでなく、いくつかのテストと実験を行う必要があります。データは、選択を行うための最良の参考になります。

上記は Python を使用した同時プログラミングの内容です。その他の関連記事については、PHP 中国語 Web サイト (www.php.cn) に注目してください。



声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
Pythonと時間:勉強時間を最大限に活用するPythonと時間:勉強時間を最大限に活用するApr 14, 2025 am 12:02 AM

限られた時間でPythonの学習効率を最大化するには、PythonのDateTime、時間、およびスケジュールモジュールを使用できます。 1. DateTimeモジュールは、学習時間を記録および計画するために使用されます。 2。時間モジュールは、勉強と休息の時間を設定するのに役立ちます。 3.スケジュールモジュールは、毎週の学習タスクを自動的に配置します。

Python:ゲーム、GUIなどPython:ゲーム、GUIなどApr 13, 2025 am 12:14 AM

PythonはゲームとGUI開発に優れています。 1)ゲーム開発は、2Dゲームの作成に適した図面、オーディオ、その他の機能を提供し、Pygameを使用します。 2)GUI開発は、TKINTERまたはPYQTを選択できます。 TKINTERはシンプルで使いやすく、PYQTは豊富な機能を備えており、専門能力開発に適しています。

Python vs. C:比較されたアプリケーションとユースケースPython vs. C:比較されたアプリケーションとユースケースApr 12, 2025 am 12:01 AM

Pythonは、データサイエンス、Web開発、自動化タスクに適していますが、Cはシステムプログラミング、ゲーム開発、組み込みシステムに適しています。 Pythonは、そのシンプルさと強力なエコシステムで知られていますが、Cは高性能および基礎となる制御機能で知られています。

2時間のPython計画:現実的なアプローチ2時間のPython計画:現実的なアプローチApr 11, 2025 am 12:04 AM

2時間以内にPythonの基本的なプログラミングの概念とスキルを学ぶことができます。 1.変数とデータ型、2。マスターコントロールフロー(条件付きステートメントとループ)、3。機能の定義と使用を理解する4。

Python:主要なアプリケーションの調査Python:主要なアプリケーションの調査Apr 10, 2025 am 09:41 AM

Pythonは、Web開発、データサイエンス、機械学習、自動化、スクリプトの分野で広く使用されています。 1)Web開発では、DjangoおよびFlask Frameworksが開発プロセスを簡素化します。 2)データサイエンスと機械学習の分野では、Numpy、Pandas、Scikit-Learn、Tensorflowライブラリが強力なサポートを提供します。 3)自動化とスクリプトの観点から、Pythonは自動テストやシステム管理などのタスクに適しています。

2時間でどのくらいのPythonを学ぶことができますか?2時間でどのくらいのPythonを学ぶことができますか?Apr 09, 2025 pm 04:33 PM

2時間以内にPythonの基本を学ぶことができます。 1。変数とデータ型を学習します。2。ステートメントやループの場合などのマスター制御構造、3。関数の定義と使用を理解します。これらは、簡単なPythonプログラムの作成を開始するのに役立ちます。

プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は?プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は?Apr 02, 2025 am 07:18 AM

10時間以内にコンピューター初心者プログラミングの基本を教える方法は?コンピューター初心者にプログラミングの知識を教えるのに10時間しかない場合、何を教えることを選びますか...

中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか?中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか?Apr 02, 2025 am 07:15 AM

fiddlereveryversings for the-middleの測定値を使用するときに検出されないようにする方法

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

DVWA

DVWA

Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

MantisBT

MantisBT

Mantis は、製品の欠陥追跡を支援するために設計された、導入が簡単な Web ベースの欠陥追跡ツールです。 PHP、MySQL、Web サーバーが必要です。デモおよびホスティング サービスをチェックしてください。

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。