首頁 >後端開發 >Python教學 >如何使用Celery實現分散式任務調度

如何使用Celery實現分散式任務調度

王林
王林原創
2023-08-02 08:53:181564瀏覽

如何使用Celery實現分散式任務調度

概述:
Celery是Python中最常用的分散式任務佇列庫之一,它可以用來實現非同步任務調度。本文將介紹如何使用Celery來實現分散式任務調度,並附上程式碼範例。

  1. 安裝與設定Celery

#首先,我們要安裝Celery函式庫。可以透過以下指令來安裝Celery:

pip install celery

安裝完成後,我們需要建立一個Celery的設定檔。建立一個名為celeryconfig.py的文件,並加入以下內容:

broker_url = 'amqp://guest@localhost//'     # RabbitMQ服务器地址
result_backend = 'db+sqlite:///results.sqlite'   # 结果存储方式(使用SQLite数据库)
task_serializer = 'json'    # 任务序列化方式
result_serializer = 'json'  # 结果序列化方式
accept_content = ['json']   # 接受的内容类型
timezone = 'Asia/Shanghai'  # 时区设置
  1. 建立Celery應用程式
##在程式碼中,我們需要匯入Celery庫,並建立一個Celery應用程式。以下是一個範例:

from celery import Celery

app = Celery('mytasks', include=['mytasks.tasks'])
app.config_from_object('celeryconfig')

在上面的程式碼中,我們建立了一個名為

mytasks的Celery套用,並將celeryconfig.py中的設定套用到Celery應用中。

    建立任務
接下來,我們需要建立一個任務。任務是一個獨立的函數,可以執行單獨的操作。以下是一個範例:

# tasks.py
from mytasks import app

@app.task
def add(x, y):
    return x + y

在上面的程式碼中,我們定義了一個名為

add的任務,用來計算兩個數的和。

    啟動Celery Worker
要讓任務能夠分散執行,我們需要啟動一個或多個Celery Worker來處理任務。可以透過以下指令來啟動Celery Worker:

celery -A mytasks worker --loglevel=info

啟動完成後,Celery Worker將會監聽並處理佇列中的任務。

    提交任務
在其他程式碼中,我們可以提交任務到Celery佇列中。以下是一個範例:

# main.py
from mytasks.tasks import add

result = add.delay(4, 6)
print(result.get())

在上面的程式碼中,我們匯入了先前定義的

add任務,然後使用delay方法提交一個任務。 delay方法將會傳回一個AsyncResult對象,我們可以透過呼叫get方法來取得任務的結果。

    監控任務完成狀態
我們可以使用

AsyncResult物件來監控任務的執行狀態。以下是一個範例:

# main.py
from mytasks.tasks import add

result = add.delay(4, 6)
while not result.ready():
    print("Task is still running...")
    time.sleep(1)

print(result.get())

在上面的程式碼中,我們透過循環來監控任務的執行狀態。

ready方法將傳回任務是否已完成的布林值。

總結:

本文簡要介紹如何使用Celery實現分散式任務調度。透過安裝和設定Celery,建立Celery應用,定義任務,啟動Celery Worker,並提交任務到佇列中,我們可以實現分散式任務調度。使用Celery可以提高任務執行效率,適用於需要進行平行計算或非同步處理的情況。

以上是如何使用Celery實現分散式任務調度的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn