Rumah >pembangunan bahagian belakang >Tutorial Python >Cara menggunakan cache Python untuk meningkatkan kelajuan akses data

Cara menggunakan cache Python untuk meningkatkan kelajuan akses data

WBOY
WBOYke hadapan
2023-05-15 22:22:121631semak imbas

Python menggunakan cache

Apabila membangunkan aplikasi web atau sistem teragih, caching ialah salah satu penyelesaian biasa, yang boleh meningkatkan prestasi sistem dengan banyak. Dalam Python, kita boleh menggunakan cache memori (contohnya, menggunakan functools.lru_cache) atau storan luaran (contohnya, menggunakan Redis) untuk melaksanakan fungsi caching.

Projek Django disambungkan kepada Redis

Django ialah rangka kerja Web Python yang sangat popular dengan banyak modul berfungsi terbina dalam, termasuk caching. Bahagian belakang cache lalai bagi rangka kerja Django ialah cache memori Walau bagaimanapun, dalam aplikasi sebenar, cache memori boleh menyebabkan ralat OOM (Out of Memory) dengan mudah, jadi kami perlu menyambungkan projek Django kepada perkhidmatan cache luaran, seperti Redis.

Untuk mengakses Redis, kami boleh menggunakan django-redis pemalam Django. Mula-mula, dalam fail settings.py projek, kami perlu mengkonfigurasi maklumat sambungan Redis, contohnya:

CACHES = {
    "default": {
        "BACKEND": "django_redis.cache.RedisCache",
        "LOCATION": "redis://127.0.0.1:6379/1",
        "OPTIONS": {
            "CLIENT_CLASS": "django_redis.client.DefaultClient",
        }
    }
}

Di sini kami menggunakan hujung belakang cache django-redis lalai. Parameter LOCATION menentukan alamat dan port sambungan Redis, dan parameter OPTIONS dalam parameter CLIENT_CLASS menentukan nama kelas klien sambungan Redis.

Seterusnya kita boleh menggunakan objek cache dalam kod untuk melaksanakan operasi cache, contohnya:

from django.core.cache import cache
...
data = cache.get(key)
if not data:
    data = db.query(...)
    cache.set(key, data, timeout=60)

Di sini kami menggunakan cache.get untuk mendapatkan data cache dalam cache, Kemudian gunakan operasi pertanyaan pangkalan data untuk mendapatkan data, dan tulis data ke dalam cache melalui cache.set. Parameter timeout menentukan masa tamat tempoh data cache, dalam beberapa saat.

Sediakan perkhidmatan caching untuk paparan

Di Django, kami boleh menyediakan perkhidmatan caching untuk paparan bagi meningkatkan kelajuan tindak balas paparan. Untuk menyediakan perkhidmatan caching, kami boleh menggunakan penghias yang disediakan dalam modul django.views.decorators.cache.

Caching deklaratif

cache_pagePenghias boleh cache hasil respons paparan ke dalam Redis, contohnya:

from django.views.decorators.cache import cache_page
...
@cache_page(60)
def my_view(request):
    ...

Di sini kami menggunakan cache_page penghias, Cache hasil tindak balas pandangan ke dalam Redis, dan masa tamat tempoh ialah 60 saat.

Perlu diingat bahawa penghias cache_page hanya boleh digunakan untuk paparan fungsi, bukan paparan kelas. Ini kerana ia adalah penghias yang menghiasi fungsi, dan kaedah pandangan kelas tidak boleh dihias secara langsung. Oleh itu, rangka kerja Django menyediakan method_decorator untuk menyelesaikan masalah ini method_decorator ialah penghias yang menghiasi kelas. Contohnya:

from django.utils.decorators import method_decorator
from django.views.decorators.cache import cache_page
@method_decorator(cache_page(timeout=60), name='get')
class MyView(View):
    ...

Di sini kami menggunakan method_decorator untuk menggunakan cache_page penghias pada kaedah get paparan kelas.

Caching terprogram

Selain daripada caching deklaratif, kami juga boleh menggunakan caching program untuk melaksanakan kawalan cache pandangan. Contohnya:

def my_view(request):
    # 先尝试从缓存中获取数据
    data = cache.get(key)
    if not data:
        # 如果缓存中没有数据,则查询数据库
        data = db.query(...)
        # 将查询结果缓存到Redis中
        cache.set(key, data, timeout=60)
    return HttpResponse(data)

Di sini kami menggunakan cache.get untuk mencuba mendapatkan data daripada Redis Jika ia tidak diperoleh, lakukan operasi pertanyaan pangkalan data dan tulis hasil pertanyaan ke Redis.

Perlu diambil perhatian bahawa rangka kerja Django menyediakan dua pembolehubah sedia, cache dan caches, untuk menyokong operasi caching. Operasi membaca dan menulis pada cache boleh dicapai dengan menghantar cache dan get mesej ke objek set, tetapi operasi yang boleh dilakukan dengan cara ini adalah terhad. Jika kita perlu mengendalikan cache dengan lebih fleksibel, kita boleh menggunakan caches['default'] untuk mendapatkan perkhidmatan cache yang ditentukan dan kemudian mengendalikannya. Contohnya:

from django.core.cache import caches
...
redis_cli = caches['default'].client

Isu berkaitan cache

Caching ialah cara pengoptimuman prestasi yang sangat berkesan, tetapi dalam aplikasi sebenar, kita perlu memberi perhatian kepada beberapa isu berkaitan cache untuk mengelakkan ralat yang tidak dijangka .

Cache avalanche

Cache avalanche ialah fenomena di mana sejumlah besar data dalam cache tamat tempoh pada masa yang sama atau pelayan cache tidak berfungsi, menyebabkan cache menjadi tidak sah, menyebabkan peningkatan serta-merta dalam tekanan pada pangkalan data, atau bahkan keruntuhan. Untuk mengelakkan runtuhan cache, kita boleh menggunakan kaedah berikut:

  • Tetapkan masa tamat tempoh cache secara rawak untuk mengelakkan sejumlah besar cache daripada terbatal pada masa yang sama.

  • Gunakan kunci yang diedarkan untuk memastikan ketekalan cache.

  • Gunakan cache berbilang peringkat, seperti meletakkan data panas dalam cache memori dan data sejuk dalam Redis untuk mengelakkan peningkatan tekanan serta-merta yang disebabkan oleh kegagalan cache.

Pecahan cache

Pecahan cache merujuk kepada fenomena di mana sejumlah besar permintaan membanjiri pangkalan data pada masa yang sama selepas cache gagal, menyebabkan pangkalan data menjadi serta-merta meningkatkan tekanan atau bahkan runtuh. Untuk mengelakkan kerosakan cache, kita boleh menggunakan kaedah berikut:

  • Gunakan mutex untuk mengelakkan sejumlah besar permintaan daripada membanjiri pangkalan data pada masa yang sama.

  • Pramuat cache, iaitu, muat semula cache terlebih dahulu sebelum cache tamat tempoh untuk mengelakkan sejumlah besar permintaan apabila cache tamat tempoh.

  • Gunakan cache data hotspot untuk meletakkan data yang kerap diminta dalam cache memori untuk mengelakkan sejumlah besar permintaan apabila cache gagal.

Penembusan Cache

Penembusan Cache merujuk kepada fenomena bahawa tiada data yang diperlukan dalam cache, menyebabkan permintaan untuk mengakses pangkalan data secara langsung, menyebabkan peningkatan tekanan pada pangkalan data atau pun kemalangan. Untuk mengelakkan penembusan cache, kita boleh menggunakan kaedah berikut:

  • Untuk data yang tiada dalam cache, anda boleh menetapkan nilai lalai untuk mengelakkan meminta akses terus ke pangkalan data.

  • Gunakan penapis Bloom untuk merekod data yang tidak wujud dalam cache untuk mengelakkan akses terus ke pangkalan data.

  • Sahkan parameter permintaan untuk mengelakkan permintaan yang menyalahi undang-undang untuk mengakses pangkalan data.

Atas ialah kandungan terperinci Cara menggunakan cache Python untuk meningkatkan kelajuan akses data. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:yisu.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam