Cache-Penetration besteht darin, einen nicht vorhandenen Schlüssel auf der Client-/Browserseite anzufordern nicht in der Datenbank vorhanden und die Datenquelle ist nicht in der Datenbank vorhanden. Jedes Mal, wenn eine Anforderung für diesen Schlüssel nicht aus dem Cache abgerufen werden kann, wird die Datenquelle angefordert.
Wenn Sie eine nicht vorhandene Benutzer-ID verwenden, um auf Benutzerinformationen zuzugreifen, befindet sich diese weder in Redis noch in der Datenbank. Mehrere Anfragen können die Datenquelle überfordern.
#🎜🎜 #
1.2 Lösung Daten, die nicht im Cache vorhanden sein dürfen und nicht abgefragt werden können, da der Cache bei einem Fehler passiv geschrieben wird, existiert der Cache nicht Aus Gründen der Fehlertoleranz werden die Daten, die nicht abgefragt werden können, nicht in Redis zwischengespeichert, was dazu führt, dass die Datenbank jedes Mal angefordert wird, wenn nicht vorhandene Daten angefordert werden, wodurch die Bedeutung des Caching verloren geht. (1) Wenn die von einer Abfrage zurückgegebenen Daten leer sind (unabhängig davon, ob die Daten nicht vorhanden sind), werden wir das leere Ergebnis (null) trotzdem zwischenspeichern und die Ablaufzeit des leeren Ergebnisses festlegen Um sehr kurz zu sein Bitmaps. Jeder Besuch und die IDs in der Bitmap werden verglichen. Wenn die Zugriffs-ID nicht in den Bitmaps enthalten ist, wird sie abgefangen und der Zugriff ist nicht zulässig. (3) Verwenden Sie den Bloom-Filter (4) Führen Sie eine Echtzeit-Datenüberwachung durch und stellen Sie fest, dass die Zugriffsobjekte und Zugriffsdaten überprüft werden, wenn die Trefferquote von Redis schnell abnimmt , und schwarze Liste festlegen. 2. Cache-Aufschlüsselung 2.1 Problembeschreibung Wenn der Benutzer Daten für einen vorhandenen Schlüssel anfordert, sind die Daten des Schlüssels in Redis nicht verfügbar Wenn zu diesem Zeitpunkt eine große Anzahl gleichzeitiger Anforderungen feststellt, dass der Cache abgelaufen ist, fordern sie die Datenquelle auf, die Daten zu laden und in Redis zwischenzuspeichern. Zu diesem Zeitpunkt kann eine große Anzahl gleichzeitiger Anforderungen die Datenbank überfordern Service. 2.2 Lösung Wenn die Daten eines bestimmten Schlüssels in großer Zahl angefordert werden, handelt es sich bei diesem Schlüssel um heiße Daten, die berücksichtigt werden müssen, um das Problem des „Ausfalls“ zu vermeiden. (1) Voreingestellte beliebte Daten: Speichern Sie vor dem Redis-Spitzenzugriff einige beliebte Daten im Voraus in Redis und erhöhen Sie die Länge dieser beliebten Datenschlüssel ( 2 ) Echtzeitanpassung: Vor-Ort-Überwachung, welche Daten beliebt sind, Echtzeitanpassung der Ablauflänge des Schlüssels (3) Sperre verwenden: # 🎜🎜#wird zwischengespeichert. Wenn es fehlschlägt (der herausgenommene Wert wird als leer beurteilt), wird die Datenbank nicht sofort geladen.
Verwenden Sie zunächst einige Operationen des Cache-Tools mit einem erfolgreichen Operationsrückgabewert (z. B. SETNX von Redis), um einen Mutex-Schlüssel festzulegen
3.1 Problembeschreibung
#🎜🎜 #Die entsprechenden Daten sind vorhanden, aber die Schlüsseldaten sind abgelaufen (der Redis-Cache ist abgelaufen und der Schlüssel wird automatisch gelöscht. Zu diesem Zeitpunkt greifen viele gleichzeitige Anforderungen auf unterschiedliche Schlüssel zu, dh auf eine große Anzahl unterschiedlicher Schlüssel). Wenn zu diesem Zeitpunkt auf den Schlüssel zugegriffen wird, wird der Datenbankserver durch eine große Anzahl gleichzeitiger Anforderungen überlastet Ersteres ist ein Schlüssel.(1) Erstellen Sie eine mehrstufige Cache-Architektur:
(2) Sperre oder Warteschlange verwenden:
Zeichnen Sie auf, ob die zwischengespeicherten Daten abgelaufen sind (legen Sie den Vorschussbetrag fest). Wenn sie ablaufen, wird eine Benachrichtigung an einen anderen Thread ausgelöst, um den Cache des tatsächlichen Schlüssels im Hintergrund zu aktualisieren.
(4) Verteilen Sie die Cache-Ablaufzeit:
Für Beispielsweise können wir der ursprünglichen Ablaufzeit einen zufälligen Wert hinzufügen, z. B. 1–5 Minuten nach dem Zufallsprinzip, sodass die Wiederholungsrate jeder zwischengespeicherten Ablaufzeit verringert wird, wodurch es schwierig wird, kollektive Fehlerereignisse zu verursachen.
Das obige ist der detaillierte Inhalt vonSo lösen Sie häufig auftretende Probleme beim Caching von Daten auf Basis von Redis. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!