Heim > Artikel > Betrieb und Instandhaltung > Was sind die Implementierungsmethoden für den Nginx-Lastausgleich?
Im Servercluster übernimmt Nginx die Rolle eines Proxyservers (d. h. Reverse-Proxy). Um übermäßigen Druck auf einen einzelnen Server zu vermeiden, leitet es Anfragen von Benutzern an verschiedene Server weiter. Mithilfe des Lastausgleichs wird ein Server aus der vom „Upstream“-Modul definierten Back-End-Serverliste ausgewählt, um Benutzeranfragen anzunehmen.
Mehrere gängige Methoden des Lastausgleichs
1. Abfrage (Standard)
Jede Anfrage Sie werden zugewiesen nacheinander in chronologischer Reihenfolge auf verschiedene Back-End-Server übertragen. Wenn der Back-End-Server ausfällt, kann er automatisch eliminiert werden.
upstream backserver { server 192.168.0.14; server 192.168.0.15; }
2. Gewichtung
gibt die Abfragewahrscheinlichkeit an. Die Gewichtung ist proportional zum Zugriffsverhältnis und wird verwendet, wenn die Back-End-Serverleistung ungleichmäßig ist.
upstream backserver { server 192.168.0.14 weight=3; server 192.168.0.15 weight=7; }
Je höher das Gewicht, desto größer die Zugriffswahrscheinlichkeit. Wie im obigen Beispiel liegen sie bei 30 % bzw. 70 %.
3. ip_hash
Ein Problem mit der oben genannten Methode besteht darin, dass sich der Benutzer im Lastausgleichssystem anmeldet, wenn er eine zweite Anfrage stellt, weil Wir sind ein Lastausgleichssystem. Jede Anfrage wird an einen bestimmten Server-Cluster umgeleitet. Wenn ein Benutzer, der sich an einem Server angemeldet hat, an einen anderen Server weitergeleitet wird, gehen seine Anmeldeinformationen verloren.
Wir können die ip_hash-Anweisung verwenden, um dieses Problem zu lösen. Wenn der Kunde einen bestimmten Server bereits besucht hat, wird die Anfrage beim erneuten Besuch automatisch über den Hash-Algorithmus an den Server weitergeleitet.
Jede Anfrage wird entsprechend dem Hash-Ergebnis der Zugriffs-IP zugewiesen, sodass jeder Besucher festen Zugriff auf einen Back-End-Server hat, der das Sitzungsproblem lösen kann.
upstream backserver { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; }
4. Fair (Drittanbieter)
Anfragen werden entsprechend der Antwortzeit des Backend-Servers zugewiesen, und diejenigen mit kurzen Antwortzeiten werden zuerst zugewiesen.
upstream backserver { server server1; server server2; fair; }
5. url_hash (Dritter)
Anfragen entsprechend dem Hash-Ergebnis der aufgerufenen URL verteilen, sodass jede URL an denselben Back-End-Server weitergeleitet wird wenn der Back-End-Server zwischengespeichert ist.
upstream backserver { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }
Der Status jedes Geräts ist eingestellt auf:
1), down bedeutet, dass der Server vor dem einzelnen Gerät vorübergehend nicht an der Last teilnimmt
2) , Gewicht ist standardmäßig 1. Das Gewicht überschreitet. Je größer es ist, desto größer ist das Gewicht der Ladung.
3), max_fails: Die Anzahl der zulässigen Anforderungsfehler beträgt standardmäßig 1. Wenn die maximale Anzahl überschritten wird, wird der vom Modul „proxy_next_upstream“ definierte Fehler zurückgegeben
4), fail_timeout: Nach max_fails Fehler, die Zeit.
5), Backup: Wenn alle anderen Nicht-Backup-Maschinen ausgefallen oder ausgelastet sind, fordern Sie die Backup-Maschine an. Daher wird diese Maschine den geringsten Druck haben.
Konfigurationsbeispiel:
#user nobody; worker_processes 4; events { # 最大并发数 worker_connections 1024; } http{ # 待选服务器列表 upstream myproject{ # ip_hash指令,将同一用户引入同一服务器。 ip_hash; server 125.219.42.4 fail_timeout=60s; server 172.31.2.183; } server{ # 监听端口 listen 80; # 根目录下 location / { # 选择哪个服务器列表 proxy_pass http://myproject; } } }
Das obige ist der detaillierte Inhalt vonWas sind die Implementierungsmethoden für den Nginx-Lastausgleich?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!