Heim >Betrieb und Instandhaltung >Nginx >Was sind die Hauptanwendungsszenarien von Nginx?

Was sind die Hauptanwendungsszenarien von Nginx?

王林
王林nach vorne
2023-05-12 09:07:112048Durchsuche

Was Nginx kann Dinge, die Module von Drittanbietern verarbeiten können. Hier finden Sie eine detaillierte Beschreibung der einzelnen Funktionen. Reverse-Proxy sollte die häufigste Funktion von Nginx sein. Das Folgende ist aus der Baidu-Enzyklopädie Argument: Die Reverse-Proxy-Methode bezieht sich auf die Verwendung eines Proxyservers, um Verbindungsanfragen im Internet anzunehmen, die Anfragen dann an den Server im internen Netzwerk weiterzuleiten und die vom Server erhaltenen Ergebnisse an den Client zurückzugeben, der eine Verbindung anfordert Das Internet erscheint zu diesem Zeitpunkt als Reverse-Proxy-Server. Um es einfach auszudrücken: Auf den realen Server kann nicht direkt über das externe Netzwerk zugegriffen werden. Daher ist ein Proxyserver erforderlich, auf den über das externe Netzwerk zugegriffen werden kann und der sich natürlich in derselben Netzwerkumgebung befindet wie der reale Server Möglicherweise handelt es sich auch um denselben Server und Port, nur um einen anderen. Fügen Sie unten einen einfachen Code ein, um den Reverse-Proxy zu implementieren Als Funktion bedeutet Lastausgleich, die Ausführung mehreren Betriebseinheiten wie Webservern, FTP-Servern, Unternehmensschlüsselanwendungsservern und anderen geschäftskritischen Servern usw. zuzuweisen, um Arbeitsaufgaben gemeinsam zu erledigen. Einfach ausgedrückt: Wenn zwei oder mehr Server vorhanden sind, werden Anforderungen zur Verarbeitung gemäß den Regeln zufällig auf bestimmte Server verteilt. Die Konfiguration des Lastausgleichs erfordert im Allgemeinen gleichzeitig die Konfiguration eines Reverse-Proxys und springt über den umgekehrten Weg zum Lastausgleich Stellvertreter. Nginx unterstützt derzeit drei integrierte Lastausgleichsstrategien sowie zwei häufig verwendete Strategien von Drittanbietern.

1. RR (Standard)Was sind die Hauptanwendungsszenarien von Nginx?
Jede Anfrage wird nacheinander verschiedenen Backend-Servern in chronologischer Reihenfolge zugewiesen. Wenn der Backend-Server ausfällt, kann er automatisch eliminiert werden.

Einfache Konfiguration

server {
       listen       80;                                                        
       server_name  localhost;                                              
       client_max_body_size 1024M;

       location / {
           proxy_pass http://localhost:8080;
           proxy_set_header Host $host:$server_port;
       }
   }

Der Kerncode des Lastausgleichs lautet

upstream test {
       server localhost:8080;
       server localhost:8081;
   }
   server {
       listen       81;                                                        
       server_name  localhost;                                              
       client_max_body_size 1024M;

       location / {
           proxy_pass http://test;
           proxy_set_header Host $host:$server_port;
       }
   }

Natürlich habe ich 2 Server konfiguriert, aber der Port ist unterschiedlich und der 8081-Server existiert nicht, was bedeutet, dass es keinen Zugriff gibt. aber wenn wir auf http://localhost zugreifen, wird es standardmäßig zu http://localhost:8080 springen. Dies liegt daran, dass Nginx automatisch den Status des Servers ermittelt Da Nginx standardmäßig die RR-Richtlinie verwendet, werden keine weiteren Einstellungen benötigt.

2. Gewichtung

Gibt die Abfragewahrscheinlichkeit an. Die Gewichtung ist proportional zum Zugriffsverhältnis und wird verwendet, wenn die Back-End-Serverleistung ungleichmäßig ist. Zum Beispiel

upstream test {
       server localhost:8080;
       server localhost:8081;
   }

dann greift im Allgemeinen nur 1 von 10 Mal auf 8081 zu und 9 Mal greift auf 8080 zu

3, ip_hash

Die beiden oben genannten Methoden haben ein Problem, das heißt, die nächste Anfrage kommt zu diesem Zeitpunkt Wenn unser Programm nicht zustandslos ist (Sitzung zum Speichern von Daten verwendet), tritt zu diesem Zeitpunkt ein großes Problem auf. Wenn beispielsweise die Anmeldeinformationen in der Sitzung gespeichert werden, springen Sie zu Bei einem anderen Server müssen Sie sich erneut anmelden. Daher benötigen wir oft einen Kunden, der nur auf einen Server zugreift, und müssen dann ip_hash verwenden ist behoben. Der Zugriff auf einen Backend-Server kann Sitzungsprobleme lösen.

upstream test {
       server localhost:8080 weight=9;
       server localhost:8081 weight=1;
   }

4. Fair (Dritter)

Anfragen entsprechend der Antwortzeit des Backend-Servers zuweisen, und diejenigen mit kurzen Antwortzeiten werden zuerst zugewiesen.
upstream test {
       ip_hash;
       server localhost:8080;
       server localhost:8081;
   }
5. url_hash (Dritter)

Verteilen Sie Anforderungen entsprechend dem Hash-Ergebnis der aufgerufenen URL, sodass jede URL an denselben Back-End-Server weitergeleitet wird. Dies ist effektiver, wenn der Back-End-Server zwischengespeichert wird . Fügen Sie dem Upstream eine Hash-Anweisung hinzu. Hash_method ist der verwendete Hash-Algorithmus. Die oben genannten fünf Lastausgleichsmethoden eignen sich für die Verwendung in verschiedenen Situationen, sodass Sie auswählen können, welche Strategie Sie verwenden möchten entsprechend der tatsächlichen Situation zu verwenden, aber fair und url_hash müssen Drittanbietermodule installieren, bevor sie verwendet werden können. Da in diesem Artikel hauptsächlich die Möglichkeiten von Nginx vorgestellt werden, wird die Installation von Drittanbietermodulen für Nginx nicht vorgestellt Dieser Artikel

HTTP-Server

Nginx selbst ist auch ein statischer Ressourcenserver. Wenn nur statische Ressourcen vorhanden sind, können Sie Nginx als Server verwenden. Gleichzeitig ist es jetzt auch sehr beliebt, statische Ressourcen von statischen Ressourcen zu trennen , was durch Nginx erreicht werden kann. Schauen wir uns zunächst Nginx als statischen Ressourcenserver an
  server {
       listen       80;                                                        
       server_name  localhost;                                              
       client_max_body_size 1024M;


       location / {
              root   e:\wwwroot;
              index  index.html;
          }
   }

这样如果访问http://localhost 就会默认访问到E盘wwwroot目录下面的index.html,如果一个网站只是静态页面的话,那么就可以通过这种方式来实现部署。 动静分离 动静分离是让动态网站里的动态网页根据一定规则把不变的资源和经常变的资源区分开来,动静资源做好了拆分以后,我们就可以根据静态资源的特点将其做缓存操作,这就是网站静态化处理的核心思路

upstream test{  
      server localhost:8080;  
      server localhost:8081;  
   }  
     
   server {  
       listen       80;  
       server_name  localhost;  
 
       location / {  
           root   e:\wwwroot;  
           index  index.html;  
       }  
         
       # 所有静态请求都由nginx处理,存放目录为html         location ~ \.(gif|jpg|jpeg|png|bmp|swf|css|js)$ {  
           root    e:\wwwroot;  
       }  
         
       # 所有动态请求都转发给tomcat处理         location ~ \.(jsp|do)$ {  
           proxy_pass  http://test;  
       }  
         
       error_page   500 502 503 504  /50x.html;  
       location = /50x.html {  
           root   e:\wwwroot;  
       }  
   }

这样我们就可以吧HTML以及图片和css以及js放到wwwroot目录下,而tomcat只负责处理jsp和请求,例如当我们后缀为gif的时候,Nginx默认会从wwwroot获取到当前请求的动态图文件返回,当然这里的静态文件跟Nginx是同一台服务器,我们也可以在另外一台服务器,然后通过反向代理和负载均衡配置过去就好了,只要搞清楚了最基本的流程,很多配置就很简单了,另外localtion后面其实是一个正则表达式,所以非常灵活

正向代理

正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。客户端才能使用正向代理。当你需要把你的服务器作为代理服务器的时候,可以用Nginx来实现正向代理,但是目前Nginx有一个问题,那么就是不支持HTTPS,虽然我百度到过配置HTTPS的正向代理,但是到最后发现还是代理不了,当然可能是我配置的不对,所以也希望有知道正确方法的同志们留言说明一下。

resolver 114.114.114.114 8.8.8.8;
   server {
       
       resolver_timeout 5s;

       listen 81;

       access_log  e:\wwwroot\proxy.access.log;
       error_log   e:\wwwroot\proxy.error.log;

       location / {
           proxy_pass http://$host$request_uri;
       }
   }

resolver是配置正向代理的DNS服务器,listen 是正向代理的端口,配置好了就可以在ie上面或者其他代理插件上面使用服务器ip+端口号进行代理了。

最后说两句

Nginx是支持热启动的,也就是说当我们修改配置文件后,不用关闭Nginx,就可以实现让配置生效,当然我并不知道多少人知道这个,反正我一开始并不知道,导致经常杀死了Nginx线程再来启动。。。Nginx从新读取配置的命令是

nginx -s reload

windows下面就是

nginx.exe -s reload

Das obige ist der detaillierte Inhalt vonWas sind die Hauptanwendungsszenarien von Nginx?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:yisu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen