>  기사  >  백엔드 개발  >  Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명

Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명

小云云
小云云원래의
2018-03-27 14:25:441864검색

이 글에서는 주로 NGINX Plus R5/R6/R7/R9의 다양한 버전 업데이트를 포괄하는 NGINX Plus 관련 기능을 소개합니다. 여기에는 Nginx 리버스 프록시 및 로드 밸런싱의 고급 사용이 포함됩니다. 주로 포함됩니다: HTTP 로드 밸런싱, HTTP 긴 연결, TCP 및 UDP 로드 밸런싱, 업스트림 연결 제한, 최단 시간 밸런싱 알고리즘, 세션 일관성, 실시간 상태 확인, DNS 재분석, 액세스 제어, 클라이언트 연결 제한, 클라이언트 대역폭 제한 , 버퍼 없는 파일 업로드, SSL/TLS 최적화, 캐시 최적화, API 기능, 구성 모범 사례 등

NGINX 플러스란 무엇인가요?

이름에서 알 수 있듯이 Nginx의 향상 또는 확장 버전입니다. 우리는 Nginx가 오픈 소스이고 무료라는 것을 알고 있지만 NGINX Plus의 많은 기능에는 요금이 필요합니다. Nginx Plus는 로드 밸런서, 웹 서버 및 콘텐츠 캐시 역할을 할 수 있습니다. Nginx의 향상된 버전이기 때문에 의심할 여지 없이 Nginx보다 더 강력할 것입니다. NGINX Plus는 오픈소스 Nginx의 기존 기능을 기반으로 세션 일관성, API 구성의 실시간 업데이트, 효과적인 상태 확인 등 프로덕션 환경에 적합한 다양한 독점 기능을 제공합니다.

NGINX Plus 버전 업데이트

NGINX Plus R5 및 최신 버전은 TCP 기반 애플리케이션(예: MySQL)의 로드 밸런싱을 지원할 수 있습니다. 이는 HTTP 로드 밸런싱에만 국한되지 않고 Nginx의 로드 밸런서 범위를 크게 확장합니다. R6의 TCP 로드 밸런싱 기능이 크게 확장되어 상태 확인, 구성 동적으로 업데이트, SSL 터미널 등이 추가되었습니다. R7이 도착할 때쯤에는 TCP 로드 밸런싱 기능이 기본적으로 HTTP 로드 밸런싱과 동일합니다. zR9에서는 UDP를 지원할 수 있습니다. 이번 업데이트를 통해 NGINX Plus는 웹 애플리케이션 수준을 훨씬 뛰어넘어 더 넓은 의미의 로드 밸런서가 되었습니다. 결국 프로토콜은 기본 수준에 있으며 지원되는 프로토콜이 많을수록 응용 프로그램이 더 넓어집니다. 초기 Http/SMTP부터 TCP, UDP까지, NGINX Plus는 단계별로 더욱 강력해집니다.

오픈 소스 Nginx와 NGINX Plus는 모두 HTTP, TCP 및 UDP 애플리케이션의 로드 밸런싱을 지원합니다. 그러나 NGINX Plus는 세션 일관성, 상태 확인, 동적으로 업데이트되는 구성 등을 포함하여 유료인 일부 엔터프라이즈 수준 기능을 제공합니다.

HTTP 로드 밸런싱

NGINX Plus는 HTTP 업그레이드, 긴 연결 최적화, 콘텐츠 압축 및 응답 캐싱 등과 같은 HTTP 로드 밸런싱을 위한 많은 기능 최적화를 수행했습니다. NGINX Plus의 HTTP 로드 밸런싱 구현도 매우 간단합니다.

http {
    upstream my_upstream {        server server1.example.com;        server server2.example.com;
    }    server {
        listen 80;
        location / {
            proxy_set_header Host $host;
            proxy_pass http://my_upstream;
        }
    }
}

proxy_set_header 지시문을 통해 호스트를 설정할 수 있으며 proxy_pass는 요청을 업스트림 my_upstream 에 있습니다. proxy_set_header 指令来设置Host,而proxy_pass将请求转发到上游的my_upstream中。

HTTP长连接

HTTP长连接——HTTP Keepalives,是指NGINX PLus和上游服务器建立的长连接。客户端和NGINX PLus建立长连接的话,可以在客户端指定Http协议为1.1/2.0。

HTTP协议是用的底层TCP协议来传输请求,接收响应的。HTTP1.1/2.0支持TCP的长连接或者重利用,以免反复的创建和销毁TCP连接所带来的开销。

我们看看客户端到NGINX PLus之间的Http长连接:

Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명

NGINX是一个完全意义的反向代理,在长连接上也毫不含糊。它管理所以来从客户端到Nginx的长连接,同样也会管理从Nginx到上游服务器的长连接,二者是完全独立的

Nginx管理的长连接:

Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명

NGINX 将连接上游服务器的空闲连接做了“缓存”,并不直接关掉它们。如果有请求过来,NGINX先从缓存的活跃连接中去拿一个使用,而不是立马创建一个新的,如果缓存为空那么NGINX 再去新建一个连接。这种操作保持了和上游之间连接的最小必要的数目,从而降低了Nginx和上游服务器之间的延迟并减少了临时端口的利用率,所以NGINX能处理大的并发。这种技术加上别的负载均衡技术,有时候可以被称为连接池,或者连接复用。

为了配置闲置长连接缓存,你需要指定几个指令:proxy_http_version,proxy_set_header,keepalive

HTTP 긴 연결

HTTP 긴 연결 - HTTP Keepalives는 NGINX PLus와 업스트림 서버에 의해 설정된 긴 연결을 의미합니다. 클라이언트가 NGINX PLus와 긴 연결을 설정하는 경우 클라이언트에서 HTTP 프로토콜을 1.1/2.0으로 지정할 수 있습니다.

HTTP 프로토콜은 기본 TCP 프로토콜을 사용하여 요청을 전송하고 응답을 받습니다. HTTP1.1/2.0은 TCP 긴 연결 또는 재사용을 지원하여 TCP 연결을 반복적으로 생성하고 파괴함으로써 발생하는 오버헤드를 방지합니다.

클라이언트와 NGINX PLus 간의 긴 HTTP 연결을 살펴보겠습니다. 🎜🎜Http 긴 연결🎜🎜NGINX는 완전한 역방향 프록시이며 긴 연결에 대해 명확합니다. 클라이언트에서 Nginx로의 모든 긴 연결을 관리하고 Nginx에서 업스트림 서버로의 긴 연결도 관리합니다. 이 둘은 완전히 독립적입니다. 🎜🎜Nginx에서 관리하는 긴 연결: 🎜🎜여기에 그림 설명 쓰기🎜🎜NGINX는 업스트림 서버에 대한 유휴 연결을 "캐시"하고 직접 닫지 않습니다. 요청이 오면 NGINX는 즉시 새 연결을 생성하는 대신 캐시된 활성 연결 중 하나를 먼저 사용합니다. 캐시가 비어 있으면 NGINX는 새 연결을 생성합니다. 이 작업은 업스트림에 필요한 최소한의 연결 수를 유지함으로써 NGINX와 업스트림 서버 간의 지연을 줄이고 임시 포트의 활용도를 줄여 NGINX가 대규모 동시성을 처리할 수 있도록 합니다. 다른 로드 밸런싱 기술과 결합된 이 기술을 🎜연결 풀링🎜 또는 연결 재사용이라고 부르기도 합니다. 🎜🎜유휴 긴 연결 캐시를 구성하려면 여러 지침을 지정해야 합니다: proxy_http_version, Proxy_set_header, keepalive🎜
server {
    listen 80;
    location / {
        proxy_pass http://backend;
        proxy_http_version 1.1; # 只有Http1.1/2.0才能支持长连接
        proxy_set_header Connection "";
    }
}

upstream backend {    server webserver1;    server webserver2;    # maintain a maximum of 20 idle connections to each upstream server
    keepalive 20; # 闲置长连接缓存时间为20}
🎜TCP 및 UDP의 로드 밸런싱🎜🎜HTTP 프로토콜의 확장으로, NGINX Plus는 TCP 및 UDP 프로토콜 기반 애플리케이션을 직접 지원할 수 있습니다. MySQL과 같은 TCP 기반 애플리케이션, DNS 및 RADIUS와 같은 UDP 기반 애플리케이션. TCP 요청의 경우 NGINX Plus는 클라이언트의 TCP 요청을 받은 다음 TCP 요청을 생성하여 업스트림 서버에 대한 액세스를 시작합니다. 🎜
stream {
    upstream my_upstream {        server server1.example.com:1234;        server server2.example.com:2345;
    }    server {
        listen 1123 [udp];
        proxy_pass my_upstream; #注意这里没有http://了
    }
}
🎜TCP 요청 지원은 NGINX Plus R5에 나타났습니다. R6 및 R7 버전은 주로 이 기능을 최적화하고 있습니다. R7에서는 TCP 요청의 로드 밸런싱이 R9에 의해 지원될 수 있을 만큼 강력해졌습니다. . 먼저 감상은 이렇고, TCP 로드밸런싱 기능에 대해서는 나중에 좀 더 자세히 소개하겠습니다. 🎜

上游连接数限制

你还可以为负载均衡做连接数量限制。这里说的连接是指NGINX Plus发给上游服务器的HTTP/TCP/UDP请求连接(对于UDP则是会话)。有了连接数限制的功能,当上游服务器的Http/TCP连接数量,或者UDP的会话数量超过一定的值时,NGINX Plus就不再创建新的连接或者会话。客户端多出的请求连接可以被放进队列等候,也可以不被处理。可以通过max_conns,queue指令来实现这一点:

upstream backend {
    zone backends 64k;
    queue 750 timeout=30s;    server webserver1 max_conns=250;    server webserver2 max_conns=150;
}

server指令表示webserver1 最多承载250个连接而webserver2 最多150个,多出来的可以放在队列queue当中等候。在队列queue中等候的连接数量和等候时间也是有限制的。当webserver1 和webserver2 连接数降低到各自最大连接数以下时,等候在队列queue中的连接随时就补上去。  
queue 750 timeout=30s表示总共可以有750个连接排队等候,每个连接等候30s。

Limiting connections 是十分有用的,可以为客户端提供可持续可预见的服务——不必因为某台server负载过大导致挂掉。一般来说一台server大概能承载多少负荷是可以通过某些手段测试出来的,因此把这个可承受的上线作为max_conns指令的值便可以保证server的相对安全。

最少时间的均衡算法

在NGINX Plus R6中增加了一种新的均衡算法——Least Time,将相应时间也考虑进去,算得上对最少连接均衡算法(Least Connections)的扩展。

这种算法同时考虑当前连接数和连接池里各个节点的平均响应时间。目的是使得当前请求选择当下响应更快、连接更少的服务器,而不是选择响应更慢、连接更多的。

当连接池的各个服务器节点有着明显不同的响应延时时,这种算法就要优于其他的几种(round-robin/ip-hash/lease connections)。一个典型的应用场景是,如果有两个分布在不同的地域的数据中心,那么本地的数据中心就要比异地的数据中心延时要少得多,这个时候就不能仅仅考虑当下连接数了,这个响应的延时也要被计入考量。Least Time算法就更倾向于选择本地的,当然这只是“更倾向于”的问题,并不能代替Nginx最基本的错误转移功能,哪怕本地的数据中心响应再快,如果它挂掉了Nginx Plus也能马上切换到远端数据中心。

Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명

“最少时间”可以有两种计算方式,一种是从请求发出到上流服务器接返回响应头部算的时间,另一种是从请求发出到接收到全部请求体的时间,分别以header_timeresponse_time来表示。

Session一致性

Session一致性(Session Persistence)问题除了可以通过指定ip-hash的均衡算法来实现,还有更为通用的实现方式,这是在NGINX Plus 中实现的。

NGINX Plus可以识别用户Session,从而能够鉴别不同的客户端,并且可以将来自同一个客户端的请求发往同一个上游服务器。这在当应用保存了用户状态的情况下非常有用,可以避免负载均衡器按照某个算法将请求发到别的服务器上去。另外,在共享用户信息的集群服务器这种方式也非常有用。

session一致性的要求同一个客户端每次的请求都选择同一个服务器,而负载均衡要求我们利用一种算法去服务器连接池里面去选择下一个,那么这两种矛盾的方式可以共存么?可以的,NGINX Plus按照如下的步骤决策到底选用哪一种:

  • 如果request匹配某个Session一致性的规则,那么根据这个规则选取上游服务器;

  • 如果没有匹配上或者匹配的服务器无法使用,那么使用负载均衡算法选择上游服务器;

为了能保证session一致性,Nginx Plus提供了sticky cookie,sticky learn和sticky route几种规则。

sticky cookie 规则

对于 sticky cookie 规则,当客户端的第一个请求选择了某个上游服务器,并从这个上游服务器返回响应时,NGINX Plus 为这个响应添加一个session cookie,用来鉴别这个上游服务器。当后面的请求再过来时,NGINX Plus取出这个cookie,分析是哪一台服务器,再把请求发往这台相同的服务器。

使用指令sticky cookie,配置如下:

upstream backend {    server webserver1;    server webserver2;

    sticky cookie srv_id expires=1h domain=.example.com path=/; 
}

cookie的名字就叫srv_id,用来“记住”是哪一个server;过期时间1h,domain为.example.com;path为/
NGINX Plus在第一次响应中,插入一个名称为srv_idcookie,用来“记住”这第一次请求是发个哪个上游的,后面的请求带上这个cookie,同样再被NGINX Plus甄别一下,再发往同一个的服务器。这样就能保证session的一致了。

sticky route 规则

sticky cookie规则类似,只不过“记住”上游服务器的方式不同而已。
在客户端发起第一次请求时,接收它的服务器为其分配一个route,此后这个客户端发起的所有请求都要带上这个route信息,或者在cookie中或者在uri中。然后和server指令中的route参数做对比,决定选取哪个server。如果指定的服务器无法处理,那交给负载均衡算法去选择下一个服务器。

map $cookie_jsessionid $route_cookie {
    ~.+\.(?P<route>\w+)$ $route;
}

map $request_uri $route_uri {
    ~jsessionid=.+\.(?P<route>\w+)$ $route;
}

upstream backend {
    server backend1.example.com route=a;
    server backend2.example.com route=b;    # select first non-empty variable; it should contain either &#39;a&#39; or &#39;b&#39;
    sticky route $route_cookie $route_uri;
}

在这里,route在JSESSIONIDcookie中选择,如其包含a那么选择服务器backend1;如其包含b则选择backend2,如果都不包含那么在$request_uri 中再做类似的选择,以此类推。

不管是选哪种方式保持session一致,如果选择出的server无法使用,那么将会按照负载均衡算法(如round-robin)在服务器列表中的选择下一台server继续处理。

实时健康检查

前面提到过,Nginx有两大功能:一个是扩展,增加更多的server以满足更大的并发;二是检测失效server,以便及时排除。那么,如何定义一个“失效server”(failed server)就变得非常重要。这一节就是来讨论这个问题——实时健康检查(Active Health Checks)。这是NGINX Plus 才有的功能,并且是收费的。

开源版本NGINX 可以提供简单的健康检查,并且可以自动做故障转移。但是如何定义一个上游server“失效”开源NGINX 却做的很简单。NGINX Plus为此提供了一个可以自定义的、综合式的评判标准,除此之外NGINX Plus还可以平缓的添加新的服务器节点到集群当中。这个功能使得NGINX Plus可能甄别更为多元化的服务器错误,十分有效的增加了HTTP/TCP/UDP应用的可靠性。
这里要用到的指令有:health_check,match 等指令:

upstream my_upstream {
    zone my_upstream 64k;
    server server1.example.com slow_start=30s;}

server {    # ...
    location /health {
        internal;
        health_check interval=5s uri=/test.php match=statusok;
        proxy_set_header HOST www.example.com;
        proxy_pass http://my_upstream
    }
}

match statusok {    # 在/test.php 做健康检查
    status 200;
    header Content-Type = text/html;
    body ~ "Server[0-9]+ is alive";}

health_checkinterval=5s表示每隔5s检测一次;uri=/test.php表示在/test.php里进行健康检查,NGINX Plus自动发起uri的请求,uri可以自定义,你在里面具体执行检查的逻辑,比如mysql/redis这些是否正常,然后作出一定的响应;然后在match指令中,就通过一些规则来匹配/test.php的响应。/test.php的响应可以包括status,header,body这些,供后面这些指令做匹配。全部检查通过,就算健康,server被标记为活跃;如果一项匹配未通过,比如Content-Type = text/json或者status = 201那都算检测失败,server不健康,被标记为不活跃。

DNS重解析

Nginx Plus一启动就会进行DNS解析并且自动永久缓存解析出的域名和IP,但是某些情形下需要重新解析下,这时候可以使用下面的指令来实现:

resolver 127.0.0.11 valid=10s;upstream service1 {
    zone service1 64k;
    server www.example.com  service=http resolve;}

127.0.0.11是默认的DNS服务器的地址,此例中NGINX Plus每10s中DNS服务器发起一次重新解析的请求。

访问控制

NGINX Plus Release 7主要给增加了TCP负载均衡的安全性。比如访问控制(Access Controls)和DDoS保护。
你现在可以允许或者拒绝对做反向代理的或者做负载均衡的TCP服务器的访问,仅仅通过配置简单的IP或者一个IP范文就能实现:

server {    # ...
    proxy_set_header Host www.example.cn;    proxy_pass http://test;    deny 72.46.166.10;    deny 73.46.156.0/24;    allow all;
}

第一个deny指令拒绝一个IP的访问,第二个拒绝一个IP范围,除去这两个剩下的都是被允许访问的。被拒绝访问的IP,会被返回403错误。

客户端连接数限制

除了可以限定上游服务器连接数,还可以限定客户端连接数,NGINX Plus R7 中实现了这个功能。你可以限制客户端发往由NGINX Plus代理的TCP应用的请求数量,防止对TCP的请求数量过多。在你的应用中,可能一部分的比另一部分要慢一些。比如说,请求你的应用的某块,将会产生大量的MySQL请求,或者fork出一大堆的work进程。那么攻击者将会利用这点产生成千上万个请求,致使你的服务器负载过重而瘫痪。

但是有了连接数限制功能,你可以通过配置limit_conn my_limit_conn指令限制同一个客户端(IP)所能发起的最大请求数,以此将上述的攻击风险降到最低。

stream {
    limit_conn_zone $binary_remote_addr zone=my_limit_conn:10m;    # ...
    server {
        limit_conn my_limit_conn 1;        # ...
    }
}

这条指令限定了每个IP同时只能有一个连接。

客户端带宽限制

R7 还新增了一项功能——限制每个客户端连接的上传和下载的最大带宽(Bandwidth Limiting) 。

server {    # ...
    proxy_download_rate 100k;
    proxy_upload_rate  50k;
}

有了这个配置,客户端最多只能以100kbytes/s的速度下载,以50kbytes/s的速度上传。因为客户端可以开多个连接,因此如果要限制总的上传/下载速度,同时还得限制下单个客户端的连接数。

无缓冲上传文件

这是在R6中增加的功能。你可以在R6和以后的版本中使用无缓冲的上传,意味Nginx Plus可以通过更大的Http请求比如上传。无缓冲的上传可以在这些请求一过来便进行上传,而不是像之前那样先是缓冲所有的上传内容,再将其转发给你上游服务器。

默认情况下,Nginx 在上传时,接收到数据时会先放进缓冲区进行缓冲,以避免将资源和基于worker进程的后端脚本绑定,但是针对事件驱动的后端语言如Node.js,缓冲是几乎没有必要的。这个修改改进了服务器对上传大文件的响应性,因为应用可以一接收到数据就马上对做出响应,使得上传进度条变成实时的和准确的。同样,这个改进也减少了磁盘I/O。

SSL/TLS优化

在R6中,可以在和上游的HTTPS 或者 uwSGI 服务器打交道时为客户端提供一个证书。这大大提高了安全性,尤其是在和不受保护网络上的安全服务进行通信的时候。R6 支持IMAP, POP3, 和SMTP的SSL/TLS 客户端认证。

缓存优化

proxy_cache 指令可以支持变量了,这个简单的改进以为着你可以定义几个基于磁盘的缓存,并且根据请求数据做自由的选择。当你打算创建巨大的内容缓存,并且将其保存到不同的磁盘时是非常有用的。

API功能

upstreem模块的一些指令,不光可以通过手动去修改,还可以通过Restful Api的方式去修改,并且马上自动更新。有了这个功能,NGINX Plus的一些功能,你都可以通过API的方式去改变。应用性得到很大提升。当然这也是收费的:

upstream backend {
    zone backends 64k;    server 10.10.10.2:220 max_conns=250;    server 10.10.10.4:220 max_conns=150;
}server {
    listen 80;
    server_name www.example.org;

    location /api {
        api write=on;
    }
}

有了API,你就可以使用curl工具来动态修改配置了,比如用POST命令来增加一个集群的节点:

$ curl -iX POST -d &#39;{"server":"192.168.78.66:80","weight":"200","max_conns":"150"}&#39; http://localhost:80/api/1/http/upstreams/backend/servers/

相当于添加了一个这样的配置:

upstream backend {
    zone backends 64k;    server 10.10.10.2:220 max_conns=250;    server 10.10.10.4:220 max_conns=150;    #此处是通过api添加的
    server 192.168.78.66:80 weight=200 max_conns=150;
}

如果需要修改一个节点配置,你可以用服务器节点在连接池中的自然顺序(从0开始)作为它们各自唯一的ID,然后使用PATCH/DELETE方法去操作它们:

$ curl -iX PATCH -d &#39;{"server":"192.168.78.55:80","weight":"500","max_conns":"350"}&#39; http://localhost:80/api/1/http/upstreams/backend/servers/2

这条命令是修改以上连接池中的第三个server 192.168.78.66:80 max_conns=200;为:

server 192.168.78.55:80 weight=500  max_conns=350;

如果要返回所有的节点信息,可以使用:

$ curl -s http://localhost:80/api/1/http/upstreams/backend/servers/

返回的是一个JSON字符串。

 {      "backup": false,      "down": false,      "fail_timeout": "10s",      "id": 0,      "max_conns": 250,      "max_fails": 1,      "route": "",      "server": "10.10.10.2:220",      "slow_start": "0s",      "weight": 1
      },
      {      "backup": false,      "down": false,      "fail_timeout": "10s",      "id": 1,      "max_conns": 150,      "max_fails": 1,      "route": "",      "server": "10.10.10.4:220",      "slow_start": "0s",      "weight": 1
      },
      {      "backup": false,      "down": false,      "fail_timeout": "10s",      "id": 2,      "max_conns": 200,      "max_fails": 1,      "route": "",      "server": "192.168.78.66:80",      "slow_start": "0s",      "weight": 200
      }
  }

配置的最佳实践

为不同个应用配置创建各自的目录和文件,并用include指令再合并到一起是个非常好的习惯。标准的 NGINX Plus配置是将各个应用的配置文件放到各自的conf.d directory目录下:

http {    include /etc/nginx/conf.d/*.conf;}
stream {    include /etc/nginx/stream.d/*.conf;}

http 和 stream 模块的各自分属不同的目录,而在http 下的都是http请求的配置,stream 都是TCP/UDP请求的配置。没有统一的标准,主要是看开发者自己能便于识别和修改。

相关推荐:

nginx负载均衡器处理session共享的几种方法

Nginx负载均衡设置实例

nginx负载均衡配置

위 내용은 Nginx 로드 밸런싱 및 역방향 프록시 확장 기능에 대한 자세한 설명의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.