>  기사  >  운영 및 유지보수  >  nginx 성능 최적화 팁 공유

nginx 성능 최적화 팁 공유

王林
王林앞으로
2021-03-05 15:19:193279검색

nginx 성능 최적화 팁 공유

이 기사는 모든 사람을 위한 몇 가지 nginx 성능 최적화 팁을 공유하며 도움이 필요한 친구들에게 도움이 되기를 바랍니다.

1. nginx 성능 최적화에 매우 중요한 구성 옵션

1.worker_processes 8;

nginx 프로세스 번호, CPU 수에 따라 지정하는 것이 좋습니다(일반적으로 2). 쿼드 코어 CPU는 8)로 계산됩니다.

2.worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 10000000;

각 프로세스에 CPU를 할당합니다. . 여러 개를 쓰거나 프로세스를 여러 CPU에 할당합니다.

3.worker_rlimit_nofile 65535;

이 명령은 nginx 프로세스에서 열린 최대 파일 설명자 수를 나타냅니다. 이론적 값은 최대 열린 파일 수(ulimit -n)를 nginx 프로세스 수로 나눈 값입니다. nginx 할당 요청은 그렇게 균일하지 않으므로 ulimit -n 값과 일관성을 유지하는 것이 좋습니다.

이제 Linux 2.6 커널에서 열려 있는 파일 수는 65535이고 이에 따라 Worker_rlimit_nofile은 65535로 채워져야 합니다.

이것은 nginx 스케줄링 시 프로세스에 대한 요청 할당이 균형이 맞지 않기 때문이므로 10240을 입력하고 총 동시성이 30,000~40,000에 도달하면 프로세스 수가 10240을 초과할 수 있으며 502 오류가 반환됩니다.

Linux 시스템 파일 설명자를 보는 방법:

[root@web001 ~]# sysctl -a | grep fs.file

                    fs.file-max = 789972

                    fs.file-nr = 510 0 789972

4. epoll을 사용합니다.

epoll의 I/O 모델을 사용합니다.

(추가 설명:

는 apache와 유사하며 nginx는 운영 체제마다 다른 기능을 갖습니다.

A) 표준 이벤트 모델

Select 및 poll은 표준 이벤트 모델입니다. 현재 시스템에 더 이상 효과적인 방법이 없으면 nginx는 select 또는 poll을 선택합니다.

B) 효율적인 이벤트 모델

Kqueue: FreeBSD 4.1+에서 사용됩니다. , OpenBSD 2.9+, NetBSD 2.0 및 MacOS X. 이중 프로세서 MacOS X 시스템에서 kqueue를 사용하면 커널 패닉이 발생할 수 있습니다.
Epoll: Linux 커널 버전 2.6 이상이 설치된 시스템에서 사용됩니다.
/dev/poll: Solaris 7 11/99+, HP/UX 11.22+(이벤트 포트), IRIX 6.5.15+ 및 Tru64 UNIX 5.1A+에서 사용됩니다.
이벤트 포트: Solaris 10에서 사용됩니다. 커널 충돌을 방지하려면 보안 패치를 설치해야 합니다. )

5, Worker_connections 65535;

프로세스당 허용되는 최대 연결 수입니다. 이론적으로 nginx 서버당 최대 연결 수는 Worker_processes*worker_connections입니다.

6. keepalive_timeout 60;

keepalive 시간 초과.

7. client_header_buffer_size 4k;

클라이언트 요청 헤더의 버퍼 크기입니다. 일반적으로 요청 헤더의 크기는 1k를 초과하지 않지만 일반 시스템 페이징이 더 크기 때문입니다. 1k 보다 높으므로 페이징 크기로 설정됩니다.

페이징 크기는 getconf PAGESIZE 명령을 사용하여 얻을 수 있습니다.

[root@web001 ~]# getconf PAGESIZE                     4096

하지만 client_header_buffer_size가 4k를 초과하는 경우도 있는데, client_header_buffer_size 값을 "시스템 페이징 크기"의 정수배로 설정해야 합니다.

8. open_file_cache max=65535 inactive=60s;

이것은 열린 파일에 대한 캐시를 지정합니다. 기본적으로 활성화되지 않습니다. max는 열린 파일 수와 일치하는 것이 좋습니다. 비활성은 요청 후 파일을 삭제하는 데 걸리는 시간을 나타냅니다.

9.open_file_cache_valid 80s;

캐시된 유효한 정보를 확인하는 빈도를 나타냅니다.

10.open_file_cache_min_uses 1;

open_file_cache 명령에서 비활성 매개변수 시간 내에 파일을 사용하는 최소 횟수입니다. 이 숫자를 초과하면 위의 예와 같이 파일 설명자가 항상 캐시에 열립니다. 비활성 시간 내에 파일이 있습니다. 사용하지 않으면 삭제됩니다.

2. 커널 매개변수 최적화 관련:

net.ipv4.tcp_max_tw_buckets = 6000
timewait 的数量,默认是180000。
net.ipv4.ip_local_port_range = 1024 65000
允许系统打开的端口范围。
net.ipv4.tcp_tw_recycle = 1
启用timewait 快速回收。
net.ipv4.tcp_tw_reuse = 1
开启重用。允许将TIME-WAIT sockets 重新用于新的TCP 连接。
net.ipv4.tcp_syncookies = 1
开启SYN Cookies,当出现SYN 等待队列溢出时,启用cookies 来处理。
net.core.somaxconn = 262144
web 应用中listen 函数的backlog 默认会给我们内核参数的net.core.somaxconn 限制到128,而nginx 定义的NGX_LISTEN_BACKLOG 默认为511,所以有必要调整这个值。
net.core.netdev_max_backlog = 262144
每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。
net.ipv4.tcp_max_orphans = 262144
系统中最多有多少个TCP 套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。这个限制仅仅是为了防止简单的DoS 攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)。
net.ipv4.tcp_max_syn_backlog = 262144
记录的那些尚未收到客户端确认信息的连接请求的最大值。对于有128M 内存的系统而言,缺省值是1024,小内存的系统则是128。
net.ipv4.tcp_timestamps = 0
时间戳可以避免序列号的卷绕。一个1Gbps 的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种“异常”的数据包。这里需要将其关掉。
net.ipv4.tcp_synack_retries = 1
为了打开对端的连接,内核需要发送一个SYN 并附带一个回应前面一个SYN 的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK 包的数量。
net.ipv4.tcp_syn_retries = 1
在内核放弃建立连接之前发送SYN 包的数量。
net.ipv4.tcp_fin_timeout = 1
如 果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2 状态的时间。对端可以出错并永远不关闭连接,甚至意外当机。缺省值是60 秒。2.2 内核的通常值是180 秒,3你可以按这个设置,但要记住的是,即使你的机器是一个轻载的WEB 服务器,也有因为大量的死套接字而内存溢出的风险,FIN- WAIT-2 的危险性比FIN-WAIT-1 要小,因为它最多只能吃掉1.5K 内存,但是它们的生存期长些。
net.ipv4.tcp_keepalive_time = 30
当keepalive 起用的时候,TCP 发送keepalive 消息的频度。缺省是2 小时。

3. 전체 커널 최적화 설정은 다음과 같습니다.

#CentOS5.5中可以将所有内容清空直接替换为如下内容:
vi /etc/sysctl.conf 

   net.ipv4.ip_forward = 0
   net.ipv4.conf.default.rp_filter = 1
   net.ipv4.conf.default.accept_source_route = 0
   kernel.sysrq = 0
   kernel.core_uses_pid = 1
   net.ipv4.tcp_syncookies = 1
   kernel.msgmnb = 65536
   kernel.msgmax = 65536
   kernel.shmmax = 68719476736
   kernel.shmall = 4294967296
   net.ipv4.tcp_max_tw_buckets = 6000
   net.ipv4.tcp_sack = 1
   net.ipv4.tcp_window_scaling = 1
   net.ipv4.tcp_rmem = 4096 87380 4194304
   net.ipv4.tcp_wmem = 4096 16384 4194304
   net.core.wmem_default = 8388608
   net.core.rmem_default = 8388608
   net.core.rmem_max = 16777216
   net.core.wmem_max = 16777216
   net.core.netdev_max_backlog = 262144
   net.core.somaxconn = 262144
   net.ipv4.tcp_max_orphans = 3276800
   net.ipv4.tcp_max_syn_backlog = 262144
   net.ipv4.tcp_timestamps = 0
   net.ipv4.tcp_synack_retries = 1
   net.ipv4.tcp_syn_retries = 1
   net.ipv4.tcp_tw_recycle = 1
   net.ipv4.tcp_tw_reuse = 1
   net.ipv4.tcp_mem = 94500000 915000000 927000000
   net.ipv4.tcp_fin_timeout = 1
   net.ipv4.tcp_keepalive_time = 30
   net.ipv4.ip_local_port_range = 1024 65000

#使配置立即生效可使用如下命令:
 /sbin/sysctl -p

(학습 동영상 공유: php 동영상 튜토리얼)

4. 시스템 연결 수

Linux에서 열린 파일 및 최대 사용자 프로세스의 기본값은 1024

#ulimit -n   
    1024
#ulimit Cu   
    1024

문제 설명:

서버가 동시에 1024개의 파일만 열 수 있도록 허용하고 1024개의 사용자 프로세스를 처리한다고 설명합니다

현재 시스템의 모든 제한 값을 보려면 ulimit -a를 사용하고, 현재 최대 열려 있는 파일 수를 보려면 ulimit -n을 사용하세요.

새로 설치된 Linux에는 기본적으로 1024만 있습니다. 로드가 많은 서버로 사용하면 열려 있는 파일이 너무 많습니다. 따라서 더 크게 만들어야 합니다.

해결책:

ulimit Cn 65535를 사용하면 즉시 수정할 수 있지만 다시 시작한 후에는 유효하지 않게 됩니다. (ulimit -SHn 65535는 ulimit -n 65535와 동일합니다. -S는 소프트, -H는 하드를 의미합니다.)

세 가지 수정 방법이 있습니다.

1 /etc/rc.local에 ulimit -SHn 65535 줄을 추가합니다.
2. /etc/profile에 ulimit -SHn 65535 줄을 추가합니다.
3. 마지막으로 /etc/security/limits.conf에 추가합니다.

* soft nofile 65535
* hard nofile 65535
* soft nproc 65535
* hard nproc 65535

첫 번째 방법은 CentOS에 적용되지 않습니다. 방법이 효과적이며 두 번째 방법은 Debian

      # ulimit -n        65535

      # ulimit -u        65535

에서 효과적입니다. 참고: ulimit 명령 자체에는 소프트 및 하드 설정이 있습니다. 하드에 -H를 추가하고 소프트에 -S를 추가하면 기본 표시는 소프트 제한입니다.

 soft 限制指的是当前系统生效的设置值。 hard 限制值可以被普通用户降低。但是不能增加。 soft 限制不能设置的比 hard 限制更高。 只有 root 用户才能够增加 hard 限制值。

五、下面是一个简单的nginx 配置文件:

user www www;
          worker_processes 8;
          worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000;
          error_log /www/log/nginx_error.log crit;
          pid /usr/local/nginx/nginx.pid;
          worker_rlimit_nofile 204800;
          events
     {
       use epoll;
       worker_connections 204800;
     }
     http
     {
       include mime.types;
       default_type application/octet-stream;
       charset utf-8;
       server_names_hash_bucket_size 128;
       client_header_buffer_size 2k;
       large_client_header_buffers 4 4k;
       client_max_body_size 8m;
       sendfile on;
       tcp_nopush on;
       keepalive_timeout 60;
       fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2
       keys_zone=TEST:10m
       inactive=5m;
       fastcgi_connect_timeout 300;
       fastcgi_send_timeout 300;
       fastcgi_read_timeout 300;
       fastcgi_buffer_size 4k;
       fastcgi_buffers 8 4k;
       fastcgi_busy_buffers_size 8k;
       fastcgi_temp_file_write_size 8k;
       fastcgi_cache TEST;
       fastcgi_cache_valid 200 302 1h;
       fastcgi_cache_valid 301 1d;
       fastcgi_cache_valid any 1m;
       fastcgi_cache_min_uses 1;
       fastcgi_cache_use_stale error timeout invalid_header http_500;
       open_file_cache max=204800 inactive=20s;
       open_file_cache_min_uses 1;
       open_file_cache_valid 30s;
       tcp_nodelay on;
       gzip on;
       gzip_min_length 1k;
       gzip_buffers 4 16k;
       gzip_http_version 1.0;
       gzip_comp_level 2;
       gzip_types text/plain application/x-javascript text/css application/xml;
       gzip_vary on;
       server
       {
         listen 8080;
         server_name backup.aiju.com;
         index index.php index.htm;
         root /www/html/;
         location /status
         {
           stub_status on;
         }
                  location ~ .*/.(php|php5)?$
         {
          fastcgi_pass 127.0.0.1:9000;
          fastcgi_index index.php;
          include fcgi.conf;
         }
           location ~ .*/.(gif|jpg|jpeg|png|bmp|swf|js|css)$
         {
          expires 30d;
         }
               log_format access '$remote_addr — $remote_user [$time_local] "$request" '
         '$status $body_bytes_sent "$http_referer" '
         '"$http_user_agent" $http_x_forwarded_for';
         access_log /www/log/access.log access;
       }
     }

六、关于FastCGI 的几个指令:        

fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2 keys_zone=TEST:10minactive=5m;
这个指令为FastCGI 缓存指定一个路径,目录结构等级,关键字区域存储时间和非活动删除时间。
fastcgi_connect_timeout 300;
指定连接到后端FastCGI 的超时时间。
fastcgi_send_timeout 300;
向FastCGI 传送请求的超时时间,这个值是指已经完成两次握手后向FastCGI 传送请求的超时时间。
fastcgi_read_timeout 300;
接收FastCGI 应答的超时时间,这个值是指已经完成两次握手后接收FastCGI 应答的超时时间。
fastcgi_buffer_size 4k;
指定读取FastCGI 应答第一部分需要用多大的缓冲区,一般第一部分应答不会超过1k,由于页面大小为4k,所以这里设置为4k。
fastcgi_buffers 8 4k;
指定本地需要用多少和多大的缓冲区来缓冲FastCGI 的应答。
fastcgi_busy_buffers_size 8k;
这个指令我也不知道是做什么用,只知道默认值是fastcgi_buffers 的两倍。
fastcgi_temp_file_write_size 8k;
在写入fastcgi_temp_path 时将用多大的数据块,默认值是fastcgi_buffers 的两倍。
fastcgi_cache TEST
开启FastCGI 缓存并且为其制定一个名称。个人感觉开启缓存非常有用,可以有效降低CPU 负载,并且防止502 错误。
fastcgi_cache_valid 200 302 1h;fastcgi_cache_valid 301 1d;fastcgi_cache_valid any 1m;
为指定的应答代码指定缓存时间,如上例中将200,302 应答缓存一小时,301 应答缓存1 天,其他为1 分钟。
fastcgi_cache_min_uses 1;
缓存在fastcgi_cache_path 指令inactive 参数值时间内的最少使用次数,如上例,如果在5 分钟内某文件1 次也没有被使用,那么这个文件将被移除。
fastcgi_cache_use_stale error timeout invalid_header http_500;
不知道这个参数的作用,猜想应该是让nginx 知道哪些类型的缓存是没用的。以上为nginx 中FastCGI 相关参数,另外,FastCGI 自身也有一些配置需要进行优化,如果你使用php-fpm 来管理FastCGI,可以修改配置文件中的以下值:
<value name=”max_children”>60</value>
同时处理的并发请求数,即它将开启最多60 个子线程来处理并发连接。
<value name=”rlimit_files”>102400</value>
最多打开文件数。
<value name=”max_requests”>204800</value>
每个进程在重置之前能够执行的最多请求数。

相关推荐:nginx教程

위 내용은 nginx 성능 최적화 팁 공유의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 cnblogs.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제