>웹 프론트엔드 >JS 튜토리얼 >NGINX 및 로드 밸런싱을 사용하여 Node.js 애플리케이션 확장

NGINX 및 로드 밸런싱을 사용하여 Node.js 애플리케이션 확장

Patricia Arquette
Patricia Arquette원래의
2024-10-08 06:19:02437검색

Scaling Node.js Applications with NGINX and Load Balancing

Node.js 애플리케이션이 성장하고 더 많은 트래픽을 수신함에 따라 성능과 안정성을 유지하는 데 확장이 중요해졌습니다. 이 기사에서는 역방향 프록시 및 로드 밸런서로서의 NGINX와 높은 트래픽 및 수요를 처리하는 기타 방법에 중점을 두고 Node.js 애플리케이션을 확장하는 데 도움이 되는 주요 기술과 도구를 자세히 살펴보겠습니다.

이 기사에서 다룰 내용은 다음과 같습니다.

  1. NGINX란 무엇이며 왜 중요한가요?
  2. NGINX를 Node.js용 역방향 프록시로 설정
  3. NGINX를 사용한 로드 밸런싱.
  4. NGINX로 정적 콘텐츠 캐싱.
  5. Node.js 애플리케이션을 위한 확장 전략
  6. 실제 확장 사용 사례

NGINX란 무엇이며 왜 중요한가요?

NGINX는 역방향 프록시, 로드 밸런서, HTTP 캐시 기능으로 유명한 고성능 웹 서버입니다. 대량의 동시 연결을 효율적으로 처리하므로 Node.js 애플리케이션을 확장하는 데 탁월한 도구입니다.

NGINX의 주요 기능:

  • 역방향 프록시: 들어오는 클라이언트 요청을 백엔드 서버로 라우팅하여 여러 서버에 로드를 분산시키는 데 도움이 됩니다.
  • 로드 밸런싱: NGINX는 여러 서버 인스턴스에 걸쳐 수신 트래픽의 균형을 유지하여 단일 서버가 과부하되지 않도록 합니다.
  • 캐싱: 이미지, 스타일시트, 스크립트와 같은 정적 콘텐츠를 캐시하여 동일한 응답을 반복적으로 생성할 필요성을 줄여줍니다.

Node.js용 역방향 프록시로 NGINX 설정

역방향 프록시는 클라이언트 요청을 하나 이상의 백엔드 서버로 라우팅합니다. NGINX를 Node.js 애플리케이션의 역방향 프록시로 사용하면 SSL 종료, 캐싱, 로드 밸런싱과 같은 작업을 애플리케이션에서 오프로드할 수 있습니다.

단계별 설정:

  1. NGINX 설치:
    먼저 서버에 NGINX를 설치하세요. Ubuntu에서는 다음을 사용하여 이 작업을 수행할 수 있습니다.

    sudo apt update
    sudo apt install nginx
    
  2. NGINX 구성:
    /etc/nginx/sites-available/ 디렉터리에 Node.js 앱에 대한 새 구성 파일을 생성합니다.

다음은 구성 파일의 예입니다.

   server {
       listen 80;
       server_name yourdomain.com;

       location / {
           proxy_pass http://localhost:3000; # Your Node.js app
           proxy_http_version 1.1;
           proxy_set_header Upgrade $http_upgrade;
           proxy_set_header Connection 'upgrade';
           proxy_set_header Host $host;
           proxy_cache_bypass $http_upgrade;
       }
   }
  1. 구성 활성화:
    구성을 활성화하려면 사용 가능한 사이트에서 활성화된 사이트로의 심볼릭 링크를 만듭니다.

    sudo ln -s /etc/nginx/sites-available/yourdomain.com /etc/nginx/sites-enabled/
    
  2. NGINX 다시 시작:
    변경 사항을 적용하려면 NGINX를 다시 시작하세요.

    sudo systemctl restart nginx
    

이제 NGINX는 들어오는 모든 요청을 포트 3000에서 실행되는 Node.js 애플리케이션으로 전달합니다. 역방향 프록시 설정을 통해 Node.js 앱이 직접적인 클라이언트 액세스로부터 격리되어 보안 계층이 추가됩니다.

NGINX를 사용한 로드 밸런싱

트래픽이 증가하면 단일 Node.js 인스턴스가 들어오는 모든 요청을 처리하는 데 어려움을 겪을 수 있습니다. 로드 밸런싱을 사용하면 트래픽을 애플리케이션의 여러 인스턴스에 균등하게 분산시켜 안정성과 성능을 향상시킬 수 있습니다.

NGINX 로드 밸런서 설정:

  1. NGINX 구성 수정: NGINX 구성 파일에서 NGINX가 요청 균형을 조정할 백엔드 서버를 정의합니다. ``nginx 업스트림 node_app { 서버 로컬호스트:3000; 서버 로컬 호스트:3001; 서버 로컬 호스트:3002; }

서버 {
80을 들어보세요;
server_name yourdomain.com;

   location / {
       proxy_pass http://node_app;
       proxy_http_version 1.1;
       proxy_set_header Upgrade $http_upgrade;
       proxy_set_header Connection 'upgrade';
       proxy_set_header Host $host;
       proxy_cache_bypass $http_upgrade;
   }

}

2. **Explanation**:
   - The `upstream` block defines a pool of Node.js servers running on different ports.
   - NGINX will distribute incoming requests evenly among these servers.

3. **Load Balancing Algorithms**:
   By default, NGINX uses a round-robin algorithm to balance traffic. You can specify other load balancing methods such as:
   - **Least Connections**: Sends requests to the server with the fewest active connections.
     ```nginx
     upstream node_app {
         least_conn;
         server localhost:3000;
         server localhost:3001;
     }
     ```

4. **Test and Scale**:
   You can now test the setup by running multiple instances of your Node.js app on different ports (3000, 3001, 3002, etc.) and monitor how NGINX balances the traffic.

## Caching Static Content with NGINX
Caching static content such as images, CSS, and JavaScript files can significantly reduce the load on your Node.js application by serving cached versions of these assets directly from NGINX.

### Caching Setup in NGINX:
1. **Modify Configuration for Caching**:
   Add caching rules to your server block:
   ```nginx
   server {
       listen 80;
       server_name yourdomain.com;

       location / {
           proxy_pass http://localhost:3000;
           proxy_set_header Host $host;
           proxy_cache_bypass $http_upgrade;
       }

       # Caching static content
       location ~* \.(jpg|jpeg|png|gif|ico|css|js)$ {
           expires 30d;
           add_header Cache-Control "public, no-transform";
       }
   }
  1. 설명:
    • 30일에 만료됩니다. 지시어는 NGINX에게 30일 동안 정적 파일을 캐시하도록 지시합니다.
    • Node.js 애플리케이션을 건드리지 않고 NGINX에서 직접 제공되므로 이러한 자산에 대한 응답 시간이 크게 향상됩니다.

Node.js 애플리케이션을 위한 확장 전략

Node.js 애플리케이션 확장은 단지 NGINX를 사용하는 것이 아닙니다. 다음은 애플리케이션을 효과적으로 확장할 수 있는 몇 가지 추가 기술입니다.

수직 확장

수직적 확장은 CPU 수를 늘리거나 메모리를 추가하는 등 서버의 하드웨어 리소스를 업그레이드하는 것을 의미합니다. 이는 단기적으로 성능을 향상시킬 수 있지만 기계의 물리적 성능에 따라 제한됩니다.

수평적 확장

수평 확장에는 다양한 서버에서 애플리케이션의 여러 인스턴스를 실행하고 NGINX 또는 클라우드 로드 밸런서와 같은 도구를 사용하여 이들 간의 트래픽 균형을 조정하는 작업이 포함됩니다. 이 방법을 사용하면 더 많은 인스턴스를 추가하여 사실상 무제한으로 확장할 수 있습니다.

Clustering in Node.js

Node.js can run on multiple cores by using the built-in cluster module. This allows you to utilize all the available CPU cores on a server, increasing throughput.

Example:

const cluster = require('cluster');
const http = require('http');
const os = require('os');

if (cluster.isMaster) {
    const numCPUs = os.cpus().length;

    // Fork workers.
    for (let i = 0; i 1a56c26e1ee04e4e5ac420f74e2d5a0d {
        console.log(`Worker ${worker.process.pid} died`);
    });
} else {
    // Workers can share any TCP connection
    http.createServer((req, res) => {
        res.writeHead(200);
        res.end('Hello, world!\n');
    }).listen(8000);
}

This example shows how to use all CPU cores available on a machine by forking worker processes.

Real-World Use Case: Scaling an E-commerce Website

Problem: An e-commerce website is experiencing high traffic during sales events, leading to slow response times and occasional server crashes.

Solution:

  • Use NGINX to distribute traffic across multiple Node.js servers running different instances of the application.
  • Cache static assets like product images and JavaScript files with NGINX to reduce load on the server.
  • Implement Node.js Clustering to fully utilize the server’s CPU resources.

Outcome: The e-commerce website can now handle thousands of concurrent users without slowdowns, ensuring a smooth user experience during peak traffic times.

Why SSL, Encryption, and Security Matter?

When scaling applications, security should not be overlooked. Implementing SSL (Secure Sockets Layer) ensures that data transmitted between the client and server is encrypted and protected from attacks.

Steps to Enable SSL:

  1. Obtain an SSL Certificate from a trusted Certificate Authority (CA) like Let's Encrypt.
  2. Configure NGINX to use SSL:

    server {
       listen 443 ssl;
       server_name yourdomain.com;
    
       ssl_certificate /etc/ssl/certs/yourdomain.crt;
       ssl_certificate_key /etc/ssl/private/yourdomain.key;
    
       location / {
           proxy_pass http://localhost:3000;
       }
    }
    
  3. Redirect HTTP to HTTPS to ensure all traffic is secure:

    server {
       listen 80;
       server_name yourdomain.com;
       return 301 https://$host$request_uri;
    }
    

Conclusion

Scaling a Node.js application is essential as traffic and demand grow. By utilizing NGINX as a reverse proxy and load balancer, you can distribute traffic effectively, cache static assets, and ensure high availability. Combining these techniques with horizontal scaling and Node.js clustering enables your applications to handle massive traffic loads while maintaining performance and stability.

Implement these strategies in your projects to achieve better scalability, improved user experience, and increased uptime.

위 내용은 NGINX 및 로드 밸런싱을 사용하여 Node.js 애플리케이션 확장의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.