Maison > Article > interface Web > Mise à l'échelle des applications Node.js : meilleures pratiques, techniques et outils
À mesure que votre application Node.js gagne en popularité, il deviendra nécessaire de gérer davantage d'utilisateurs, de requêtes et de données. La mise à l'échelle garantit que votre application reste réactive et fonctionne efficacement sous des charges croissantes. Dans cet article, nous explorerons les différentes façons de faire évoluer les applications Node.js, pourquoi cela est essentiel, et fournirons des exemples concrets avec des extraits de code pertinents. Nous aborderons également les outils et techniques courants, tels que le clustering, l'équilibrage de charge, les microservices et la mise à l'échelle horizontale.
La mise à l'échelle permet à votre application Node.js de gérer un nombre croissant d'utilisateurs et de transactions sans goulots d'étranglement ni temps d'arrêt. Si votre application n'est pas suffisamment mise à l'échelle :
Il existe deux principaux types de mise à l'échelle :
Dans les applications Node.js, la mise à l'échelle horizontale est souvent le choix préféré. Explorons les méthodes pour faire évoluer Node.js horizontalement.
Node.js est par nature monothread, ce qui signifie qu'il fonctionne sur un seul cœur. Le clustering vous permet d'exécuter plusieurs instances de votre application Node.js, chacune sur un cœur de processeur différent, en utilisant tout le potentiel d'une machine multicœur.
const cluster = require('cluster'); const http = require('http'); const os = require('os'); // Check if current process is the master if (cluster.isMaster) { // Get number of CPU cores const numCPUs = os.cpus().length; // Fork workers for (let i = 0; i < numCPUs; i++) { cluster.fork(); } // Listen for dying workers and replace them cluster.on('exit', (worker, code, signal) => { console.log(`Worker ${worker.process.pid} died. Starting a new worker...`); cluster.fork(); }); } else { // Workers can share any TCP connection http.createServer((req, res) => { res.writeHead(200); res.end('Hello from worker ' + process.pid); }).listen(8000); console.log(`Worker ${process.pid} started`); }
Explication :
Cette approche permet à votre application Node.js de traiter davantage de requêtes simultanément, en exploitant plusieurs cœurs.
Pour évoluer horizontalement, vous pouvez déployer plusieurs instances de votre application Node.js sur différents serveurs. L'équilibrage de charge garantit que le trafic est réparti uniformément entre ces instances, évitant ainsi qu'un seul serveur soit submergé.
NGINX est un outil puissant d'équilibrage de charge. Voici comment le configurer.
sudo nano /etc/nginx/sites-available/nodeapp.conf
upstream node_backend { server 127.0.0.1:3000; server 127.0.0.1:3001; server 127.0.0.1:3002; } server { listen 80; server_name your_domain_or_IP; location / { proxy_pass http://node_backend; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection 'upgrade'; proxy_set_header Host $host; proxy_cache_bypass $http_upgrade; } }
sudo nginx -t sudo systemctl restart nginx
Explication :
En ajoutant plus de serveurs ou d'instances, vous pouvez évoluer et servir plus d'utilisateurs simultanément.
Une autre approche courante pour faire évoluer les applications Node.js consiste à diviser l'application monolithique en services plus petits et découplés appelés microservices. Chaque microservice gère une partie spécifique de la fonctionnalité (par exemple, l'authentification, les paiements, la gestion des utilisateurs) et communique avec les autres via des API.
Microservice utilisateur (user-service.js) :
const express = require('express'); const app = express(); app.get('/user/:id', (req, res) => { const userId = req.params.id; res.send(`User details for ID: ${userId}`); }); app.listen(3001, () => { console.log('User service listening on port 3001'); });
Commander un microservice (order-service.js) :
const express = require('express'); const app = express(); app.get('/order/:id', (req, res) => { const orderId = req.params.id; res.send(`Order details for ID: ${orderId}`); }); app.listen(3002, () => { console.log('Order service listening on port 3002'); });
Passerelle API :
const express = require('express'); const app = express(); const request = require('request'); app.get('/user/:id', (req, res) => { request(`http://localhost:3001/user/${req.params.id}`).pipe(res); }); app.get('/order/:id', (req, res) => { request(`http://localhost:3002/order/${req.params.id}`).pipe(res); }); app.listen(3000, () => { console.log('API Gateway listening on port 3000'); });
Explication :
Containers provide an efficient way to package your application and its dependencies, ensuring consistency across different environments (development, testing, production). Docker is a popular tool for containerization.
# Use an official Node.js runtime as the base image FROM node:14 # Set the working directory WORKDIR /usr/src/app # Copy package.json and install dependencies COPY package*.json ./ RUN npm install # Copy the application source code COPY . . # Expose the port the app runs on EXPOSE 3000 # Start the Node.js application CMD ["node", "app.js"]
docker build -t nodeapp . docker run -p 3000:3000 nodeapp
With Docker, you can easily scale your application by running multiple containers across different servers or environments.
Kubernetes is a powerful tool for automating the deployment, scaling, and management of containerized applications. When you need to run your Node.js application in multiple containers, Kubernetes helps in orchestration, ensuring availability and scalability.
Here’s a high-level view of how to scale Node.js applications with Kubernetes:
Scaling your Node.js application is critical for handling increased traffic, ensuring high availability, and delivering a consistent user experience. Techniques such as clustering, load balancing, microservices, and containerization provide powerful ways to scale horizontally. With tools like NGINX, Docker, and Kubernetes, you can efficiently scale your Node.js application to meet growing demands. By implementing these strategies, you’ll be prepared to handle both current and future traffic spikes with ease.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!