Maison  >  Article  >  Opération et maintenance  >  Comment implémenter un proxy inverse dans nginx

Comment implémenter un proxy inverse dans nginx

(*-*)浩
(*-*)浩original
2019-06-06 09:15:1010920parcourir

J'ai récemment prévu d'étudier le code source de nginx et j'ai vu des introductions en ligne selon lesquelles nginx peut être utilisé comme serveur proxy inverse pour compléter l'équilibrage de charge. J'ai donc collecté des informations sur les serveurs proxy inverse et les ai compilées.

Comment implémenter un proxy inverse dans nginx

La méthode Reverse Proxy consiste à utiliser un serveur proxy pour accepter les demandes de connexion sur Internet, puis transmettre la demande au serveur sur le réseau interne ; le serveur est renvoyé au client demandant une connexion sur Internet. A ce moment, le serveur proxy apparaît comme un serveur pour le monde extérieur.

Les serveurs proxy habituels ne sont utilisés que pour proxy les demandes de connexion au réseau interne vers Internet. Le client doit spécifier un serveur proxy et envoyer les requêtes http qui sont destinées à être envoyées directement au serveur Web au serveur proxy. Lorsqu'un serveur proxy peut mandater un hôte sur le réseau externe pour accéder au réseau interne, cette méthode de service proxy est appelée service proxy inverse.

Il existe généralement deux modèles pour implémenter un serveur proxy inverse. Il peut être utilisé comme remplaçant pour le serveur de contenu ou comme équilibreur de charge pour le cluster de serveurs de contenu.

Agissez en tant que remplaçant de votre serveur de contenu Les serveurs proxy agissent en tant que remplaçants pour les serveurs de contenu. Lorsque des clients externes tentent d'accéder au serveur de contenu, ils sont envoyés au serveur proxy. Le contenu réel réside sur le serveur de contenu et est protégé en toute sécurité à l'intérieur du pare-feu. Les serveurs proxy se trouvent à l'extérieur du pare-feu et apparaissent aux clients comme des serveurs de contenu.

Lorsqu'un client fait une requête sur un site, la requête est envoyée au serveur proxy. Le serveur proxy envoie ensuite la demande du client au serveur de contenu via un chemin spécifique dans le pare-feu. Le serveur de contenu renvoie ensuite les résultats au serveur proxy via ce canal. Le serveur proxy envoie les informations récupérées au client comme si le serveur proxy était le véritable serveur de contenu. Si le serveur de contenu renvoie un message d'erreur, le serveur proxy intercepte le message et modifie toutes les URL répertoriées dans l'en-tête avant d'envoyer le message au client. Cela empêche les clients externes d'obtenir l'URL de redirection pour le serveur de contenu interne.

De cette manière, le serveur proxy constitue une autre barrière entre la base de données sécurisée et d'éventuelles attaques malveillantes. Même si une attaque chanceuse réussit, l’auteur est, au mieux, limité à l’accès aux informations impliquées dans une seule transaction, au lieu d’avoir accès à l’intégralité de la base de données. Les utilisateurs non autorisés ne peuvent pas accéder au serveur de contenu réel car le chemin du pare-feu autorise uniquement l'accès au serveur proxy.

Équilibreur de charge en tant que serveur de contenu

Plusieurs serveurs proxy peuvent être utilisés au sein d'une organisation pour équilibrer la charge réseau entre les serveurs Web. Dans ce modèle, vous pouvez profiter des fonctionnalités de mise en cache du serveur proxy pour créer un pool de serveurs pour l'équilibrage de charge. À ce stade, le serveur proxy peut se trouver de chaque côté du pare-feu. Si votre serveur Web reçoit un grand nombre de requêtes chaque jour, vous pouvez utiliser un serveur proxy pour partager la charge sur le serveur Web et améliorer l'efficacité de l'accès au réseau.

Le serveur proxy fait office d'intermédiaire pour les requêtes des clients vers le serveur réel. Le serveur proxy met en cache le document demandé. S'il existe plusieurs serveurs proxy, DNS peut utiliser le « round robin » pour sélectionner son adresse IP, acheminant les demandes de manière aléatoire. Le client utilise la même URL à chaque fois, mais l'itinéraire emprunté par la requête peut passer par un serveur proxy différent à chaque fois.

Plusieurs serveurs proxy peuvent être utilisés pour gérer les requêtes adressées à un serveur de contenu à volume élevé. L'avantage est que le serveur de contenu peut gérer une charge plus élevée et être plus efficace que s'il fonctionnait seul. Lors du démarrage initial, le serveur proxy récupère d'abord les documents du serveur de contenu, après quoi le nombre de requêtes adressées au serveur de contenu diminue considérablement.

Pour plus d'articles techniques liés à Nginx, veuillez visiter la colonne

Tutoriel d'utilisation de Nginx

pour apprendre !

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn