Heim  >  Artikel  >  Betrieb und Instandhaltung  >  Bereitstellungsstrategie von Containern und Microservices unter Nginx Proxy Manager

Bereitstellungsstrategie von Containern und Microservices unter Nginx Proxy Manager

WBOY
WBOYOriginal
2023-09-27 13:06:331145Durchsuche

Nginx Proxy Manager下的容器与微服务的部署策略

Die Bereitstellungsstrategie von Containern und Microservices unter Nginx Proxy Manager erfordert spezifische Codebeispiele

Zusammenfassung:
Mit der Popularität der Microservice-Architektur ist die Containerisierungstechnologie zu einem wichtigen Bestandteil der modernen Softwareentwicklung geworden. In der Microservice-Architektur spielt der Nginx Proxy Manager eine sehr wichtige Rolle bei der Verwaltung und Weiterleitung des Datenverkehrs von Microservices. In diesem Artikel wird die Verwendung von Nginx Proxy Manager zum Bereitstellen und Verwalten von Container-Mikrodiensten vorgestellt und relevante Codebeispiele bereitgestellt.

  1. Einführung
    Die Microservice-Architektur teilt eine große Anwendung in mehrere unabhängige kleine Dienste auf. Jeder Dienst kann unabhängig bereitgestellt und gewartet werden. Containerisierungstechnologie (wie Docker) bietet eine praktische, schnelle und portable Bereitstellungsmethode, wodurch die Microservice-Architektur flexibler und skalierbarer wird.
  2. Einführung in Nginx Proxy Manager
    Nginx Proxy Manager ist ein auf Nginx basierendes Reverse-Proxy-Verwaltungstool. Es bietet eine benutzerfreundliche Weboberfläche, mit der mehrere Nginx-Reverse-Proxy-Server einfach konfiguriert und verwaltet werden können. In einer Microservice-Architektur kann Nginx Proxy Manager verwendet werden, um verschiedene Microservices zu vertreten und das Routing und den Lastausgleich zwischen ihnen zu verwalten.
  3. Bereitstellen von Microservices mit Nginx Proxy Manager
    Hier ist ein einfaches Beispiel, das zeigt, wie man mit Nginx Proxy Manager zwei Container-Microservices bereitstellen kann: einen Front-End-Dienst und einen Back-End-Dienst.

Zuerst müssen wir zwei Docker-Container erstellen, einen zum Ausführen des Front-End-Dienstes und einen zum Ausführen des Back-End-Dienstes. Gehen Sie davon aus, dass wir Docker auf dem Host-Computer installiert haben.

3.1 Front-End-Service-Container
Erstellen Sie ein Verzeichnis mit dem Namen „Frontend“ und erstellen Sie in diesem Verzeichnis eine Datei mit dem Namen „Dockerfile“. In der Docker-Datei definieren wir die Umgebung und die Abhängigkeiten, die der Front-End-Dienst benötigt, und kopieren den Front-End-Code in den Container.

Der Beispielinhalt der Docker-Datei lautet wie folgt:

FROM nginx:1.17.9-alpine
COPY ./frontend /usr/share/nginx/html

Führen Sie dann den folgenden Befehl in der Befehlszeile aus, um den Front-End-Dienstcontainer zu erstellen und auszuführen:

docker build -t frontend:latest ./frontend
docker run -d --name frontend -p 8080:80 frontend:latest

3.2 Backend-Dienstcontainer
Erstellen Sie ein Verzeichnis mit dem Namen „backend“ und Platzieren Sie es im Verzeichnis. Erstellen Sie unten eine Datei mit dem Namen „Dockerfile“. In der Docker-Datei definieren wir die Umgebung und die Abhängigkeiten, die der Backend-Dienst benötigt, und führen den Startbefehl des Backend-Dienstes aus.

Der Beispielinhalt der Docker-Datei lautet wie folgt:

FROM node:10-alpine
WORKDIR /app
COPY ./backend/package*.json ./
RUN npm install
COPY ./backend .
EXPOSE 3000
CMD [ "node", "index.js" ]

Dann führen Sie den folgenden Befehl in der Befehlszeile aus, um den Backend-Service-Container zu erstellen und auszuführen:

docker build -t backend:latest ./backend
docker run -d --name backend -p 3000:3000 backend:latest
  1. Konfigurieren Sie Nginx Proxy Manager
    Öffnen Sie die Weboberfläche von Nginx Proxy Manager in Melden Sie sich im Browser an und wählen Sie den Proxyserver aus, den Sie konfigurieren möchten. Erstellen Sie zwei neue Hosteinträge, legen Sie das Proxy-Ziel des Front-End-Dienstes auf die IP-Adresse und den Port des Container-Front-End-Dienstes fest (z. B. http://containerIPaddress:8080) und legen Sie das Proxy-Ziel des Back-End-Dienstes fest -end service to containerized Die IP-Adresse und der Port des Backend-Dienstes (zum Beispiel: http://container IP-Adresse:3000).
  2. Microservice-Bereitstellung testen
    Besuchen Sie nun die Proxy-Server-Adresse von Nginx Proxy Manager in Ihrem Browser und Sie können über den Proxy auf die Front-End- und Back-End-Dienste zugreifen. Beispielsweise kann auf den Front-End-Dienst über http://Proxy-Server-Adresse/Frontend und auf den Back-End-Dienst über http://Proxy-Server-Adresse/Backend zugegriffen werden.
  3. Fazit
    In diesem Artikel wird die Verwendung von Nginx Proxy Manager zum Bereitstellen und Verwalten von Container-Microservices vorgestellt und relevante Codebeispiele bereitgestellt. Durch die Verwendung von Nginx Proxy Manager können Entwickler Routing und Lastausgleich zwischen Microservices einfach konfigurieren und verwalten und so die Skalierbarkeit und Wartbarkeit von Anwendungen verbessern.

Es ist jedoch zu beachten, dass das obige Beispiel nur zu Demonstrationszwecken dient und die tatsächliche Situation möglicherweise komplizierter ist. Während des eigentlichen Bereitstellungsprozesses müssen Sie möglicherweise die Konfiguration weiter anpassen und an Ihre spezifischen Anforderungen anpassen.

Das obige ist der detaillierte Inhalt vonBereitstellungsstrategie von Containern und Microservices unter Nginx Proxy Manager. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn