Kubernetes クラスターが構成されていると仮定して、CentOS に基づいて Nginx 用の仮想マシンを作成します。
実験での設定の詳細は次のとおりです:
Nginx (CenOS8 Minimal) – 192.168.1.50
Kube マスター – 192.168.1.40
Kube Worker 1 – 192.168.1.41
nginx ソフトウェア パッケージは CentOS システムのデフォルト ウェアハウスにないため、 epel ウェアハウス:
[root@nginxlb ~]# dnf install epel-release -yステップ 2) Nginx のインストール
次のコマンドを実行して nginx をインストールします:
[root@nginxlb ~]# dnf install nginx -y
rpm コマンドを使用して詳細を確認しますNginx パッケージの:
[root@nginxlb ~]# rpm -qi nginx
nginx の http および https サービスへのアクセスを許可するようにファイアウォールを構成します:
[root@nginxlb ~]# firewall-cmd --permanent --add-service=http[root@nginxlb ~]# firewall-cmd --permanent --add-service=https[root@nginxlb ~]# firewall-cmd –reload
次のコマンドを使用して SELinux を許可に設定します
[root@nginxlb ~]# sed -i s/^SELINUX=.*$/SELINUX=permissive/ /etc/selinux/config[root@nginxlb ~]# rebootステップ 3) Kubernetes からアプリケーションの NodePort 詳細を取得します
[kadmin@k8s-master ~]$ kubectl get all -n ingress-nginx
上記の出力からわかるように、各ワーカー ノードの NodePort 32760 はポート 80 にマッピングされ、NodePort 32375 はポート 443 にマッピングされます。これらのノード ポートを Nginx 構成ファイルで負荷分散のために使用します。
ステップ 4) 負荷分散用に Nginx を構成するnginx 構成ファイルを編集し、次の内容を追加します:
[root@nginxlb ~]# vim /etc/nginx/nginx.conf
「server」部分をコメントアウトします。 ( 38 行目から 57 行目):
さらに次の行を追加します:
upstream backend { server 192.168.1.41:32760; server 192.168.1.42:32760; } server { listen 80; location / { proxy_read_timeout 1800; proxy_connect_timeout 1800; proxy_send_timeout 1800; send_timeout 1800; proxy_set_header Accept-Encoding ""; proxy_set_header X-Forwarded-By $server_addr:$server_port; proxy_set_header X-Forwarded-For $remote_addr; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_pass http://backend; } location /nginx_status { stub_status; } }
設定ファイルを保存して終了します。
上記の変更に従って、nginx のポート 80 へのすべてのリクエストは、Kubernetes ワーカー ノード (192.168.1.41 および 192.168.1.42) の NodePort (32760) にルーティングされます。 ) ) ポート。
次のコマンドを使用して、Nginx サービスを有効にします:
[root@nginxlb ~]# systemctl start nginx[root@nginxlb ~]# systemctl enable nginxTest Nginx の TCP ロード バランサー
nginx が TCP ロード バランサーとして機能するかどうかをテストするにはKubernetes Normal の場合は、nginx に基づいてデプロイメントをデプロイし、デプロイメント ポートをポート 80 として公開し、nginx デプロイメントのエントリ リソースを定義してください。次のコマンドを使用してこれらの Kubernetes オブジェクトをデプロイしました:
[kadmin@k8s-master ~]$ kubectl create deployment nginx-deployment --image=nginx deployment.apps/nginx-deployment created [kadmin@k8s-master ~]$ kubectl expose deployments nginx-deployment --name=nginx-deployment --type=NodePort --port=80 service/nginx-deployment exposed
次のコマンドを実行して、デプロイメント、svc、およびイングレスの詳細を取得します:
ローカル ホストのホスト ファイルを更新します。 nginx-lb.example.com が nginx サーバーの IP アドレス (192.168.1.50) を指すようにします。
[root@localhost ~]# echo "192.168.1.50 nginx-lb.example.com" >> /etc/hosts
ブラウザ経由で nginx-lb.example.com にアクセスしてみます
以上がNginx で TCP ロード バランシングを構成する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。