Docker는 현대 애플리케이션에서 필수적인 기술이 되었지만 애플리케이션 모니터링 및 로그 관리에 Docker를 사용하는 것은 어려운 일입니다. 서비스 검색 및 로드 밸런싱과 같은 Docker 네트워크 기능이 지속적으로 향상됨에 따라 완전하고 안정적이며 효율적인 애플리케이션 모니터링 시스템이 점점 더 필요해지고 있습니다.
이 기사에서는 애플리케이션 모니터링 및 로그 관리를 위한 Docker의 사용을 간략하게 소개하고 구체적인 코드 예제를 제공합니다.
애플리케이션 모니터링을 위해 Prometheus 사용
Prometheus는 SoundCloud에서 개발한 오픈 소스 풀 모델 기반 서비스 모니터링 및 경고 도구입니다. Go 언어로 작성되었으며 마이크로서비스 솔루션 및 클라우드 환경에서 널리 사용됩니다. 모니터링 도구로서 Docker의 CPU, 메모리, 네트워크 및 디스크 등을 모니터링할 수 있으며 다차원 데이터 전환, 유연한 쿼리, 경보 및 시각화 기능도 지원하므로 신속하게 대응하고 신속하게 의사결정을 내릴 수 있습니다.
또 한 가지 주목해야 할 점은 Prometheus가 풀 모드를 통해 샘플링해야 한다는 것입니다. 즉, 모니터링 데이터를 얻으려면 모니터링되는 애플리케이션의 /metrics 인터페이스에 액세스해야 합니다. 따라서 모니터링되는 애플리케이션 이미지를 시작할 때 먼저 Prometheus에 접속할 수 있는 IP와 포트를 /metrics 인터페이스에 구성해야 합니다. 다음은 간단한 Node.js 애플리케이션입니다.
const express = require('express') const app = express() app.get('/', (req, res) => { res.send('Hello World!') }) app.get('/metrics', (req, res) => { res.send(` # HELP api_calls_total Total API calls # TYPE api_calls_total counter api_calls_total 100 `) }) app.listen(3000, () => { console.log('Example app listening on port 3000!') })
이 코드에서는 /metrics 인터페이스를 통해 api_calls_total 모니터링 표시기를 반환합니다.
다음으로 공식 홈페이지에서 Prometheus의 Docker 이미지를 다운로드하고 docker-compose.yml 파일을 생성하고, 이 파일에서 Node.js 애플리케이션의 데이터를 얻습니다.
version: '3' services: node: image: node:lts command: node index.js ports: - 3000:3000 prometheus: image: prom/prometheus:v2.25.2 volumes: - ./prometheus:/etc/prometheus command: - '--config.file=/etc/prometheus/prometheus.yml' - '--storage.tsdb.retention.time=15d' ports: - 9090:9090
docker-compose.yml 파일에는 두 가지 서비스를 정의합니다. 하나는 Node.js 애플리케이션을 실행하는 Node 서비스이고 다른 하나는 모니터링을 위한 Prometheus 서비스입니다. 그 중 Node 서비스에서 공개하는 포트는 포트 3000이다. 포트 매핑을 통해 docker-compose.yml의 IP와 3000 포트를 통해 Node 애플리케이션의 /metrics 인터페이스에 접근할 수 있다. Prometheus는 포트 9090을 통해 해당 모니터링 지표 데이터에 액세스할 수 있습니다.
마지막으로 prometheus.yml 파일에서 얻을 데이터 소스를 정의해야 합니다.
global: scrape_interval: 15s evaluation_interval: 15s scrape_configs: - job_name: 'node-exporter' static_configs: - targets: ['node:9100'] - job_name: 'node-js-app' static_configs: - targets: ['node:3000']
이 파일에서는 수집할 모든 Node.js 애플리케이션의 표시기를 정의합니다. 여기서 대상 매개변수는 Node.js 애플리케이션의 IP 주소와 해당 포트 번호입니다. 여기서는 노드와 포트 3000을 사용하고 있습니다.
마지막으로 docker-compose up 명령을 실행하여 전체 애플리케이션과 해당 모니터링 서비스를 시작하고 Prometheus에서 멤버 지표를 확인하세요.
로그 관리를 위해 ElasticSearch 및 Logstash 사용
Docker에서 애플리케이션 로그 데이터는 다양한 Docker 컨테이너에 배포됩니다. 이러한 로그를 중앙 집중식으로 관리하려는 경우 ELK의 ElasticSearch 및 Logstash를 사용하여 로그를 중앙에서 관리하면 컴퓨터 리소스를 더 쉽게 모니터링하고 분석할 수 있습니다.
시작하기 전에 Logstash 및 ElasticSearch의 Docker 이미지를 다운로드하고 docker-compose.yml 파일을 생성해야 합니다.
이 파일에는 세 가지 서비스가 정의되어 있으며, 그 중 bls는 비즈니스 로그를 시뮬레이션하는 데 사용되는 API 서비스입니다. 각 응답 후에는 로그가 stdout 및 로그 파일에 기록됩니다. Logstash 서비스는 Logstash에서 공식적으로 제공하는 Docker 이미지를 기반으로 구축되었으며 로그를 수집, 필터링 및 전송하는 데 사용됩니다. ElasticSearch 서비스는 로그를 저장하고 검색하는 데 사용됩니다.
version: '3' services: bls: image: nginx:alpine volumes: - ./log:/var/log/nginx - ./public:/usr/share/nginx/html:ro ports: - "8000:80" logging: driver: "json-file" options: max-size: "10m" max-file: "10" logstash: image: logstash:7.10.1 volumes: - ./logstash/pipeline:/usr/share/logstash/pipeline environment: - "ES_HOST=elasticsearch" depends_on: - elasticsearch elasticsearch: image: elasticsearch:7.10.1 environment: - "http.host=0.0.0.0" - "discovery.type=single-node" volumes: - ./elasticsearch:/usr/share/elasticsearch/data
구성 파일에서 컨테이너의 경로를 호스트의 로그 파일 시스템에 매핑합니다. 동시에, 로깅 옵션을 통해 로그의 볼륨 크기와 수량을 정의하여 로그가 차지하는 저장 공간을 제한합니다.
logstash 구성 파일에서 nginx 로그의 수집, 필터링 및 전송을 처리하는 데 사용되는 nginx_pipeline.conf
라는 새 파이프라인을 정의합니다. ELK 작동 방식과 유사하게, logstash는 다양한 조건에 따라 수신된 로그를 처리하고 이미 생성된 Elasticsearch 클러스터로 보냅니다. 이 구성 파일에서는 다음 처리 논리를 정의합니다. nginx_pipeline.conf
,该文件用于处理nginx日志的收集、过滤和传输。与ELK的工作原理相同,logstash将根据不同的条件,对接收到的日志进行处理,并将其发送到已经创建的 Elasticsearch 集群中。在该配置文件中,我们定义了如下处理逻辑:
input { file { path => "/var/log/nginx/access.log" } } filter { grok { match => { "message" => "%{COMBINEDAPACHELOG}" } } } output { elasticsearch { hosts => [ "${ES_HOST}:9200" ] index => "nginx_log_index" } }
在该配置文件中,我们定义了一个name为file的输入,表示要从本地Log文件中读取数据。接着,我们引入了使用grok库来解析符合特定模板的日志的filter。最后,我们定义了输出,其将数据传输到 Elasticsearch 集群的地址,同时将检索和报告通过环境变量ES_HOST
rrreee
ES_HOST
를 통해 컨테이너에 검색 및 보고를 전달하는 동시에 Elasticsearch 클러스터의 주소로 데이터를 전송하는 출력을 정의합니다. 결국 위와 같이 전체 ELK 구성이 완료되면 효율적인 로그 관리 시스템을 얻게 됩니다. 각 로그는 중앙 집중식 장소로 전송되고 통합되어 쉽게 검색, 필터링 및 시각화 작업이 가능합니다. 🎜위 내용은 애플리케이션 모니터링 및 로그 관리에 Docker를 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Linux 시스템 관리 및 유지 보수의 주요 단계에는 다음이 포함됩니다. 1) 파일 시스템 구조 및 사용자 관리와 같은 기본 지식을 마스터합니다. 2) 시스템 모니터링 및 리소스 관리를 수행하고 Top, HTOP 및 기타 도구를 사용하십시오. 3) 시스템 로그를 사용하여 문제를 해결하고 JournalCTL 및 기타 도구를 사용하십시오. 4) 자동 스크립트 및 작업 스케줄링을 작성하고 CRON 도구를 사용하십시오. 5) 보안 관리 및 보호 구현, iptables를 통해 방화벽을 구성합니다. 6) 성능 최적화 및 모범 사례를 수행하고 커널 매개 변수를 조정하며 좋은 습관을 개발하십시오.

시작시 init =/bin/bash 또는 단일 매개 변수를 추가하여 Linux 유지 관리 모드가 입력됩니다. 1. 유지 보수 모드를 입력하십시오 : 그루브 메뉴를 편집하고 시작 매개 변수를 추가하십시오. 2. 파일 시스템을 다시 마운트하여 읽고 쓰기 모드 : MOUNT-OREMOUNT, RW/. 3. 파일 시스템 수리 : FSCK/DEV/SDA1과 같은 FSCK 명령을 사용하십시오. 4. 데이터 손실을 피하기 위해 데이터를 백업하고주의해서 작동합니다.

이 기사에서는 데비안 시스템에서 Hadoop 데이터 처리 효율성을 향상시키는 방법에 대해 설명합니다. 최적화 전략에는 하드웨어 업그레이드, 운영 체제 매개 변수 조정, Hadoop 구성 수정 및 효율적인 알고리즘 및 도구 사용이 포함됩니다. 1. 하드웨어 리소스 강화는 모든 노드에 일관된 하드웨어 구성, 특히 CPU, 메모리 및 네트워크 장비 성능에주의를 기울일 수 있도록합니다. 전반적인 처리 속도를 향상시키기 위해서는 고성능 하드웨어 구성 요소를 선택하는 것이 필수적입니다. 2. 운영 체제 조정 파일 설명 자 및 네트워크 연결 : /etc/security/limits.conf 파일을 수정하여 파일 설명자의 상한을 늘리고 동시에 시스템에 의해 열 수 있습니다. JVM 매개 변수 조정 : Hadoop-env.sh 파일에서 조정

이 안내서는 데비안 시스템에서 syslog를 사용하는 방법을 배우도록 안내합니다. Syslog는 로깅 시스템 및 응용 프로그램 로그 메시지를위한 Linux 시스템의 핵심 서비스입니다. 관리자가 시스템 활동을 모니터링하고 분석하여 문제를 신속하게 식별하고 해결하는 데 도움이됩니다. 1. syslog에 대한 기본 지식 syslog의 핵심 기능에는 다음이 포함됩니다. 로그 메시지 중앙 수집 및 관리; 다중 로그 출력 형식 및 대상 위치 (예 : 파일 또는 네트워크) 지원; 실시간 로그보기 및 필터링 기능 제공. 2. Syslog 설치 및 구성 (RSYSLOG 사용) Debian 시스템은 기본적으로 RSYSLOG를 사용합니다. 다음 명령으로 설치할 수 있습니다 : sudoaptupdatesud

데비안 시스템에 적합한 Hadoop 버전을 선택할 때는 다음과 같은 주요 요소를 고려해야합니다. 1. 안정성 및 장기 지원 : 안정성과 보안을 추구하는 사용자의 경우 Debian11 (Bullseye)과 같은 데비안 안정 버전을 선택하는 것이 좋습니다. 이 버전은 완전히 테스트되었으며 최대 5 년의 지원주기가있어 시스템의 안정적인 작동을 보장 할 수 있습니다. 2. 패키지 업데이트 속도 : 최신 Hadoop 기능 및 기능을 사용해야하는 경우 Debian의 불안정한 버전 (SID)을 고려할 수 있습니다. 그러나 불안정한 버전에는 호환성 문제와 안정성 위험이있을 수 있습니다. 3. 커뮤니티 지원 및 자원 : 데비안은 풍부한 문서를 제공하고

이 기사에서는 Tigervnc를 사용하여 데비안 시스템에서 파일을 공유하는 방법에 대해 설명합니다. 먼저 tigervnc 서버를 설치 한 다음 구성해야합니다. 1. TigervNC 서버를 설치하고 터미널을 엽니 다. 소프트웨어 패키지 목록 업데이트 : sudoaptupdate tigervnc 서버를 설치하려면 : sudoaptinstalltigervnc-standalone-servertigervnc-common 2. VNC 서버 비밀번호를 설정하도록 tigervnc 서버 구성 : vncpasswd vnc 서버 : vncserver : 1-localhostno

데비안 메일 서버의 방화벽 구성은 서버 보안을 보장하는 데 중요한 단계입니다. 다음은 iptables 및 방화구 사용을 포함하여 일반적으로 사용되는 여러 방화벽 구성 방법입니다. iptables를 사용하여 iptables를 설치하도록 방화벽을 구성하십시오 (아직 설치되지 않은 경우) : sudoapt-getupdatesudoapt-getinstalliptablesview 현재 iptables 규칙 : sudoiptables-l configuration

Debian Mail 서버에 SSL 인증서를 설치하는 단계는 다음과 같습니다. 1. OpenSSL 툴킷을 먼저 설치하십시오. 먼저 OpenSSL 툴킷이 이미 시스템에 설치되어 있는지 확인하십시오. 설치되지 않은 경우 다음 명령을 사용하여 설치할 수 있습니다. 개인 키 및 인증서 요청 생성 다음에 다음, OpenSSL을 사용하여 2048 비트 RSA 개인 키 및 인증서 요청 (CSR)을 생성합니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

드림위버 CS6
시각적 웹 개발 도구

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음
