Maison >Opération et maintenance >exploitation et maintenance Linux >Comment utiliser ELK Stack pour l'analyse des journaux dans un environnement Linux ?
Comment utiliser ELK Stack pour l'analyse des journaux dans un environnement Linux ?
1. Introduction à ELK Stack
ELK Stack est une plateforme d'analyse de logs composée de trois logiciels open source Elasticsearch, Logstash et Kibana. Elasticsearch est un moteur de recherche et d'analyse distribué en temps réel, Logstash est un outil de collecte, de traitement et de transfert de journaux, et Kibana est une interface de visualisation et d'analyse des journaux.
2. Installez ELK Stack
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.15.2-linux-x86_64.tar.gz
(2) Décompressez le package d'installation :
tar -zxvf elasticsearch-7.15.2-linux-x86_64.tar.gz
(3) Exécutez Elasticsearch :
cd elasticsearch-7.15.2/bin ./elasticsearch
(4) Vérifiez si Elasticsearch fonctionne normalement, visitez http://localhost:9200 dans le navigateur. Si les informations suivantes sont renvoyées, l'installation est réussie :
{ "name" : "xxxx", "cluster_name" : "elasticsearch", "cluster_uuid" : "xxxx", "version" : { "number" : "7.15.2", "build_flavor" : "default", "build_type" : "tar", "build_hash" : "xxxx", "build_date" : "xxxx", "build_snapshot" : false, "lucene_version" : "xxxx", "minimum_wire_compatibility_version" : "xxxx", "minimum_index_compatibility_version" : "xxxx" }, "tagline" : "You Know, for Search" }
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.15.2.tar.gz
(2) Solution Package d'installation compressé :
tar -zxvf logstash-7.15.2.tar.gz
(3) Créez un fichier de configuration Logstash, tel que logstash.conf :
input { file { path => "/var/log/nginx/access.log" start_position => "beginning" } } filter { grok { match => { "message" => "%{COMBINEDAPACHELOG}" } } } output { elasticsearch { hosts => ["localhost:9200"] index => "nginx-access-log" } stdout { codec => rubydebug } }
Le fichier de configuration ci-dessus spécifie le chemin du journal d'entrée, utilise le modèle Grok pour correspondre au format du journal, et envoie le journal traité à Elasticsearch. Et affiche les informations de débogage dans le terminal via le plug-in stdout.
(4) Exécutez Logstash :
cd logstash-7.15.2/bin ./logstash -f logstash.conf
Remarque : les informations de configuration de logstash.conf doivent être modifiées en fonction de la situation réelle.
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.15.2-linux-x86_64.tar.gz
(2) Décompressez le package d'installation :
tar -zxvf kibana-7.15.2-linux-x86_64.tar.gz
(3) Modifiez le fichier config/kibana.yml et définissez l'adresse d'Elasticsearch :
elasticsearch.hosts: ["http://localhost:9200"]
( 4) Exécutez Kibana :
cd kibana-7.15.2/bin ./kibana
(5) Visitez http://localhost:5601 dans le navigateur Si vous voyez l'interface Kibana, l'installation est réussie.
3. Utilisez ELK Stack pour l'analyse des journaux
Une fois ELK Stack installé, vous pouvez démarrer l'analyse des journaux.
4. Résumé
ELK Stack est une plateforme d'analyse de journaux puissante et flexible qui peut nous aider à collecter, traiter, stocker, visualiser et analyser les données de journaux. Il suffit de quelques étapes simples pour installer et configurer ELK Stack dans un environnement Linux, puis vous pouvez effectuer une analyse des journaux en fonction des besoins réels. De cette manière, nous pouvons mieux comprendre et utiliser les données des journaux pour optimiser les performances du système, identifier les problèmes potentiels et améliorer l'expérience utilisateur.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!