Maison  >  Article  >  Opération et maintenance  >  Technologies et outils d'analyse et de visualisation des logs en temps réel sous Linux

Technologies et outils d'analyse et de visualisation des logs en temps réel sous Linux

WBOY
WBOYoriginal
2023-07-29 13:39:451274parcourir

Techniques et outils pour l'analyse et la visualisation des journaux en temps réel sous Linux

Vue d'ensemble :
Avec le développement des technologies de l'information, l'analyse et la visualisation des journaux jouent un rôle important dans la surveillance et le dépannage du système. Dans le système d'exploitation Linux, les fichiers journaux constituent une base importante pour l'enregistrement des événements et des exceptions qui se produisent pendant le fonctionnement du système. Cet article présentera comment utiliser les technologies et les outils sous Linux pour réaliser une analyse et une visualisation des journaux en temps réel. Présente principalement la pile technologique ELK (Elasticsearch, Logstash, Kibana) et les outils Fluentd.

  1. Pile technologique ELK :
    La pile technologique ELK se compose de trois logiciels open source : Elasticsearch, Logstash et Kibana. Ils sont respectivement responsables du stockage des données, de la collecte et du traitement des journaux et de l’affichage visuel.

1.1 Elasticsearch : Elasticsearch est un moteur de recherche et d'analyse distribué en temps réel. Il stocke les données de journal dans des index distribués et fournit des fonctions de recherche et d'agrégation rapides.

1.2 Logstash : Logstash est un outil open source pour collecter, traiter et transférer des journaux. Il peut collecter des journaux provenant de différentes sources de données (telles que des fichiers, des réseaux, des bases de données, etc.), nettoyer et transformer les données, puis envoyer les données à Elasticsearch pour stockage et indexation.

1.3 Kibana : Kibana est un outil de visualisation et d'analyse des données de log. Il peut afficher les données des journaux via de simples graphiques, tableaux et cartes, et fournit de puissantes fonctions de recherche et de filtrage pour permettre aux utilisateurs d'effectuer une analyse approfondie des données des journaux.

  1. Fluentd :
    Fluentd est un autre outil open source de collecte et de transfert de journaux. Il peut collecter des données de journal provenant de différentes sources et les envoyer vers plusieurs destinations. Fluentd prend en charge l'intégration avec Elasticsearch et Kibana et peut également être intégré de manière transparente à d'autres systèmes de stockage et de traitement.
  2. Exemple :
    Ce qui suit est un exemple de code utilisant la pile technologique ELK pour implémenter l'analyse et la visualisation des journaux en temps réel.

3.1 Installer et configurer ELK :
Tout d'abord, nous devons installer Elasticsearch, Logstash et Kibana.

Sous le système Ubuntu, vous pouvez utiliser la commande suivante pour installer :

sudo apt-get install elasticsearch
sudo apt-get install logstash
sudo apt-get install kibana

Une fois l'installation terminée, chaque composant doit être configuré en conséquence. Pour les étapes de configuration spécifiques, veuillez vous référer à la documentation officielle.

3.2 Collecter les journaux :
Supposons que nous ayons un hôte Linux exécutant un serveur Apache et que nous souhaitions collecter ses journaux d'accès.

Tout d'abord, définissez la source d'entrée dans le fichier de configuration Logstash et spécifiez le chemin et le format du fichier journal :

input {
  file {
    path => "/var/log/apache/access.log"
    start_position => "beginning"
  }
}

Ensuite, configurez la source de sortie pour envoyer les données à Elasticsearch pour le stockage et l'indexation :

output {
  elasticsearch {
    hosts => ["localhost:9200"]
    index => "apache-access-%{+YYYY.MM.dd}"
  }
}

3.3 Affichage visuel :
Démarrer Après avoir utilisé Logstash et Kibana, nous pouvons afficher visuellement les données de journal collectées via l'interface Web de Kibana.

Dans Kibana, configurez d'abord l'alias de l'index Elasticsearch et choisissez d'en obtenir les données de journal :

Management -> Index Patterns -> Create Index Pattern -> 输入索引别名和时间字段 -> 确定

Ensuite, nous pouvons utiliser divers graphiques et tableaux fournis par Kibana pour effectuer des statistiques et des analyses sur les données de journal.

  1. Résumé :
    Cet article présente comment implémenter l'analyse et la visualisation des journaux en temps réel sous Linux. En utilisant la pile technologique ELK ou l'outil Fluentd, nous pouvons facilement collecter, traiter et stocker les données de journaux, et effectuer un affichage visuel et une analyse flexibles via des outils tels que Kibana. Ces méthodes peuvent nous aider à mieux surveiller l’état de fonctionnement du système et à dépanner, ainsi qu’à améliorer la fiabilité et les performances du système.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn