Maison > Article > Opération et maintenance > Technologies et outils d'analyse et de visualisation des logs en temps réel sous Linux
Techniques et outils pour l'analyse et la visualisation des journaux en temps réel sous Linux
Vue d'ensemble :
Avec le développement des technologies de l'information, l'analyse et la visualisation des journaux jouent un rôle important dans la surveillance et le dépannage du système. Dans le système d'exploitation Linux, les fichiers journaux constituent une base importante pour l'enregistrement des événements et des exceptions qui se produisent pendant le fonctionnement du système. Cet article présentera comment utiliser les technologies et les outils sous Linux pour réaliser une analyse et une visualisation des journaux en temps réel. Présente principalement la pile technologique ELK (Elasticsearch, Logstash, Kibana) et les outils Fluentd.
1.1 Elasticsearch : Elasticsearch est un moteur de recherche et d'analyse distribué en temps réel. Il stocke les données de journal dans des index distribués et fournit des fonctions de recherche et d'agrégation rapides.
1.2 Logstash : Logstash est un outil open source pour collecter, traiter et transférer des journaux. Il peut collecter des journaux provenant de différentes sources de données (telles que des fichiers, des réseaux, des bases de données, etc.), nettoyer et transformer les données, puis envoyer les données à Elasticsearch pour stockage et indexation.
1.3 Kibana : Kibana est un outil de visualisation et d'analyse des données de log. Il peut afficher les données des journaux via de simples graphiques, tableaux et cartes, et fournit de puissantes fonctions de recherche et de filtrage pour permettre aux utilisateurs d'effectuer une analyse approfondie des données des journaux.
3.1 Installer et configurer ELK :
Tout d'abord, nous devons installer Elasticsearch, Logstash et Kibana.
Sous le système Ubuntu, vous pouvez utiliser la commande suivante pour installer :
sudo apt-get install elasticsearch sudo apt-get install logstash sudo apt-get install kibana
Une fois l'installation terminée, chaque composant doit être configuré en conséquence. Pour les étapes de configuration spécifiques, veuillez vous référer à la documentation officielle.
3.2 Collecter les journaux :
Supposons que nous ayons un hôte Linux exécutant un serveur Apache et que nous souhaitions collecter ses journaux d'accès.
Tout d'abord, définissez la source d'entrée dans le fichier de configuration Logstash et spécifiez le chemin et le format du fichier journal :
input { file { path => "/var/log/apache/access.log" start_position => "beginning" } }
Ensuite, configurez la source de sortie pour envoyer les données à Elasticsearch pour le stockage et l'indexation :
output { elasticsearch { hosts => ["localhost:9200"] index => "apache-access-%{+YYYY.MM.dd}" } }
3.3 Affichage visuel :
Démarrer Après avoir utilisé Logstash et Kibana, nous pouvons afficher visuellement les données de journal collectées via l'interface Web de Kibana.
Dans Kibana, configurez d'abord l'alias de l'index Elasticsearch et choisissez d'en obtenir les données de journal :
Management -> Index Patterns -> Create Index Pattern -> 输入索引别名和时间字段 -> 确定
Ensuite, nous pouvons utiliser divers graphiques et tableaux fournis par Kibana pour effectuer des statistiques et des analyses sur les données de journal.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!