ホームページ  >  記事  >  運用・保守  >  Linux で高可用性ログ分析ツールを構成する方法

Linux で高可用性ログ分析ツールを構成する方法

PHPz
PHPzオリジナル
2023-07-05 14:04:501036ブラウズ

Linux で高可用性ログ分析ツールを構成する方法

はじめに:
現代の IT 環境では、ログ分析ツールが重要な役割を果たしています。これらは、システムの健全性を監視し、潜在的な問題をリアルタイムで特定し、貴重なデータ分析と視覚化を提供するのに役立ちます。この記事では、Linux システム上で高可用性ログ分析ツールを構成する方法を紹介し、読者の参考のためにコード例を添付します。

ステップ 1: Elasticsearch クラスターのインストールと構成

Elasticsearch は、リアルタイムの検索と分析のためのオープン ソース ツールであり、ログ分析の分野で広く使用されています。高可用性を実現するために、Linux 上に Elasticsearch クラスターを構築します。

1. まず、Elasticsearch ノードをデプロイするために 1 つ以上のサーバーを準備する必要があります。各ノードは次の条件を満たす必要があります:

  • 十分なメモリとストレージ容量がある;
  • Linux オペレーティング システムを実行し、相互にアクセスできること。

2. 各ノードで、Elasticsearch ソフトウェア パッケージをダウンロードし、ディレクトリに解凍します:

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.10.1-linux-x86_64.tar.gz
tar -xvf elasticsearch-7.10.1-linux-x86_64.tar.gz

3. 解凍したディレクトリに入り、設定ファイルを編集しますelasticsearch. yml:

cd elasticsearch-7.10.1
vim config/elasticsearch.yml

このファイルでは、次のパラメータを変更または追加する必要があります:

cluster.name: my-cluster
node.name: node-1
path.data: /path/to/data
path.logs: /path/to/logs
network.host: 0.0.0.0

/path/to/data を必ず変更してください。 /path/to/logs を、システムに適した実際のパスに置き換えます。

4. 上記の手順を繰り返して、他のノードにインストールして構成します。

5. 各ノードで Elasticsearch を開始します:

./bin/elasticsearch

6. Elasticsearch クラスターが正常に開始されることを確認します。 curl コマンドを使用して HTTP リクエストを送信できます。

curl -XGET http://localhost:9200/_cluster/state?pretty=true

返された結果にクラスターに関する情報が含まれている場合、クラスターは正常に起動しています。

ステップ 2: Logstash のインストールと構成

Logstash は、さまざまなソースからデータを読み取り、指定した保存先に保存できるオープン ソース データ収集エンジンです。この記事では、Logstash を使用して、前の手順で構築した Elasticsearch クラスターにログ データを送信します。

1. 各ノードに Logstash をダウンロードしてインストールします:

wget https://artifacts.elastic.co/downloads/logstash/logstash-7.10.1.tar.gz
tar -xvf logstash-7.10.1.tar.gz

2. 構成ファイルを編集します logstash.yml:

cd logstash-7.10.1
vim config/logstash.yml

設定を確認しますnode.name および path.data パラメーター。

3. 新しい Logstash 設定ファイルを作成します logstash.conf:

vim config/logstash.conf

このファイルでは、さまざまな入力プラグインと出力プラグインを使用してデータ ソースと出力プラグインを定義できます。行き先。たとえば、次の例では、標準入力からデータを読み取り、Elasticsearch クラスターに送信します:

input {
    stdin {}
}

output {
    elasticsearch {
        hosts => ["localhost:9200"]
        index => "my-index"
    }
}

4. 各ノードで Logstash を開始します:

./bin/logstash -f config/logstash.conf

ステップ 3: データ分析に Kibana を使用します。と視覚化

Kibana はデータ分析と視覚化のためのオープンソース ツールであり、Elasticsearch でデータを視覚的に表示できます。

1. Kibana をダウンロードしてインストールします:

wget https://artifacts.elastic.co/downloads/kibana/kibana-7.10.1-linux-x86_64.tar.gz
tar -xvf kibana-7.10.1-linux-x86_64.tar.gz

2. 設定ファイルを編集します kibana.yml:

cd kibana-7.10.1-linux-x86_64
vim config/kibana.yml

必ず を設定してくださいelasticsearch.hosts パラメータ。Elasticsearch クラスターのアドレスを指します。

3. Kibana を開始します:

./bin/kibana

4. ブラウザで Kibana の Web インターフェイスにアクセスします (デフォルトのアドレスは http://localhost:5601)。

Kibana では、ダッシュボード、チャート、視覚化コンポーネントを作成して、Elasticsearch に保存されているデータを表示および分析できます。

結論:
高可用性ログ分析ツールを構成することで、システム ログをより適切に監視および分析し、問題を適時に発見して対応することができます。この記事では、Elasticsearch クラスターを構成し、Linux システムに Logstash と Kibana をインストールする手順を紹介し、関連するコード例を示します。この情報がログ分析の分野での作業に役立つことを願っています。

以上がLinux で高可用性ログ分析ツールを構成する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。