Rumah  >  Artikel  >  Java  >  Cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK

Cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK

WBOY
WBOYasal
2023-09-21 16:57:371114semak imbas

Cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK

Cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK

Dengan pembangunan dan aplikasi teknologi maklumat yang meluas, log sistem telah menjadi bahagian yang amat diperlukan dalam setiap sistem perisian. Semasa menjalankan perisian, sistem akan menjana sejumlah besar maklumat log, yang memainkan peranan penting dalam penyelesaian masalah, pengoptimuman prestasi, pengauditan keselamatan, dsb. Oleh itu, amat penting untuk membangunkan sistem pengurusan dan analisis log yang cekap dan boleh dipercayai.

ELK (Elasticsearch, Logstash, Kibana) ialah penyelesaian pengurusan dan analisis log yang popular. Elasticsearch ialah enjin carian dan analisis yang diedarkan untuk data besar yang boleh digunakan untuk menyimpan dan mengindeks sejumlah besar data log. Logstash ialah saluran paip pemprosesan data sumber terbuka yang boleh mengumpul, mengubah dan menghantar data. Kibana ialah alat untuk menggambarkan dan menganalisis data Ia boleh memaparkan dan mencari data dalam carta Elasticsearch.

Yang berikut akan memperkenalkan cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK, dan memberikan contoh kod khusus. . .elastic.co/downloads/elasticsearch dan ekstrak ke direktori tempatan. Kemudian, jalankan bin/elasticsearch.bat (Windows) atau bin/elasticsearch (Linux) untuk memulakan Elasticsearch.

    1.2 Pasang Logstash
  1. Muat turun pakej pemasangan Logstash terkini dari tapak web rasmi https://www.elastic.co/downloads/logstash dan ekstraknya ke direktori tempatan.

1.3 Pasang Kibana

Muat turun pakej pemasangan Kibana terkini dari tapak web rasmi https://www.elastic.co/downloads/kibana dan ekstraknya ke direktori tempatan. Kemudian, jalankan bin/kibana.bat (Windows) atau bin/kibana (Linux) untuk memulakan Kibana.

Membangunkan klien koleksi log Java

Seterusnya, anda perlu membangunkan klien koleksi log Java untuk menghantar log sistem ke Logstash untuk diproses. Contoh kod khusus adalah seperti berikut:

public class LogstashClient {
    private static final String LOGSTASH_HOST = "127.0.0.1";
    private static final int LOGSTASH_PORT = 5000;

    private Socket socket;

    public LogstashClient() throws IOException {
        socket = new Socket(LOGSTASH_HOST, LOGSTASH_PORT);
    }

    public void sendLog(String log) throws IOException {
        BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(socket.getOutputStream()));
        writer.write(log);
        writer.newLine();
        writer.flush();
    }

    public void close() throws IOException {
        socket.close();
    }
}

Dalam aplikasi, gunakan kelas LogstashClient untuk menghantar log:

public class Application {
    private static final Logger LOGGER = LoggerFactory.getLogger(Application.class);

    public static void main(String[] args) {
        try (LogstashClient client = new LogstashClient()) {
            LOGGER.info("This is an info log.");
            LOGGER.error("This is an error log.");
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

Konfigurasikan Logstash untuk pemprosesan data
  1. Dalam fail konfigurasi Logstash, anda perlu menentukan port untuk menerima Java log dan kaedah pemprosesan. Cipta fail konfigurasi bernama
dengan kandungan berikut:

input {
    tcp {
        port => 5000
        codec => json_lines
    }
}

output {
    elasticsearch {
        hosts => ["localhost:9200"]
        index => "logs-%{+YYYY.MM.dd}"
    }
}

Memvisualisasikan dan menanyakan data log

  1. Selepas memulakan Elasticsearch, Logstash dan Kibana, anda boleh memasuki antara muka visual Kibana dengan mengakses http://localhost:5601. Mula-mula, anda perlu mencipta skema indeks dalam Kibana, pilih skema indeks sedia ada dalam Elasticsearch, dan kemudian ikut gesaan.

Kesimpulanlogstash.conf

    Melalui langkah di atas, sistem pengurusan dan analisis log yang mudah boleh dibina berdasarkan ELK. Pelanggan pengumpulan log Java menghantar log sistem ke Logstash untuk diproses dan Logstash menyimpan data log yang diproses dalam Elasticsearch. Akhir sekali, data log boleh divisualisasikan dan disoal melalui Kibana.
  1. Sudah tentu, contoh di atas hanyalah demonstrasi mudah Sistem pengurusan dan analisis log sebenar juga perlu mempertimbangkan lebih banyak fungsi dan keperluan, seperti penapisan data, pengagregatan log, penggera, dll. Saya harap artikel ini dapat memberi pembaca sedikit rujukan dan bantuan tentang cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK.

Atas ialah kandungan terperinci Cara menggunakan Java untuk membangunkan sistem pengurusan dan analisis log berasaskan ELK. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn