首頁  >  文章  >  後端開發  >  分散式即時日誌分析解決方案 ELK 部署架構

分散式即時日誌分析解決方案 ELK 部署架構

不言
不言原創
2018-05-05 15:10:124740瀏覽

ELK 已經成為目前最受歡迎的集中式日誌解決方案,它主要是由Beats、Logstash、Elasticsearch、Kibana等組件組成,來共同完成實時日誌的收集,存儲,展示等一站式的解決方案。本篇文章主要為大家介紹了關於分散式即時日誌分析解決方案ELK 部署架構,有需要的朋友可以看一下

課程推薦→:《 elasticsearch全文搜尋實戰》(實戰影片)

來自課程《千萬級資料並發解決方案(理論+實戰)》

一、概述

ELK 已經成為目前最受歡迎的集中式日誌解決方案,它主要是由Beats、Logstash、Elasticsearch、Kibana等組件組成,來共同完成實時日誌的收集,存儲,展示等一站式的解決方案。本文將會介紹ELK常見的架構以及相關問題解決。

  • Filebeat:Filebeat是一款輕量級,佔用服務資源非常少的資料收集引擎,它是ELK家族的新成員,可以取代Logstash作為在應用伺服器端的日誌收集引擎,支援將收集到的資料輸出到Kafka,Redis等隊列。

  • Logstash:資料收集引擎,相較於Filebeat比較重量級,但它整合了大量的插件,支援豐富的資料來源收集,對收集的資料可以過濾,分析,格式化日誌格式。

  • Elasticsearch:分散式資料搜尋引擎,基於Apache
      Lucene實現,可集群,提供資料的集中式存儲,分析,以及強大的資料搜尋和聚合功能。

  • Kibana:數據的視覺化平台,透過該web平台可以即時的查看 Elasticsearch 中的相關數據,並提供了豐富的圖表統計功能。

二、ELK常見部署架構

2.1、Logstash作為日誌收集器

這種架構是比較原始的部署架構,在各應用伺服器端分別部署一個Logstash組件,作為日誌收集器,然後將Logstash收集到的資料過濾、分析、格式化處理後發送至Elasticsearch存儲,最後使用Kibana進行可視化展示,這種架構不足的是:Logstash比較耗伺服器資源,所以會增加應用伺服器端的負載壓力。

分散式即時日誌分析解決方案 ELK 部署架構

2.2、Filebeat作為日誌收集器

該架構與第一種架構唯一不同的是:應用端日誌收集器換成了Filebeat,Filebeat輕量,佔用伺服器資源少,所以使用Filebeat作為應用伺服器端的日誌收集器,一般Filebeat會搭配Logstash一起使用,這種部署方式也是目前最常用的架構。

分散式即時日誌分析解決方案 ELK 部署架構

2.3、引入快取佇列的部署架構

該架構在第二種架構的基礎上引入了Kafka訊息佇列(還可以是其他訊息佇列),將Filebeat收集到的資料傳送至Kafka,然後在透過Logstasth讀取Kafka中的數據,這種架構主要是解決大數據量下的日誌收集方案,使用快取佇列主要是解決資料安全與均衡Logstash與Elasticsearch負載壓力。

分散式即時日誌分析解決方案 ELK 部署架構

2.4、以上三種架構的總結

第一種部署架構由於資源佔用問題,現已很少使用,目前使用最多的是第二種部署架構,至於第三種部署架構個人覺得沒有必要引入訊息佇列,除非有其他需求,因為在資料量較大的情況下,Filebeat 使用壓力敏感協定向Logstash 或Elasticsearch 發送資料。如果 Logstash 正在繁忙地處理數據,它會告知 Filebeat 減慢讀取速度。擁塞解決後,Filebeat 將恢復初始速度並繼續發送資料。

推薦一個交流學習群:478030634 裡面會分享一些資深架構師錄製的錄影:有Spring,MyBatis,Netty源碼分析,高並發、高性能、分散式、微服務架構的原理,JVM效能優化這些成為架構師必備的知識體系。還能領取免費的學習資源,目前受益良多:

分散式即時日誌分析解決方案 ELK 部署架構

三、問題及解決方案

問題:如何實現日誌的多行合併功能?

系統應用程式中的日誌一般都是以特定格式進行列印的,屬於同一日誌的資料可能分多行進行列印,那麼在使用ELK收集日誌的時候就需要將屬於同一日誌的多行數據進行合併。

解決方案:使用Filebeat或Logstash中的multiline多行合併外掛程式來實作

在使用multiline多行合併外掛程式的時候需要注意,不同的ELK部署架構可能multiline的使用方式也不同,如果是本文的第一種部署架構,那麼multiline需要在Logstash中配置使用,如果是第二種部署架構,那麼multiline需要在Filebeat中配置使用,無需再在Logstash中配置multiline。

1、Filebeat中multiline的設定方式:

分散式即時日誌分析解決方案 ELK 部署架構

  • pattern :正規表示式

  • negate:預設為false,表示符合pattern的行合併到上一行;true表示不符合pattern的行合併到上一行

  • #match:after表示合併到上一行的結尾,before表示合併到上一行的行首

如:

pattern: '['
negate: true
match: after

該配置表示將不符合pattern模式的行合併到上一行的結尾

2、multiline在Logstash中的配置方式

分散式即時日誌分析解決方案 ELK 部署架構

(1)Logstash中配置的what屬性值為previous,相當於Filebeat中的after,Logstash中配置的what屬性值為next,相當於Filebeat中的before。
(2)pattern => "%{LOGLEVEL}s*]" 中的LOGLEVEL是Logstash預製的正則匹配模式,預製的還有好多常用的正則匹配模式,詳細請看:https://github .com/logstash-p...

問題:如何將Kibana中顯示日誌的時間欄位替換為日誌資訊中的時間?

預設情況下,我們在Kibana中查看的時間欄位與日誌資訊中的時間不一致,因為預設的時間欄位值是日誌收集時的當前時間,所以需要將該欄位的時間替換為日誌資訊中的時間。

解決方案:使用grok分詞外掛程式與date時間格式化外掛程式來實作

在Logstash的設定檔的過濾器中設定grok分詞外掛程式與date時間格式化插件,如:

分散式即時日誌分析解決方案 ELK 部署架構

如要匹配的日誌格式為:“DEBUG[DefaultBeanDefinitionDocumentReader:106] Loading bean definitions”,解析出該日誌的時間字段的方式有:

① 透過引入寫好的表達式文件,如表達式文件為customer_patterns,內容為:
CUSTOMER_TIME %{YEAR}%{MONTHNUM}%{MONTHDAY}s+ %{TIME}
註:內容格式為:[自訂表達式名稱] [正規表示式]
然後logstash中就可以這樣引用:

分散式即時日誌分析解決方案 ELK 部署架構

分散式即時日誌分析解決方案 ELK 部署架構

##② 以設定項目的方式,規則為:(?正規符合規則),如:


分散式即時日誌分析解決方案 ELK 部署架構問題:如何在Kibana中透過選擇不同的系統日誌模組來查看資料

一般在Kibana中顯示的日誌資料混合了來自不同系統模組的數據,那麼如何來選擇或過濾只查看指定的系統模組的日誌資料?



解決方案:新增標識不同系統模組的字段或根據不同系統模組建立ES索引

1、新增標識不同系統模組的字段,然後在Kibana中可以根據該字段來過濾查詢不同模組的資料分散式即時日誌分析解決方案 ELK 部署架構這裡以第二種部署架構講解,在Filebeat中的配置內容為:


# #透過新增:log_from欄位來識別不同的系統模組日誌

###2、根據不同的系統模組配置對應的ES索引,然後在Kibana中建立對應的索引模式匹配,即可在頁面通過索引模式下拉框選擇不同的系統模組資料。 ###這裡以第二種部署架構講解,分為兩個步驟:###① 在Filebeat中的設定內容為:##################透過document_type來標識不同系統模組######② 修改Logstash中output的配置內容為:###在output中增加index屬性,%{type}表示以不同的document_type值建構ES索引#################

四、總結

本文主要介紹了ELK即時日誌分析的三種部署架構,以及不同架構所能解決的問題,這三種架構中第二種部署方式是時下最受歡迎也是最常用的部署方式,最後介紹了ELK作在日誌分析中的一些問題與解決方案,說在最後,ELK不僅可以用來作為分散式日誌資料集中式查詢和管理,還可以用來作為專案應用以及伺服器資源監控等場景。

以上是分散式即時日誌分析解決方案 ELK 部署架構的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn