ELK + kafka 日誌方案

来源:https://www.cnblogs.com/demodashi/archive/2018/02/22/8458072.html
-Advertisement-
Play Games

本文介紹使用ELK(elasticsearch、logstash、kibana) + kafka來搭建一個日誌系統。主要演示使用spring aop進行日誌收集,然後通過kafka將日誌發送給logstash,logstash再將日誌寫入elasticsearch,這樣elasticsearch就有... ...


概述

本文介紹使用ELK(elasticsearch、logstash、kibana) + kafka來搭建一個日誌系統。主要演示使用spring aop進行日誌收集,然後通過kafka將日誌發送給logstash,logstash再將日誌寫入elasticsearch,這樣elasticsearch就有了日誌數據了,最後,則使用kibana將存放在elasticsearch中的日誌數據顯示出來,並且可以做實時的數據圖表分析等等。

詳細

代碼下載:http://www.demodashi.com/demo/10181.html

本文介紹使用ELK(elasticsearch、logstash、kibana) + kafka來搭建一個日誌系統。主要演示使用spring aop進行日誌收集,然後通過kafka將日誌發送給logstash,logstash再將日誌寫入elasticsearch,這樣elasticsearch就有了日誌數據了,最後,則使用kibana將存放在elasticsearch中的日誌數據顯示出來,並且可以做實時的數據圖表分析等等。

為什麼用ELK

 

以前不用ELK的做法

最開始我些項目的時候,都習慣用log4j來把日誌寫到log文件中,後來項目有了高可用的要求,我們就進行了分散式部署web,這樣我們還是用log4j這樣的方式來記錄log的話,那麼就有N台機子的N個log目錄,這個時候查找log起來非常麻煩,不知道問題用戶出錯log是寫在哪一臺伺服器上的,後來,想到一個辦法,乾脆把log直接寫到資料庫中去,這樣做,雖然解決了查找異常信息便利性的問題了,但存在兩個缺陷:

1,log記錄好多,表不夠用啊,又得分庫分表了,

2,連接db,如果是資料庫異常,那邊log就丟失了,那麼為瞭解決log丟失的問題,那麼還得先將log寫在本地,然後等db連通了後,再將log同步到db,這樣的處理辦法,感覺是越搞越複雜。

 

現在ELK的做法

好在現在有了ELK這樣的方案,可以解決以上存在的煩惱,首先是,使用elasticsearch來存儲日誌信息,對一般系統來說可以理解為可以存儲無限條數據,因為elasticsearch有良好的擴展性,然後是有一個logstash,可以把理解為數據介面,為elasticsearch對接外面過來的log數據,它對接的渠道,有kafka,有log文件,有redis等等,足夠相容N多log形式,最後還有一個部分就是kibana,它主要用來做數據展現,log那麼多數據都存放在elasticsearch中,我們得看看log是什麼樣子的吧,這個kibana就是為了讓我們看log數據的,但還有一個更重要的功能是,可以編輯N種圖表形式,什麼柱狀圖,折線圖等等,來對log數據進行直觀的展現。

 

ELK職能分工

  • logstash做日誌對接,接受應用系統的log,然後將其寫入到elasticsearch中,logstash可以支持N種log渠道,kafka渠道寫進來的、和log目錄對接的方式、也可以對reids中的log數據進行監控讀取,等等。

  • elasticsearch存儲日誌數據,方便的擴展特效,可以存儲足夠多的日誌數據。

  • kibana則是對存放在elasticsearch中的log數據進行:數據展現、報表展現,並且是實時的。

怎樣用ELK

首先說明一點,使用ELK是不需要開發的,只需要搭建環境使用即可。搭建環境,可以理解為,下載XX軟體,然後配置下XX埠啊,XX地址啊,XX日誌轉發規則啊等等,當配置完畢後,然後點擊XX bat文件,然後啟動。

 

Logstash配置

可以配置接入N多種log渠道,現狀我配置的只是接入kafka渠道。

配置文件在\logstash-2.3.4\config目錄下

要配置的是如下兩個參數體:

  • input:數據來源。

  • output:數據存儲到哪裡。

input {
  kafka {
    zk_connect => "127.0.0.1:2181"
    topic_id => "mylog_topic"
 }
}
filter {
  #Only matched data are send to output.
}
output {
  #stdout{}
  # For detail config for elasticsearch as output, 
  # See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html
  elasticsearch {
    action => "index"          #The operation on ES
    hosts  => "127.0.0.1:9200"   #ElasticSearch host, can be array.
    index  => "my_logs"         #The index to write data to.
  }
}
Elasticsearch配置

配置文件在\elasticsearch-2.3.3\config目錄下的elasticsearch.yml,可以配置允許訪問的IP地址,埠等,但我這裡是採取預設配置。

Kibana配置

配置文件在\kibana-4.5.4-windows\config目錄下的kibana.yml,可以配置允許訪問的IP地址,埠等,但我這裡是採取預設配置。

這裡有一個需要註意的配置,就是指定訪問elasticsearch的地址。我這裡是同一臺機子做測試,所以也是採取預設值了。

# The Elasticsearch instance to use for all your queries.
# elasticsearch.url: "http://localhost:9200"

 

關於ELK的配置大致上,就這樣就可以了,當然其實還有N多配置項可供配置的,具體可以google。這裡就不展開說了。

具體的配置請下載運行環境,裡面有具體的配置。

和spring aop日誌對接

elk環境搭建完畢後,需要在應用系統做日誌的aop實現。

部分spring配置
<aop:aspectj-autoproxy />
<aop:aspectj-autoproxy proxy-target-class="true" />
	
<!-- 掃描web包,應用Spring的註解 -->
<context:component-scan	base-package="com.demodashi">
	<context:include-filter type="annotation" expression="org.springframework.stereotype.Controller" />
	<context:exclude-filter type="annotation" expression="javax.inject.Named" />
	<context:exclude-filter type="annotation" expression="javax.inject.Inject" />
</context:component-scan>
部分java代碼
package com.demodashi.aop.annotation;
import java.lang.annotation.*;    
    
/**  
 *自定義註解 攔截service  
 */    
    
@Target({ElementType.PARAMETER, ElementType.METHOD})    
@Retention(RetentionPolicy.RUNTIME)    
@Documented    
public  @interface ServiceLogAnnotation {    
    
    String description()  default "";    
}
package com.demodashi.aop.annotation;
import java.lang.annotation.*;    
    
/**  
 *自定義註解 攔截Controller  
 */    
    
@Target({ElementType.PARAMETER, ElementType.METHOD})    
@Retention(RetentionPolicy.RUNTIME)    
@Documented    
public  @interface ControllerLogAnnotation {    
    
    String description()  default "";    
}

代碼截圖

image.png

日誌和kafka、和logstash、elasticsearch、kibana直接的關係

ELK,kafka、aop之間的關係

1、aop對日誌進行收集,然後通過kafka發送出去,發送的時候,指定了topic(在spring配置文件中配置為 topic="mylog_topic")

2、logstash指定接手topic為 mylog_topic的kafka消息(在config目錄下的配置文件中,有一個input的配置)

3、然後logstash還定義了將接收到的kafka消息,寫入到索引為my_logs的庫中(output中有定義)

4、再在kibana配置中,指定要連接那個elasticsearch(kibana.yml中有配置,預設為本機)

5、最後是訪問kibana,在kibana的控制臺中,設置要訪問elasticsearch中的哪個index。

部署ELK + kafka環境

我本機的環境是jdk8.0,我記得測試的過程中,elasticsearch對jdk有特別的要求,必須是jdk7或者以上。

下載運行環境附件,並解壓後,看到如下:

image.png

這些運行環境,在每個軟體裡面,都有具體的啟動說明,如kafka的目錄下,這樣:

image.png

按照啟動說明的命令來執行,即可啟動。

這裡需要說明一點,最先啟動,應該是zookeeper,然後才是其他的,其他幾個沒有嚴格區分啟動順序。

直接在window下麵,同一臺機子啟動即可。除了kibana-4.5.4-windows外,其他幾個也是可以在linux下運行的。

運行效果

項目導入到eclipse後,啟動,然後訪問如下地址:

image.png

用戶名為 1001 密碼為 123

登陸後能看到如下:

image.png

本例子是對修改密碼做了日誌攔截。所以修改密碼的動作,能看到列印如下信息:

image.png

 

然後是觀察一下aop日誌攔截,是否被kafka發送給logstash了,是否被寫入了elasticsearch了。

訪問elasticsearch,http://127.0.0.1:9200/_plugin/head/ 如下:

image.png

註意觀察我們定義的my_logs這個索引庫是否增加記錄了。

 

訪問kibana:

http://127.0.0.1:5601/app/kibana

image.png

在輸入索引名稱後,再點擊 create按鈕,即可得到如下界面:

image.png

然後再點擊Discover,界面如下:

image.png

 

如果你看不到數據,記得點擊右上角的按鈕來選擇數據的時間範圍:

image.png

到這裡就完成了,日誌的AOP收集,日誌的流轉,並寫入到elasticsearch,並用kibana看數據。

當然kibana還有很重要的一個功能是數據分析圖表的配置,主要是通過嚮導來完成。

image.png

高可用實現

現在實現的是一個最基本的日誌收集,日誌傳輸,日誌存儲以及日誌展示的一條鏈路的功能,如果系統上線,還需要做一定的集群,如kafka集群,zookeeper集群,還有elasticsearch集群

 

代碼下載:http://www.demodashi.com/demo/10181.html

註:本文著作權歸作者,由demo大師發表,拒絕轉載,轉載需要作者授權


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • ssh使用密鑰進行認證可以實現免密登錄。 生成私鑰和公鑰 執行以下命令: 進入交互模式後可以不設置密鑰存放路徑和設置密碼,直接按回車即可。此時會在當前用戶的家目錄下的.ssh目錄下生成密鑰文件,即公鑰文件id_rsa.pub和私鑰文件id_rsa。 預設採用的是rsa演算法,也可以指定其它的演算法。 接 ...
  • iptables介紹 iptables Netfilter 組件 三種報文流向 iptables的組成 netfilter表和鏈對應的關係 數據包過濾匹配和傳輸過程 路由功能發生的時間點 iptables規則 1)規則rule : 1 根據規則的匹配條件嘗試匹配報文,對匹配成功的報文根據規則定義的處 ...
  • FastDFS的實現 環境 FastDFS的實現 FastDFS實現nginx代理 ...
  • MogileFS的實現 解決MogileFS的bug問題 ...
  • NFS
    NFS介紹 NFS RPC NFS 優勢 NFS服務介紹 NFS配置 NFS的軟體包nfs utils以及相關文件 配置防火牆 NFS配置文件 NFS配置示例 啟動NFS 客戶端NFS掛載 自動掛載 直接匹配 實現NFS服務 實現NFS偽根 NFS相關SELinux 設置 NFS工具 ...
  • 第一範式(1NF):元組的分量不可再分; 第一範式(1NF):元組的分量不可再分; 第二範式(2NF):所有分量唯一決定主鍵碼,不允許部分依賴; 第三範式(3NF):不允許傳遞依賴。 1. 第一範式(1NF) 強調的是列的原子性,即列不能夠再分成其他幾列。 考慮這樣一個表:【聯繫人】(姓名,性別,電 ...
  • 1、儘量不要寫太過複雜的SQL查詢,不要想著非要一次性將結果全部以前端要求的形式返回出來,可以多次分開查詢,這樣邏輯清晰,問題解決速度快,方便維護,並且SQL的效率也高。 2、在使用聯表查詢的時候,關聯表的表長一定不能過長,不然十分影響查詢效率。工作中的實際情況是,當關聯表表長接近1000時,速度就 ...
  • 在日常使用中難免會與XML打交道,其中一個常用的格式就是日期了。 交互的時候通常有下麵2種方式 其中T1 的時間格式是我們平常比較容易看到的。但是也有小部分的時候會遇到T的時間格式,後面帶上時區的時候,就會在取Datetime的時候直接轉換成0時區的時間,所以 這時候如果需要將T和T1 都轉成一致的 ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...