ELK日誌分析系統(3)-logstash數據處理

来源:https://www.cnblogs.com/zhanchenjin/archive/2019/10/12/11662496.html
-Advertisement-
Play Games

logstash elk elk數據處理 logstash數據處理 ...


 

1. 概述

  logspout收集數據以後,就會把數據發送給logstash進行處理,本文主要講解logstash的input, filter, output處理

2. input

  數據的輸入處理

  支持tcp,udp等協議

 

  晚上找資料建議在使用 LogStash::Inputs::Syslog 的時候走 TCP 協議來傳輸數據。

  因為具體實現中,UDP 監聽器只用了一個線程,而 TCP 監聽器會在接收每個連接的時候都啟動新的線程來處理後續步驟。

  如果你已經在使用 UDP 監聽器收集日誌,用下行命令檢查你的 UDP 接收隊列大小:# netstat -plnu | awk 'NR==1 || $4~/:514$/{print $2}'

  Recv-Q

  228096

  228096 是 UDP 接收隊列的預設最大大小,這時候 linux 內核開始丟棄數據包了!

  2.1. 語法

  基本語法如下:

input{
        tcp {
                mode => "server"
                port => 5000
                codec => json_lines
                tags => ["data-http"]
        }
}

 

  2.2. multiline

  有時候日誌是這樣多行顯示的:

[2019-10-12 15:24:50 ACCOUNT 97364 4658800064 INFO] http_ip=127.0.0.1        http_uri=/account/v1/binding        http_method=POST        http_time=182ms        http_status=401        
http_headers=Content-Type:application/x-www-form-urlencoded
Content-Length:27
Accept-Encoding:identity
Host:localhost:8800
User-Agent:Python-urllib/3.6
Key:424518e4d27b11e8ada274e5f95979ae
Version:1.1.0
Time:1570865090.412524
Token:y66AHLNmRoscIIsoWnKzxosojSg=
User-Id:0
Connection:close        
http_kwargs={'sns_type': 'wechat', 'code': 'CG9DEj', 'user_id': 0, 'language': 1}        
http_response={"code":"usr_sns_code_error","message":"\u7b2c\u4e09\u65b9sns\u5e10\u53f7code\u65e0\u6548"}

 

    預設情況下logstash會把一行日誌轉換成elasticsearch的一個doc,上面這個日誌就會存儲成15條日誌。這樣就不能滿足我們的需求,我們只是想要一條日誌

  我們可以這麼配置input:

input{
        tcp {
                port => 5001
                type => syslog
                tags => ["syslog"]
                codec=>multiline{
                        pattern => "\[%{TIMESTAMP_ISO8601:timestamp}"
                        negate => true
                        what => "previous"
                }
        }
}

  紅色代碼的作用是:匹配到以[2019-10-08 16:57:42開頭的一行日誌作為previous,不是以這個格式開頭的將作為子行出現,然後把多行記錄合併成一行記錄

 

3. filter

  數據的過濾轉化處理

  3.1. 語法

  基本語法如下:

filter {
  grok {
    match => { "message" => "%{SYSLOGBASE} %{DATA:message}" }
    overwrite => [ "message" ]
  }
}

 

  3.2. grok範式匹配

  

  grok適合用來解析syslog,apache,mysql等日誌

  假如你的日誌格式是這樣的

[2019-10-12 15:44:52 ACCOUNT 1 140058162291304 WARNING] HashCache::_rds_get, cache not existed!!! id_ls:[]

   日誌的格式是這樣的:

"[%(asctime)s %(service)s %(process)d %(thread)d %(levelname)s] %(message)s"

  那麼針對這樣有特定格式的日誌,我們要怎樣提取這裡面的欄位呢?

    可以這麼配置你的filter:

filter{
        if [type] == "syslog" {
                grok {
                        match => { "message" => "\[%{TIMESTAMP_ISO8601:timestamp} %{DATA:service} %{DATA:pid} %{DATA:tid} %{LOGLEVEL:log-level}\] %{GREEDYDATA:msg_body}" }
                }
        }
}

    使用grok的match正則表達式匹配可以方便的從message中提取欄位

  從elasticsearch可以發現增加了timestamp、server、pid、tid和log-level等欄位。

  

  

  附上官網文檔:

    # grok調試器

    https://grokdebug.herokuapp.com =>debugger

    # 官方文檔

    https://www.elastic.co/guide/en/kibana/7.3/xpack-grokdebugger.html

 

  3.3. gsub字元串替換

  經過logspout處理以後,會增加一些metadata(container name, container id, etc)

  紅色部分是logspout添加的:

  <14>1 2019-10-08T18:00:15Z zfswalk0 mage-device-11283 16901 - - [2019-10-09 09:49:08 WARNING SACCOUNT C P1 T140004171454120 P1 P2 P3] start listen on HTTP:0.0.0.0:17698, start listen on HTTP:0.0.0.0:17698

    如何去除這部分多餘的數據呢?

  logstash需要使用gsub進行字元串替換:

  

filter{
        if [type] == "syslog" {
                mutate {
                        gsub => [ "message", "<\d+>.*?- -", "" ]
                }
        }
}

 

  這個正則表達式的意義是選擇從“<14>”開始到“- -”結束的子字元串,然後替換成空字元串,實現metadata的刪除

 

  3.4. remove_filed刪除欄位

  ELK是採用json字典的方式來存儲數據的

  如果你有哪些欄位是不需要的,可以通過remove_field來刪除

  假如你不想要grop解析出來的msg_body欄位和test欄位,可以這麼操作,那麼最後存儲到elasticsearch那邊將不會出現這2欄位

filter{
        if [type] == "syslog" {
                mutate {
                        remove_field => [ "msg_body", "test" ]
                }
        }
}

 

 

3.5. kv過濾器解析kv數據

  官方文檔kv filter:https://www.elastic.co/guide/en/logstash/current/plugins-filters-kv.html

  動態的解析kv可以很方便的支持日誌擴展,不需要後期去修改

 

  它會把這個字元串:ip=1.2.3.4 error=REFUSED解析成kv字典形式:{"ip":"1.2.3.4", "error": "REFUSED"}

  

filter{
        if [type] == "syslog" {
                kv {
                        source => "msg_body"
                        field_split => "\t\t"
                }
        }
}

    這邊的配置意思是:從msg_body這個欄位去解析kv欄位,欄位的分隔符是"\t\t"

  當然這也要求日誌寫入的時候需要採用"\t\t"來區分多個欄位,類似這樣:

[2019-10-12 15:24:50 ACCOUNT 97364 4658800064 INFO] http_ip=192.168.1.136		http_uri=/account/v1/binding		http_method=POST

    http_ip=127.0.0.1、http_uri=/account/v1/binding與http_method=POST這三個欄位是採用'\t\t'分割的

  這樣kv filter就會解析成功,並往doc裡面設置http_ip, http_uri,http_method這三個值:

 

 

4. output

  過濾轉化後的數據的輸出處理

  這裡是把數據存儲到elasticsearch的9200埠,index是"syslog-%{+YYYY.MM.dd}"

output{
    if "syslog" in [tags]{
        elasticsearch{
                hosts=>["elasticsearch:9200"]
                index => "syslog-%{+YYYY.MM.dd}"
        }
        stdout{codec => rubydebug}
    }
}

   然後elasticsearch就能得到數據了


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 一、總體思路: 1、表格無邊框,背景顏色設置一種顏色(#DCDFE6),這樣表格的邊框的顏色就是表格的背景顏色; 2、單元格間距為1px,背景顏色設置為白色(#FFFFFF) 二、效果圖 ...
  • 接前幾天寫的一篇博客 https://www.cnblogs.com/ttjm/p/11307462.html 在ie瀏覽器測試發現打不開,經調查問題如下 1 如果在本地開發調試,請求介面報錯如下 經查是項目啟動和介面地址不同源ie有所限制,只需npm run build 放到伺服器上測試即可 2 ...
  • var time = new Date(); // var day=time.getDate(); // var hours=time.getHours; // var minutes=time.getMinutes(); // var seconds=time.getSeconds(); var ...
  • 1 <!DOCTYPE html> 2 <html lang="en"> 3 4 <head> 5 <meta charset="UTF-8"> 6 <meta name="viewport" content="width=device-width, initial-scale=1.0"> 7 <m... ...
  • 定義和用法 reduce() 方法接收一個函數作為累加器,數組中的每個值(從左到右)開始縮減,最終計算為一個值。 註意: reduce() 對於空數組是不會執行回調函數的。 瀏覽器支持 |方法|Chrome|Edge|Firefox|Safari|Opera| |: :|: :|: :|: :|: ...
  • 在寫主題樣式的時候經常會碰到用背景圖鋪滿整個背景的需求,這裡分享下使用方法 需要的效果 以圖片bg.jpg為例 最簡單,最高效的方法 CSS3.0 歸功於css3.0新增的一個屬性background-size,可以簡單的實現這個效果,這裡用fixed和center定位背景圖,然後用backgrou ...
  • JavaScript 字元串用於存儲和操作文本。 JavaScript 字元串 JavaScript 字元串是引號中的零個或多個字元。 實例 var x = "Bill Gates" 您能夠使用單引號或雙引號: 實例 var carname = "Porsche 911"; var carname ...
  • jquery之cookie操作 定義:讓網站伺服器把少量數據儲存到客戶端的硬碟或記憶體,從客戶端的硬碟讀取數據的一種技術; 下載與引入:jquery.cookie.js基於jquery;先引入jquery,再引入:jquery.cookie.js;下載:http://plugins.jquery.co ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...