ELk(Elasticsearch, Logstash, Kibana)的安裝配置

来源:https://www.cnblogs.com/chaos-x/archive/2018/12/18/10139219.html
-Advertisement-
Play Games

ELk(Elasticsearch, Logstash, Kibana)的安裝配置 本文中所有的版本都是基於5.2.0,因為公司es(Elasticsearch)的環境是5.2.0。 1. Elasticsearch的安裝 "官網" 關於Elasticsearch的安裝在之前的文章中已經寫過了,這裡 ...


目錄

ELk(Elasticsearch, Logstash, Kibana)的安裝配置

本文中所有的版本都是基於5.2.0,因為公司es(Elasticsearch)的環境是5.2.0。

1. Elasticsearch的安裝-官網

關於Elasticsearch的安裝在之前的文章中已經寫過了,這裡不再贅述。

[elasticsearch及head插件安裝與配置](https://www.cnblogs.com/chaos-x/p/9446250.html)

2. Kibana的安裝配置-官網

Kibana是一個能把你es中數據進行可視化顯示的工具,包括實時統計和分析,基本上是零配置。

1. Kibana下載地址

Kibana 5.2.0 linux 64-bit tar.gz

wget https://artifacts.elastic.co/downloads/kibana/kibana-5.2.0-linux-x86_64.tar.gz

2.解壓

tar -zxvf kibana-5.2.0-linux-x86_64.tar.gz

3. 配置

vim kibana-5.2.0-linux-x86_64/config/kibana.yml

# Kibana is served by a back end server. This setting specifies the port to use.
server.port: 30000

# Specifies the address to which the Kibana server will bind. IP addresses and host names are both valid values.
# The default is 'localhost', which usually means remote machines will not be able to connect.
# To allow connections from remote users, set this parameter to a non-loopback address.
server.host: "0.0.0.0"

# The URL of the Elasticsearch instance to use for all your queries.
# es的訪問地址和商品號
elasticsearch.url: "http://localhost:19200"
  • 啟動

sh kibana-5.2.0-linux-x86_64/bin/kibana

在瀏覽器中訪問Kibana的伺服器加埠號就可以看到Kibana的頁面了。

3. Logstash的安裝配置-官網

Logstash是日誌的收集工具,可以對日誌進行收集,分析,解碼,過濾,輸出。一般使用Filebeat收集日誌到Logstash,由Logstash處理後保存到es。關於Filebeat後面再說。

1. 下載

https://artifacts.elastic.co/downloads/logstash/logstash-5.2.0.tar.gz

wget https://artifacts.elastic.co/downloads/logstash/logstash-5.2.0.tar.gz

2. 解壓

tar -zxvf logstash-5.2.0.tar.gz

3. 啟動

sh logstash-5.2.0/bin/logstash -e 'input{stdin{}}output{stdout{codec=>rubydebug}}'

啟動後輸入'hello word',回車。會輸出如下結果

{
       "message" => "Hello World",
      "@version" => "1",
    "@timestamp" => "2014-08-07T10:30:59.937Z",
          "host" => "raochenlindeMacBook-Air.local",
}

Logstash 會給事件添加一些額外信息。最重要的就是 @timestamp,用來標記事件的發生時間。因為這個欄位涉及到 Logstash 的內部流轉,所以必須是一個 joda 對象,如果你嘗試自己給一個字元串欄位重命名為 @timestamp 的話,Logstash 會直接報錯。所以,請使用 filters/date 插件 來管理這個特殊欄位。

4. 配置

可以把把配置寫到一個文件中,來啟動Logstash。

  • 在Logstash的配置文件目錄中創建test.yml文件
cd logstash-5.2.0/config/
vim test.yml
  • 配置文件內容
input{
    stdin{}
}
ouput{
    stdout{
        codec=>rubydebug
    }
}
  • 啟動

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/test.yml

可以達步驟3的效果。

4. 使用ELK收集nginx的訪問日誌

1.配置Logstash

  • 在Logstash的配置文件目錄中創建nginx-log.yml文件
cd logstash-5.2.0/config/
vim nginx-log.yml
  • 配置文件內容
input {
  file {  # 指定一個文件作為輸入源
    path => "/usr/local/nginx/logs/access.log"  # 指定文件的路徑
    start_position => "beginning"  # 指定何時開始收集,這時設置從文件的最開頭收集
    type => "nginx"  # 定義日誌類型,可自定義
  }
}
filter {  # 配置過濾器
    grok {
        match => { "message" => "%{IPORHOST:http_host} %{IPORHOST:clientip} - %{USERNAME:remote_user} \[%{HTTPDATE:timestamp}\] \"(?:%{WORD:http_verb} %{NOTSPACE:http_request}(?: HTTP/%{NUMBER:http_version})?|%{DATA:raw_http_request})\" %{NUMBER:response} (?:%{NUMBER:bytes_read}|-) %{QS:referrer} %{QS:agent} %{QS:xforwardedfor} %{NUMBER:request_time:float}"}  # 定義日誌的輸出格式
    }
    geoip {
        source => "clientip"
    }
}
output {
    # 標準輸出,是輸出到終端
    stdout { codec => rubydebug }
    # 輸出到es
    elasticsearch {
        hosts => ["127.0.0.1:19200"]
        index => "nginx-log-%{+YYYY.MM.dd}"
  }
}
  • 檢查配置文件

sh logstash --path.settings /etc/logstash/ -f logstash-5.2.0/config/nginx-log.yml --config.test_and_exit

2. 配置nginx的配置文件

  • 打開nginx的配置文件

vim /usr/local/nginx/conf/nginx.conf

  • 在http中增加如下內容
http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    log_format main2 '$http_host $remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$upstream_addr" $request_time';
}
  • 在要格式化日誌的 server中增加如下配置
        #access_log  logs/host.access.log  main;
        # 增加如下內容, 日誌格式化main2要在上面定義,不然這裡無法引用
        access_log  logs/elk_access.log  main2;

        location / {
            root   html;
            index  index.html index.htm;
            # 增加如下三行內容,分別是攜帶訪問host,遠程地址和各層代理地址
            proxy_set_header Host   $host;
            proxy_set_header X-Real-IP      $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

        }
  • 重啟nginx

sh /usr/local/nginx/sbin/nginx -s reload

3. 檢查啟動

  • 檢查

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/nginx-log.yml --config.test_and_exit

  • 啟動

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/nginx-log.yml
    當終端輸出如下內容就成功了

{
         "@timestamp" => 2018-12-18T08:44:56.361Z,
    "plugin_instance" => "vda",
               "read" => 467266,
             "plugin" => "disk",
               "host" => "172.24.121.18",
           "@version" => "1",
      "collectd_type" => "disk_ops",
               "type" => "collectd",
              "write" => 12204609
}
{
         "longterm" => 0.08,
       "@timestamp" => 2018-12-18T08:44:46.362Z,
           "plugin" => "load",
        "shortterm" => 0.06,
             "host" => "172.24.121.18",
         "@version" => "1",
    "collectd_type" => "load",
             "type" => "collectd",
          "midterm" => 0.04
}

5. Kibana展示nginx訪問日誌

進入Kibana頁面如下

  • 配置Index Patterns

  • 進入後點擊左上角的 ‘add new’ 進行創建索引模板

在Kibana中,要分析展示數據時,要先創建Index Patterns

選擇index的時候可以用通配符 ‘*’ 來把所有的nginx-log的訪問日誌分成一個組。

Time-field name 是要指定一個日期格式的欄位,以便於後面統計使用。

然後就可以在這裡選擇配置好的Index patterns了。

其中x軸的時間就是創建Index Patterns的時候選擇的那個日期欄位。

參考:

本文中所有的版本都是基於5.2.0,因為公司es(Elasticsearch)的環境是5.2.0。

1. Elasticsearch的安裝-官網

關於Elasticsearch的安裝在之前的文章中已經寫過了,這裡不再贅述。

[elasticsearch及head插件安裝與配置](https://www.cnblogs.com/chaos-x/p/9446250.html)

2. Kibana的安裝配置-官網

Kibana是一個能把你es中數據進行可視化顯示的工具,包括實時統計和分析,基本上是零配置。

1. Kibana下載地址

Kibana 5.2.0 linux 64-bit tar.gz

wget https://artifacts.elastic.co/downloads/kibana/kibana-5.2.0-linux-x86_64.tar.gz

2.解壓

tar -zxvf kibana-5.2.0-linux-x86_64.tar.gz

3. 配置

vim kibana-5.2.0-linux-x86_64/config/kibana.yml

# Kibana is served by a back end server. This setting specifies the port to use.
server.port: 30000

# Specifies the address to which the Kibana server will bind. IP addresses and host names are both valid values.
# The default is 'localhost', which usually means remote machines will not be able to connect.
# To allow connections from remote users, set this parameter to a non-loopback address.
server.host: "0.0.0.0"

# The URL of the Elasticsearch instance to use for all your queries.
# es的訪問地址和商品號
elasticsearch.url: "http://localhost:19200"
  • 啟動

sh kibana-5.2.0-linux-x86_64/bin/kibana

在瀏覽器中訪問Kibana的伺服器加埠號就可以看到Kibana的頁面了。

3. Logstash的安裝配置-官網

Logstash是日誌的收集工具,可以對日誌進行收集,分析,解碼,過濾,輸出。一般使用Filebeat收集日誌到Logstash,由Logstash處理後保存到es。關於Filebeat後面再說。

1. 下載

https://artifacts.elastic.co/downloads/logstash/logstash-5.2.0.tar.gz

wget https://artifacts.elastic.co/downloads/logstash/logstash-5.2.0.tar.gz

2. 解壓

tar -zxvf logstash-5.2.0.tar.gz

3. 啟動

sh logstash-5.2.0/bin/logstash -e 'input{stdin{}}output{stdout{codec=>rubydebug}}'

啟動後輸入'hello word',回車。會輸出如下結果

{
       "message" => "Hello World",
      "@version" => "1",
    "@timestamp" => "2014-08-07T10:30:59.937Z",
          "host" => "raochenlindeMacBook-Air.local",
}

Logstash 會給事件添加一些額外信息。最重要的就是 @timestamp,用來標記事件的發生時間。因為這個欄位涉及到 Logstash 的內部流轉,所以必須是一個 joda 對象,如果你嘗試自己給一個字元串欄位重命名為 @timestamp 的話,Logstash 會直接報錯。所以,請使用 filters/date 插件 來管理這個特殊欄位。

4. 配置

可以把把配置寫到一個文件中,來啟動Logstash。

  • 在Logstash的配置文件目錄中創建test.yml文件
cd logstash-5.2.0/config/
vim test.yml
  • 配置文件內容
input{
    stdin{}
}
ouput{
    stdout{
        codec=>rubydebug
    }
}
  • 啟動

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/test.yml

可以達步驟3的效果。

4. 使用ELK收集nginx的訪問日誌

1.配置Logstash

  • 在Logstash的配置文件目錄中創建nginx-log.yml文件
cd logstash-5.2.0/config/
vim nginx-log.yml
  • 配置文件內容
input {
  file {  # 指定一個文件作為輸入源
    path => "/usr/local/nginx/logs/access.log"  # 指定文件的路徑
    start_position => "beginning"  # 指定何時開始收集,這時設置從文件的最開頭收集
    type => "nginx"  # 定義日誌類型,可自定義
  }
}
filter {  # 配置過濾器
    grok {
        match => { "message" => "%{IPORHOST:http_host} %{IPORHOST:clientip} - %{USERNAME:remote_user} \[%{HTTPDATE:timestamp}\] \"(?:%{WORD:http_verb} %{NOTSPACE:http_request}(?: HTTP/%{NUMBER:http_version})?|%{DATA:raw_http_request})\" %{NUMBER:response} (?:%{NUMBER:bytes_read}|-) %{QS:referrer} %{QS:agent} %{QS:xforwardedfor} %{NUMBER:request_time:float}"}  # 定義日誌的輸出格式
    }
    geoip {
        source => "clientip"
    }
}
output {
    # 標準輸出,是輸出到終端
    stdout { codec => rubydebug }
    # 輸出到es
    elasticsearch {
        hosts => ["127.0.0.1:19200"]
        index => "nginx-log-%{+YYYY.MM.dd}"
  }
}
  • 檢查配置文件

sh logstash --path.settings /etc/logstash/ -f logstash-5.2.0/config/nginx-log.yml --config.test_and_exit

2. 配置nginx的配置文件

  • 打開nginx的配置文件

vim /usr/local/nginx/conf/nginx.conf

  • 在http中增加如下內容
http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    log_format main2 '$http_host $remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$upstream_addr" $request_time';
}
  • 在要格式化日誌的 server中增加如下配置
        #access_log  logs/host.access.log  main;
        # 增加如下內容, 日誌格式化main2要在上面定義,不然這裡無法引用
        access_log  logs/elk_access.log  main2;

        location / {
            root   html;
            index  index.html index.htm;
            # 增加如下三行內容,分別是攜帶訪問host,遠程地址和各層代理地址
            proxy_set_header Host   $host;
            proxy_set_header X-Real-IP      $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

        }
  • 重啟nginx

sh /usr/local/nginx/sbin/nginx -s reload

3. 檢查啟動

  • 檢查

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/nginx-log.yml --config.test_and_exit

  • 啟動

    sh logstash-5.2.0/bin/logstash -f logstash-5.2.0/config/nginx-log.yml
    當終端輸出如下內容就成功了

{
         "@timestamp" => 2018-12-18T08:44:56.361Z,
    "plugin_instance" => "vda",
               "read" => 467266,
             "plugin" => "disk",
               "host" => "172.24.121.18",
           "@version" => "1",
      "collectd_type" => "disk_ops",
               "type" => "collectd",
              "write" => 12204609
}
{
         "longterm" => 0.08,
       "@timestamp" => 2018-12-18T08:44:46.362Z,
           "plugin" => "load",
        "shortterm" => 0.06,
             "host" => "172.24.121.18",
         "@version" => "1",
    "collectd_type" => "load",
             "type" => "collectd",
          "midterm" => 0.04
}

5. Kibana展示nginx訪問日誌

進入Kibana頁面如下

  • 配置Index Patterns

  • 進入後點擊左上角的 ‘add new’ 進行創建索引模板

在Kibana中,要分析展示數據時,要先創建Index Patterns

選擇index的時候可以用通配符 ‘*’ 來把所有的nginx-log的訪問日誌分成一個組。

Time-field name 是要指定一個日期格式的欄位,以便於後面統計使用。

然後就可以在這裡選擇配置好的Index patterns了。

其中x軸的時間就是創建Index Patterns的時候選擇的那個日期欄位。

參考:


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 在本教程中使用的軟體版本 Visual Studio 2015 .NET 4.5 SignalR 版本 2 概述 本教程介紹了通過演示如何生成簡單的基於瀏覽器的聊天應用程式的 SignalR 開發。 將 SignalR 庫添加到空的 ASP.NET web 應用程式,創建一個中心類,用於將消息發送到 ...
  • 什麼是SignalR? ASP.NET SignalR是ASP.NET開發人員的庫,它簡化了嚮應用程式添加實時Web功能的過程。實時Web功能是指伺服器代碼在連接的客戶端可用時立即將內容推送到連接的客戶端,而不是讓伺服器等待客戶端請求新數據。 SignalR可用於向ASP.NET應用程式添加任何類型 ...
  • 在Visual Studio 2017按如下步驟設置: 1、取消選中(工具 - >選項 - >調試 - >僅我的代碼)覆選框。2、確保設置了(工具 - >選項 - >調試 - >符號設置 - > Microsoft符號伺服器)覆選框3、確保選中(工具 - >選項 - >調試 - >啟用源鏈接支持)復 ...
  • command命令: <?xml version="1.0" encoding="utf-8"?> <RevitAddIns> <AddIn Type="Command"> <Assembly>D:\HelloWorld\bin\Debug\HelloWorld.dll</Assembly> <Ad ...
  • 因為版本問題 原:foreach(Element elem in selections.Elements){ } 現: ElementSet selections = new ElementSet(); foreach (ElementId elementId in commandData.Appl ...
  • C# -- 等待非同步操作執行完成的方式 1. 等待非同步操作的完成,代碼實現: 2. 代碼執行結果: ...
  • 1. 利用shell腳本備份源碼 首先mkdir創建三個目錄 backup存放備份代碼,script 存放shell腳本,www存放源碼 2.創建文件 3. 編寫shell腳本 service crond restart 效果ok ...
  • yum upgrade:更新系統包到最新版本,有事可以解決未知的問題 init 3:進入編碼界面 init 5 || startx:進入圖形界面 安裝文件的時候會出現 is this ok [y/d/n] 這個東西 安裝的話輸入y 然後回車 y = yesn = nod = download onl ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...