Druid監控踩坑指南

来源:https://www.cnblogs.com/Createsequence/p/18106827
-Advertisement-
Play Games

概述 最近項目組在準備接入各種指標監控系統,筆者負責的部分剛好涉及到了 Druid,故記錄一下在過程中遇到的各種情況和坑。 1. 直接使用 Druid 直接使用 Druid 的監控功能,需要直接將它提供的 Servlet 配置到 Web 容器中。具體可以直接參照官方文檔。 配置信息採集:https: ...


概述

最近項目組在準備接入各種指標監控系統,筆者負責的部分剛好涉及到了 Druid,故記錄一下在過程中遇到的各種情況和坑。

1. 直接使用 Druid

直接使用 Druid 的監控功能,需要直接將它提供的 Servlet 配置到 Web 容器中。具體可以直接參照官方文檔。

此外,在這個過程中大部分問題官方文檔中也有解答https://github.com/alibaba/druid/wiki/常見問題

2. 使用 starter

2.1. 啟用監控

如果使用 spring-boot-starter ,則可以基於 springboot 集成。
參照:SpringBoot——開啟Druid監控統計功能

2.2. SQL監控無數據問題

開啟配置後,雖然可用訪問監控頁面了,但是發現 SQL 監控依然沒有數據。
參照:SpringBoot中使用 Druid 資料庫連接池, 後臺SQL監控無效
不過筆者在嘗試過上述兩種方案後,在 SQL 監控依然無法獲取相應的監控數據,在查找 issues 後發現瞭解決方案:SQL監控無數據--DataSource註入問題導致沒有數據
如果用 javaConf 或者 xml 的方式手動配置 Bean,需要指定開啟的 Filters。

@Bean("druidDataSource")
public DataSource dataSource(Environment env) throws SQLException {
  DruidDataSource dataSource = new DruidDataSource();
  dataSource.setFilters("stat");
  ......
  return dataSource;
}

如果不手動指定 Bean,使用配置指定 Druid 數據,會自動開啟 statFilter

spring.datasource.url=your_url 
spring.datasource.username=username 
spring.datasource.password=password
pring.datasource.driver-class-name=com.mysql.jdbc.Driver 
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource

實際上,筆者的項目就是第一種情況,我們的數據源是在配置類中單獨配置的,因此需要通過 dataSource.setFilters("stat") 手動開啟狀態採集器,其餘配置保持不變,重啟項目後正常。

3. 手動採集

如果不依賴 Druid 的監控頁面,也可以自己獲取線程池進行採集,Druid 已經提供好的響應的 API,我們只需要將相應的指標收集任務註冊好即可。
這裡以 Metrics 為例:

/**
 * DruidMetricsCollector
 *
 * @author huangchengxing
 */
@ConditionalOnClass({DruidDataSource.class, MeterRegistry.class})
@Component
@Slf4j
@RequiredArgsConstructor
public class DruidMetricsCollector implements ApplicationContextAware, InitializingBean {

    private static final String LABEL_NAME = "druid-data-source";
    private final MeterRegistry registry;
    @Setter
    private ApplicationContext applicationContext;

    @Override
    public void afterPropertiesSet() throws Exception {
        log.info("Metrics components: druid register finish");
        Map<String, DataSource> dataSourceMap = applicationContext.getBeansOfType(DataSource.class);
        dataSourceMap.forEach((name, ds) -> {
            DruidDataSource druidDataSource = null;
            try {
                druidDataSource = ds.unwrap(DruidDataSource.class);
            } catch (SQLException e) {
                log.warn("Failed to unwrap DruidDataSource from DataSource: {}", name, e);
            }
            if (druidDataSource != null) {
                log.info("Registering metrics for DruidDataSource: {}", name);
                registerMetrics(druidDataSource);
            }
        });
    }

    private void registerMetrics(DruidDataSource druidDataSource) {
        registerGauge(druidDataSource, "druid_initial_size", "Initial size", (datasource) -> (double) druidDataSource.getInitialSize());
        registerGauge(druidDataSource, "druid_min_idle", "Min idle", datasource -> (double) druidDataSource.getMinIdle());
        registerGauge(druidDataSource, "druid_max_active", "Max active", datasource -> (double) druidDataSource.getMaxActive());

        registerGauge(druidDataSource, "druid_active_count", "Active count", datasource -> (double) druidDataSource.getActiveCount());
        registerGauge(druidDataSource, "druid_active_peak", "Active peak", datasource -> (double) druidDataSource.getActivePeak());
        registerGauge(druidDataSource, "druid_pooling_peak", "Pooling peak", datasource -> (double) druidDataSource.getPoolingPeak());
        registerGauge(druidDataSource, "druid_pooling_count", "Pooling count", datasource -> (double) druidDataSource.getPoolingCount());
        registerGauge(druidDataSource, "druid_wait_thread_count", "Wait thread count", datasource -> (double) druidDataSource.getWaitThreadCount());

        registerGauge(druidDataSource, "druid_not_empty_wait_count", "Not empty wait count", datasource -> (double) druidDataSource.getNotEmptyWaitCount());
        registerGauge(druidDataSource, "druid_not_empty_wait_millis", "Not empty wait millis", datasource -> (double) druidDataSource.getNotEmptyWaitMillis());
        registerGauge(druidDataSource, "druid_not_empty_thread_count", "Not empty thread count", datasource -> (double) druidDataSource.getNotEmptyWaitThreadCount());

        registerGauge(druidDataSource, "druid_logic_connect_count", "Logic connect count", datasource -> (double) druidDataSource.getConnectCount());
        registerGauge(druidDataSource, "druid_logic_close_count", "Logic close count", datasource -> (double) druidDataSource.getCloseCount());
        registerGauge(druidDataSource, "druid_logic_connect_error_count", "Logic connect error count", datasource -> (double) druidDataSource.getConnectErrorCount());
        registerGauge(druidDataSource, "druid_physical_connect_count", "Physical connect count", datasource -> (double) druidDataSource.getCreateCount());
        registerGauge(druidDataSource, "druid_physical_close_count", "Physical close count", datasource -> (double) druidDataSource.getDestroyCount());
        registerGauge(druidDataSource, "druid_physical_connect_error_count", "Physical connect error count", datasource -> (double) druidDataSource.getCreateErrorCount());

        registerGauge(druidDataSource, "druid_error_count", "Error count", datasource -> (double) druidDataSource.getErrorCount());
        registerGauge(druidDataSource, "druid_execute_count", "Execute count", datasource -> (double) druidDataSource.getExecuteCount());
        registerGauge(druidDataSource, "druid_start_transaction_count", "Start transaction count", datasource -> (double) druidDataSource.getStartTransactionCount());
        registerGauge(druidDataSource, "druid_commit_count", "Commit count", datasource -> (double) druidDataSource.getCommitCount());
        registerGauge(druidDataSource, "druid_rollback_count", "Rollback count", datasource -> (double) druidDataSource.getRollbackCount());

        registerGauge(druidDataSource, "druid_prepared_statement_open_count", "Prepared statement open count", datasource -> (double) druidDataSource.getPreparedStatementCount());
        registerGauge(druidDataSource, "druid_prepared_statement_closed_count", "Prepared statement closed count", datasource -> (double) druidDataSource.getClosedPreparedStatementCount());
        registerGauge(druidDataSource, "druid_ps_cache_access_count", "PS cache access count", datasource -> (double) druidDataSource.getCachedPreparedStatementAccessCount());
        registerGauge(druidDataSource, "druid_ps_cache_hit_count", "PS cache hit count", datasource -> (double) druidDataSource.getCachedPreparedStatementHitCount());
        registerGauge(druidDataSource, "druid_ps_cache_miss_count", "PS cache miss count", datasource -> (double) druidDataSource.getCachedPreparedStatementMissCount());
        registerGauge(druidDataSource, "druid_execute_query_count", "Execute query count", datasource -> (double) druidDataSource.getExecuteQueryCount());
        registerGauge(druidDataSource, "druid_execute_update_count", "Execute update count", datasource -> (double) druidDataSource.getExecuteUpdateCount());
        registerGauge(druidDataSource, "druid_execute_batch_count", "Execute batch count", datasource -> (double) druidDataSource.getExecuteBatchCount());

        registerGauge(druidDataSource, "druid_max_wait", "Max wait", datasource -> (double) druidDataSource.getMaxWait());
        registerGauge(druidDataSource, "druid_max_wait_thread_count", "Max wait thread count", datasource -> (double) druidDataSource.getMaxWaitThreadCount());
        registerGauge(druidDataSource, "druid_login_timeout", "Login timeout", datasource -> (double) druidDataSource.getLoginTimeout());
        registerGauge(druidDataSource, "druid_query_timeout", "Query timeout", datasource -> (double) druidDataSource.getQueryTimeout());
        registerGauge(druidDataSource, "druid_transaction_query_timeout", "Transaction query timeout", datasource -> (double) druidDataSource.getTransactionQueryTimeout());
    }

    private void registerGauge(DruidDataSource weakRef, String metric, String help, ToDoubleFunction<DruidDataSource> measure) {
        Gauge.builder(metric, weakRef, measure)
            .description(help)
            .tag(LABEL_NAME, weakRef.getName())
            .register(this.registry);
    }
}

項目啟動後,確保該組件被 Spring 管理即可。


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 本文全面探索了容器編排技術的核心概念、工具和高級應用,包括Docker Compose、Kubernetes等主要平臺及其高級功能如網路和存儲管理、監控、安全等。此外,文章還探討了這些技術在實際應用中的案例,提供了對未來趨勢的洞見。 關註【TechLeadCloud】,分享互聯網架構、雲服務技術的全 ...
  • 圖片內容一般無法編輯,如果想要讀取圖片中的文本,我們需要用到OCR工具。本文將介紹如何在Java中實現OCR識別讀取圖片中的文字。 所需工具: IDEA Spire.OCR for Java - Java OCR組件,支持識別多種語言、字體,可讀取JPG、PNG、GIF、BMP 和 TIFF 等常用 ...
  • 關於JDK21控制台字元集編碼問題 前言: 某日嘗試JDK21,idea控制台字元集編碼一直亂碼,後將idea所有能配置UTF-8的配置都配了一遍,無果,後搜索JDK21字元集編碼相關後解決 1.配置項目字元集 點擊菜單 File - > settings -> appearence , 將字體設置 ...
  • 1. 四旋翼無人機飛行原理:欠驅動系統 通過4個電機的轉速,來控制飛行器X、Y、Z軸的加速度和角速度,實現懸停、垂直升降、俯仰、偏航、滾轉(這裡只對比較陌生的俯仰、偏偏行、滾轉做示意圖說明)。 組成 運動控制 運動控制主要參考:四旋翼無人機飛行原理及控制方法,你瞭解多少? 實物圖 2. 無人機設計思 ...
  • 大家好,我是 Java陳序員。 Redis 作為一款高性能的非關係型資料庫,可是深受開發者的喜愛,無論是什麼開發,都能看到 Redis 的身影。 今天,給大家介紹一款跨平臺的 Redis 客戶端連接工具,功能強大,界面美觀! 關註微信公眾號:【Java陳序員】,獲取開源項目分享、AI副業分享、超20 ...
  • 大家好,我是R哥。 最近做 Java 面試輔導,看了許多小伙伴的簡歷,有的人的簡歷一看就知道是包裝的,比如這位,他自己都承認了: 包裝過的簡歷,作為多年面試官,我一眼就能看出來,相信其他面試官也會有同樣的感覺,這也是為什麼很多人的簡歷都是已讀不回的狀態。 下麵我簡單說說包裝的簡歷的特點。 1、技術棧 ...
  • 寫在前面 在實際項目的開發過程中,我們程式往往需要在不同環境中運行。例如:開發環境、測試環境和生產環境。 每個環境中的配置參數可能都會有所不同,例如資料庫連接信息、文件伺服器等等。 Spring Boot 提供了非常方便的方式來管理這些不同環境的配置。 一、Spring Profile 介紹 Spr ...
  • 在 Python 2 中,str.format() 函數可以使用一些高級的格式化選項,下麵是一些常用的高級用法: 1. 格式化數字 可以使用格式化選項來控制數字的顯示方式,例如: # 將數字格式化為帶千位分隔符的字元串 n = 1234567 s = "{:,}".format(n) print(s ...
一周排行
    -Advertisement-
    Play Games
  • 1、預覽地址:http://139.155.137.144:9012 2、qq群:801913255 一、前言 隨著網路的發展,企業對於信息系統數據的保密工作愈發重視,不同身份、角色對於數據的訪問許可權都應該大相徑庭。 列如 1、不同登錄人員對一個數據列表的可見度是不一樣的,如數據列、數據行、數據按鈕 ...
  • 前言 上一篇文章寫瞭如何使用RabbitMQ做個簡單的發送郵件項目,然後評論也是比較多,也是準備去學習一下如何確保RabbitMQ的消息可靠性,但是由於時間原因,先來說說設計模式中的簡單工廠模式吧! 在瞭解簡單工廠模式之前,我們要知道C#是一款面向對象的高級程式語言。它有3大特性,封裝、繼承、多態。 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 介紹 Nodify是一個WPF基於節點的編輯器控制項,其中包含一系列節點、連接和連接器組件,旨在簡化構建基於節點的工具的過程 ...
  • 創建一個webapi項目做測試使用。 創建新控制器,搭建一個基礎框架,包括獲取當天日期、wiki的請求地址等 創建一個Http請求幫助類以及方法,用於獲取指定URL的信息 使用http請求訪問指定url,先運行一下,看看返回的內容。內容如圖右邊所示,實際上是一個Json數據。我們主要解析 大事記 部 ...
  • 最近在不少自媒體上看到有關.NET與C#的資訊與評價,感覺大家對.NET與C#還是不太瞭解,尤其是對2016年6月發佈的跨平臺.NET Core 1.0,更是知之甚少。在考慮一番之後,還是決定寫點東西總結一下,也回顧一下.NET的發展歷史。 首先,你沒看錯,.NET是跨平臺的,可以在Windows、 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 添加節點(nodes) 通過上一篇我們已經創建好了編輯器實例現在我們為編輯器添加一個節點 添加model和viewmode ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...
  • 類型檢查和轉換:當你需要檢查對象是否為特定類型,並且希望在同一時間內將其轉換為那個類型時,模式匹配提供了一種更簡潔的方式來完成這一任務,避免了使用傳統的as和is操作符後還需要進行額外的null檢查。 複雜條件邏輯:在處理複雜的條件邏輯時,特別是涉及到多個條件和類型的情況下,使用模式匹配可以使代碼更 ...
  • 在日常開發中,我們經常需要和文件打交道,特別是桌面開發,有時候就會需要載入大批量的文件,而且可能還會存在部分文件缺失的情況,那麼如何才能快速的判斷文件是否存在呢?如果處理不當的,且文件數量比較多的時候,可能會造成卡頓等情況,進而影響程式的使用體驗。今天就以一個簡單的小例子,簡述兩種不同的判斷文件是否... ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...