pt-query-digest詳解慢查詢日誌(轉)

来源:https://www.cnblogs.com/pyng/archive/2018/09/03/9577792.html
-Advertisement-
Play Games

一、簡介 pt-query-digest是用於分析mysql慢查詢的一個工具,它可以分析binlog、General log、slowlog,也可以通過SHOWPROCESSLIST或者通過tcpdump抓取的MySQL協議數據來進行分析。可以把分析結果輸出到文件中,分析過程是先對查詢語句的條件進行 ...


一、簡介

pt-query-digest是用於分析mysql慢查詢的一個工具,它可以分析binlog、General log、slowlog,也可以通過SHOWPROCESSLIST或者通過tcpdump抓取的MySQL協議數據來進行分析。可以把分析結果輸出到文件中,分析過程是先對查詢語句的條件進行參數化,然後對參數化以後的查詢進行分組統計,統計出各查詢的執行時間、次數、占比等,可以藉助分析結果找出問題進行優化。

二、安裝pt-query-digest

1.下載頁面:https://www.percona.com/doc/percona-toolkit/2.2/installation.html
2.perl的模塊

yum install -y perl-CPAN perl-Time-HiRes

3.安裝步驟
方法一:rpm安裝(此種安裝方法有可能會行不通)

cd /usr/local/src
wget percona.com/get/percona-toolkit.rpm
yum install -y percona-toolkit.rpm

工具安裝目錄在:/usr/bin

方法二:源碼安裝

cd /usr/local/src
wget percona.com/get/percona-toolkit.tar.gz
tar zxf percona-toolkit.tar.gz
cd percona-toolkit-2.2.19
perl Makefile.PL PREFIX=/usr/local/percona-toolkit
make && make install

工具安裝目錄在:/usr/local/percona-toolkit/bin

 

使用命令報錯

[root@node1 bin]# ./pt-diskstats
Can't locate Digest/MD5.pm in @INC (@INC contains: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5 .) at ./pt-diskstats line 1221.
BEGIN failed--compilation aborted at ./pt-diskstats line 1221.

 

解決方法

先執行命令yum search perl-Diges,根據你需要的安裝相應的包

本例中報錯缺少 Digest/MD5.pm 所以用yum安裝此包即可

[root@node1 bin]# yum search perl-Diges
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
================================================ N/S matched: perl-Diges ================================================
perl-Digest.noarch : Modules that calculate message digests
perl-Digest-BubbleBabble.noarch : Create bubble-babble fingerprints
perl-Digest-CRC.x86_64 : Generic CRC functions
perl-Digest-HMAC.noarch : Keyed-Hashing for Message Authentication
perl-Digest-JHash.x86_64 : Perl extension for 32 bit Jenkins Hashing Algorithm
perl-Digest-MD2.x86_64 : Perl interface to the MD2 Algorithm
perl-Digest-MD4.x86_64 : Perl interface to the MD4 Algorithm
perl-Digest-MD5.x86_64 : Perl interface to the MD5 algorithm
perl-Digest-MD5-File.noarch : Perl extension for getting MD5 sums for files and URLs
perl-Digest-PBKDF2.noarch : Digest module using the PBKDF2 algorithm
perl-Digest-Perl-MD5.noarch : Perl implementation of Ron Rivest's MD5 Algorithm
perl-Digest-SHA.x86_64 : Perl extension for SHA-1/224/256/384/512
perl-Digest-SHA1.x86_64 : Digest-SHA1 Perl module
perl-Digest-SHA3.x86_64 : Perl extension for SHA-3

Name and summary matches only, use "search all" for everything.
[root@node1 bin]# yum install perl-Digest-MD5.x86_64 perl-Digest-MD5-File.noarch



4.各工具用法簡介(詳細內容:https://www.percona.com/doc/percona-toolkit/2.2/index.html
(1)慢查詢日誌分析統計

pt-query-digest /usr/local/mysql/data/slow.log

(2)伺服器摘要

pt-summary 

(3)伺服器磁碟監測

pt-diskstats 

(4)mysql服務狀態摘要

pt-mysql-summary -- --user=root --password=root 

三、pt-query-digest語法及重要選項

複製代碼
pt-query-digest [OPTIONS] [FILES] [DSN]
--create-review-table  當使用--review參數把分析結果輸出到表中時,如果沒有表就自動創建。
--create-history-table  當使用--history參數把分析結果輸出到表中時,如果沒有表就自動創建。
--filter  對輸入的慢查詢按指定的字元串進行匹配過濾後再進行分析
--limit    限制輸出結果百分比或數量,預設值是20,即將最慢的20條語句輸出,如果是50%則按總響應時間占比從大到小排序,輸出到總和達到50%位置截止。
--host  mysql伺服器地址
--user  mysql用戶名
--password  mysql用戶密碼
--history 將分析結果保存到表中,分析結果比較詳細,下次再使用--history時,如果存在相同的語句,且查詢所在的時間區間和歷史表中的不同,則會記錄到數據表中,可以通過查詢同一CHECKSUM來比較某類型查詢的歷史變化。
--review 將分析結果保存到表中,這個分析只是對查詢條件進行參數化,一個類型的查詢一條記錄,比較簡單。當下次使用--review時,如果存在相同的語句分析,就不會記錄到數據表中。
--output 分析結果輸出類型,值可以是report(標準分析報告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便於閱讀。
--since 從什麼時間開始分析,值為字元串,可以是指定的某個”yyyy-mm-dd [hh:mm:ss]”格式的時間點,也可以是簡單的一個時間值:s(秒)、h(小時)、m(分鐘)、d(天),如12h就表示從12小時前開始統計。
--until 截止時間,配合—since可以分析一段時間內的慢查詢。
複製代碼

四、分析pt-query-digest輸出結果

第一部分:總體統計結果
Overall:總共有多少條查詢
Time range:查詢執行的時間範圍
unique:唯一查詢數量,即對查詢條件進行參數化以後,總共有多少個不同的查詢
total:總計   min:最小   max:最大  avg:平均
95%:把所有值從小到大排列,位置位於95%的那個數,這個數一般最具有參考價值
median:中位數,把所有值從小到大排列,位置位於中間那個數

複製代碼
# 該工具執行日誌分析的用戶時間,系統時間,物理記憶體占用大小,虛擬記憶體占用大小
# 340ms user time, 140ms system time, 23.99M rss, 203.11M vsz
# 工具執行時間
# Current date: Fri Nov 25 02:37:18 2016
# 運行分析工具的主機名
# Hostname: localhost.localdomain
# 被分析的文件名
# Files: slow.log
# 語句總數量,唯一的語句數量,QPS,併發數
# Overall: 2 total, 2 unique, 0.01 QPS, 0.01x concurrency ________________
# 日誌記錄的時間範圍
# Time range: 2016-11-22 06:06:18 to 06:11:40
# 屬性               總計      最小    最大    平均    95%  標準    中等
# Attribute          total     min     max     avg     95%  stddev  median
# ============     ======= ======= ======= ======= ======= ======= =======
# 語句執行時間
# Exec time             3s   640ms      2s      1s      2s   999ms      1s
# 鎖占用時間
# Lock time            1ms       0     1ms   723us     1ms     1ms   723us
# 發送到客戶端的行數
# Rows sent              5       1       4    2.50       4    2.12    2.50
# select語句掃描行數
# Rows examine     186.17k       0 186.17k  93.09k 186.17k 131.64k  93.09k
# 查詢的字元數
# Query size           455      15     440  227.50     440  300.52  227.50
複製代碼

第二部分:查詢分組統計結果
Rank:所有語句的排名,預設按查詢時間降序排列,通過--order-by指定
Query ID:語句的ID,(去掉多餘空格和文本字元,計算hash值)
Response:總的響應時間
time:該查詢在本次分析中總的時間占比
calls:執行次數,即本次分析總共有多少條這種類型的查詢語句
R/Call:平均每次執行的響應時間
V/M:響應時間Variance-to-mean的比率
Item:查詢對象

# Profile
# Rank Query ID           Response time Calls R/Call V/M   Item
# ==== ================== ============= ===== ====== ===== ===============
#    1 0xF9A57DD5A41825CA  2.0529 76.2%     1 2.0529  0.00 SELECT
#    2 0x4194D8F83F4F9365  0.6401 23.8%     1 0.6401  0.00 SELECT wx_member_base

第三部分:每一種查詢的詳細統計結果
由下麵查詢的詳細統計結果,最上面的表格列出了執行次數、最大、最小、平均、95%等各項目的統計。
ID:查詢的ID號,和上圖的Query ID對應
Databases:資料庫名
Users:各個用戶執行的次數(占比)
Query_time distribution :查詢時間分佈, 長短體現區間占比,本例中1s-10s之間查詢數量是10s以上的兩倍。
Tables:查詢中涉及到的表
Explain:SQL語句

複製代碼
# Query 1: 0 QPS, 0x concurrency, ID 0xF9A57DD5A41825CA at byte 802 ______
# This item is included in the report because it matches --limit.
# Scores: V/M = 0.00
# Time range: all events occurred at 2016-11-22 06:11:40
# Attribute    pct   total     min     max     avg     95%  stddev  median
# ============ === ======= ======= ======= ======= ======= ======= =======
# Count         50       1
# Exec time     76      2s      2s      2s      2s      2s       0      2s
# Lock time      0       0       0       0       0       0       0       0
# Rows sent     20       1       1       1       1       1       0       1
# Rows examine   0       0       0       0       0       0       0       0
# Query size     3      15      15      15      15      15       0      15
# String:
# Databases    test
# Hosts        192.168.8.1
# Users        mysql
# Query_time distribution
#   1us
#  10us
# 100us
#   1ms
#  10ms
# 100ms
#    1s  ################################################################
#  10s+
# EXPLAIN /*!50100 PARTITIONS*/
select sleep(2)\G
複製代碼

五、用法示例

1.直接分析慢查詢文件:

pt-query-digest  slow.log > slow_report.log

2.分析最近12小時內的查詢:

pt-query-digest  --since=12h  slow.log > slow_report2.log

3.分析指定時間範圍內的查詢:

pt-query-digest slow.log --since '2017-01-07 09:30:00' --until '2017-01-07 10:00:00'> > slow_report3.log

4.分析指含有select語句的慢查詢

pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log

5.針對某個用戶的慢查詢

pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log

6.查詢所有所有的全表掃描或full join的慢查詢

pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log

7.把查詢保存到query_review表

pt-query-digest --user=root –password=abc123 --review  h=localhost,D=test,t=query_review--create-review-table  slow.log

8.把查詢保存到query_history表

pt-query-digest  --user=root –password=abc123 --review  h=localhost,D=test,t=query_history--create-review-table  slow.log_0001
pt-query-digest  --user=root –password=abc123 --review  h=localhost,D=test,t=query_history--create-review-table  slow.log_0002

9.通過tcpdump抓取mysql的tcp協議數據,然後再分析

tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log

10.分析binlog

mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest  --type=binlog  mysql-bin000093.sql > slow_report10.log

11.分析general log

pt-query-digest  --type=genlog  localhost.log > slow_report11.log

上一篇:MySQL慢查詢(一) - 開啟慢查詢

 查看更多:
MySQL優化
MySQL各存儲引擎
MySQL鎖詳解
MySQL事務
MySQL索引類型

參考資料:
http://www.cnblogs.com/zhanjindong/p/3472804.html
http://blog.csdn.net/seteor/article/details/24017913

https://www.cnblogs.com/luyucheng/p/6265873.html


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 原因與解決方案 1.原因:修改表結構表結構發生變化後再對錶進行任何操作都不被允許,SQLState為57016(因為表不活動,所以不能對其進行訪問),由於修改了表欄位許可權,導致表處於不可用狀態,另外一個小的建議,如果平時的工作中用到DB2的話,最好準備一份DB2錯誤文檔 2.解決方案:對錶進行重構, ...
  • DEFAULT約束添加規則 1、若在表中定義了預設值約束,用戶在插入新的數據行時,如果該行沒有指定數據,那麼系統將預設值賦給該列,如果我們不設置預設值,系統預設為NULL。 2、如果“預設值”欄位中的項替換綁定的預設值(以不帶圓括弧的形式顯示),則將提示你解除對預設值的綁定,並將其替換為新的預設值。 ...
  • 一.概述 mysqldump客戶端工具是用來備份資料庫或在不同資料庫之間進行數據遷移。備份內容包含創建表或裝載表的sql語句。mysqldump目前是mysql中最常用的備份工具。 三種方式來調用mysqldump,命令如下: 上圖第一種是備份單個資料庫或者庫中部分數據表(從備份方式上,比sqlse ...
  • 預設情況下如果執行一個事務中出現錯誤,則只回滾錯誤操作語句(就是說這句不執行了,算不上回滾),錯誤處之前或之後的正確操作語句還是會被提交。如: 全部回滾的方法1:打開 XACT_ABORT 全部回滾方法2:使用Try...Catch 全部回滾方法3:自定義錯誤變數 最後要註意的是:如果一個事務寫了  ...
  • # 配置相關 0. 配置存儲 在$HOME目錄下的.hiverc文件中 1. 在提示符中顯示資料庫名 set hive.cli.print.current.db=true; 2. 優先使用本地模式執行 set hive.exec.mode.loacl.auto=true; 3. 列印列名 set h ...
  • 在給一個表添加欄位的時候,忽然發現會報一個date類型的欄位的預設值錯誤,鬱悶~ 經過排查,原來是MySQL的配置問題,在wamp下,MySQL 5.7里是沒有設置 SQL_MODE 的。 1.my.ini文件中找到 [mysqld] 2.如果沒有SQL_MODE,就添加,有就修改一下 3.重啟My ...
  • 註意: 有的Centos版本預設安裝了mariadb, 可以先將其卸載 檢查mariadb是否安裝 yum list installed | grep mariadb 卸載mariadb( all ) yum -y remove mariadb* 1. 網上下載MySQL的yum源 wget htt ...
  • 今日內容介紹 1.MySQL資料庫 2.SQL語句 01資料庫概念 A: 什麼是資料庫 資料庫就是存儲數據的倉庫,其本質是一個文件系統,數據按照特定的格式將數據存儲起來, 用戶可以對資料庫中的數據進行增加,修改,刪除及查詢操作。 B: 什麼是資料庫管理系統 資料庫管理系統(DataBase Mana ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...