Music Tag Editor 中文版是一款macOS平臺的音頻標簽管理工具,支持UNICODE,軟體帶有PLS/M3U列表生成器,還可以生成XML/TXT/CSV格式的播放列表,通過它用戶可以快速修改音樂文件的tag信息、創建播放列表,另外,軟體自帶播放器,可以播放常見的音頻文件。 詳情:Mus ...
背景
進入6月後,隨著一個主要功能版本api的上線,服務端的QPS翻了一倍,平時伺服器的CPU使用穩定在30%上下,高峰期則在60%上下,但是偶爾會有單台機器出現持續數分鐘突然飆到90%以上,導致大量api響應緩慢超過客戶端等待時間,觸發其主動斷開連接產生大量nginx499。
問題分析與解決
問題期間器資源情況
仔細查看問題期間的zabbix監控數據,發現90%的CPU占用中有10%上下是sys time, 5%上下是softirq time,兩者相加可占到接近20%, interrupt和context switch數由之前的10k/s飆升至20k+/s。
定位kafka log發送代碼
首先猜測就是某個新加功能實現有bug,可能造成長時間未執行完成,多個類似請求長期占用CPU而後又被切換為其他線程,反覆在這些耗時請求中來回切換卻沒法完成任意一個請求,並造成後續請求在隊列中排隊等待,導致大量請求超時響應。
直接入手分析定位新增的某個複雜功能介面,確認不存在死迴圈的可能,懷疑是介面太耗性能長期占用CPU導致後續請求來不及處理最終連鎖反應導致雪崩。
仔細分析其實現,發現總共會觸發30+次kafka log發送,之前一直認為使用非同步批量發送kafka log的情況下,多發幾次log應該不會存在什麼問題,不過這裡一個請求觸發30+次 kafka log發送確實有點太多了。
本著懷疑的精神決定實際驗證一番kafka log發送耗時,結果發現每次kafka調用耗時居然在0.2-2ms之間波動,這相當於該複雜介面功能請求光是發送kafka消息就需要6-60ms時間,與之前認為應該很快的假設不符!
進一步分析原因,發現原來沿用的kafka producer初始化配置有大坑,其設置了batch_size=20之前一直理解為是每20條log觸發一次實際發送,結果起始batch_size的單位是位元組,其表示的是每滿20位元組觸發一次實際發送==!所以實際效果是每次kafka log send都會觸發實際發送。通過修改batch_size為64k並設置linger_ms為500ms,驗證kafka log一邊為批量發送模式後,再次測試kafka消息單次調用耗時變為了<0.1ms。
修改線上api服務kafka參數,並將複雜介面kafka send操作從30+次優化為10+次,reload服務後,意外發現記憶體占用居然還降了50%(2G=>1G),但是對於日常interrupt、context switch次數未觀察到明顯下降。
修改後連續幾天未再出現CPU飆升偶發問題,但是堅持不到一周再次有機器出現類似問題,優化前平均1~2天一次,多的時候一天就有兩三次,優化後出現頻率降低為一周兩三次,從這個角度來看優化具有一定效果。
嘗試擴容解決
由於剛上了一個大版本功能,客戶端確實新增了很多api調用,隨著新版本覆蓋用戶數逐步升高,單機負載逐步升高,於是考慮再擴個容看能否解決問題,在某天下午快速擴容一臺機器後,晚上又出現了該問題,該簡單方案宣告失敗。
定位Linux記憶體水位
在前兩個方案嘗試解決問題失敗後,開始細究一下每5分鐘列印一次的機器top快照,仔細硬瞅之下還真發現點端倪:查看了單台機器過去近10次CPU飆漲時段的指標,發現free記憶體一般在CPU飆漲前剩餘不到200M,而CPU恢復正常後free記憶體一般都剩餘>1G,這個看上去有點不同尋常。進一步按圖索驥觀察到kswapd_low_wmark_hit_quickly取值每天增長上千次,直覺上感覺是偏高的。
難道問題是free記憶體不足、回收引起的?然而zabbix監控上顯示的可用記憶體一直都是>5G,理論上不應該存在不足才對,進一步探究瞭解到了free記憶體回收與記憶體水位的概念。
記憶體水位作用
Linux的設計思路是儘量多的使用空閑記憶體,除了保留一定量的真正空閑立馬可用的記憶體作為free記憶體保證系統正常運轉外,其他空閑記憶體會儘量用於系統緩存(buffer+cache),當free記憶體不足時則從buffer、cache中回收為free記憶體即可,而一般我們說linux的可用記憶體都是指available記憶體,其實際包括free+可回收的buffer+cache記憶體,這也是zabbix監控中可用記憶體使用的指標。
那實際應該保留多少free記憶體以及何時觸發回收free記憶體呢?這裡就需要引入linux的記憶體水位(watermark)概念了,具體可參考這篇文章--Linux內核調整watermark_scale_factor以緩解direct reclaim。簡單來說就是linux設置了min/low/high三個記憶體水位,對應free記憶體在不同水位線的行為如下:
- free > high,記憶體充足,什麼都不用做
- free記憶體由>high下降至<low,喚醒kswapd開始記憶體回收--其他進程依然可以正常申請記憶體
- 若free記憶體一直下降至<min, 分配新記憶體的進程會直接觸發自己同步記憶體回收操作--direct claim
- kswapd終於回收free記憶體至>high,休眠100ms
- 休眠100ms期間若free又下降至<low,則再次喚醒kswapd,並自增kswapd_low_wmark_hit_quickly值
- 休眠100ms後若free變為<high,kswapd需繼續回收記憶體至>high,而後繼續休眠100ms,並自增kswapd_low_wmark_hit_quickly值
- 休眠100ms後若free依然>high,kswapd將進入長期sleep等待下次被喚醒
記憶體水位計算與調整
而watermark的min/low/high三者的取值具體是由兩個內核參數min_free_kbytes和watermark_scale_factor決定的,簡單來說--參考
vm內核參數之記憶體水位min_free_kbytes和保留記憶體lowmem_reserve_ratio
:
watermark[WMARK_MIN] = (min_free_kbytes/4) * zone.pages/zone.allpages
watermark[WMARK_LOW] = 5/4watermark[WMARK_MIN]
watermark[WMARK_HIGH] = 3/2*watermark[WMARK_MIN]
min水位直接由min_free_kbytes決定(後面的zone.pages/zone.allpages表示不同記憶體區按占總物理記憶體的比例均分對應水位值),而後min/low/high之間的差值則=1/4low,所以在一臺8G(7969M)的線上機器上min/low/high取值預設為:
Node 0, zone DMA
per-node stats
nr_inactive_anon 21704
nr_active_anon 171130
nr_inactive_file 1490263
nr_active_file 153139
--
Node 0, zone DMA32
pages free 58451
min 6322
low 7902
high 9482
node_scanned 0
--
Node 0, zone Normal
pages free 13169
min 10540
low 13175
high 15810
node_scanned 0
主要的Normal區域的min/low/high差值也就105400.254KB=10M左右,如果線上有突增流量,很可能一下子就跑到low乃至min水位之下了。
記憶體水位調整效果
通過watermark_scale_factor參數將預設值10/10000調整為200/10000,記憶體水位取值變為:
Node 0, zone DMA
per-node stats
nr_inactive_anon 21910
nr_active_anon 278859
nr_inactive_file 1366921
nr_active_file 150022
--
Node 0, zone DMA32
pages free 56340
min 6342
low 21660
high 36978
node_scanned 0
--
Node 0, zone Normal
pages free 35915
min 10520
low 35926
high 61332
node_scanned 0
Normal zone記憶體水位min/low/high差值變為:low-min=99MB,調整完後對單台機器逐步放量至近期峰值的150%流量測試,未再出現該問題,至今2周過去了,線上機器未再出現該問題。
另一個驗證水位調整效果的數據是查看並自增kswapd_low_wmark_hit_quickly值變化值,在調整水位值之前,每天kswapd_low_wmark_hit_quickly新增在1000左右,調整後變為100次,降低了一個數量級。
轉載請註明出處,原文地址: https://www.cnblogs.com/AcAc-t/p/linux_watermark_and_kafka_batch_send.html
參考
https://zhuanlan.zhihu.com/p/440688960
https://help.aliyun.com/document_detail/316788.html
https://unix.stackexchange.com/questions/211646/what-is-kswapd-low-wmark-hit-quickly-from-proc-vmstat
https://blog.csdn.net/u010039418/article/details/105281933
https://kafka-python.readthedocs.io/en/master/apidoc/KafkaProducer.html
https://doc.opensuse.org/documentation/leap/archive/42.3/tuning/html/book.sle.tuning/cha.tuning.memory.html