一、背景 大數據服務是數據平臺建設的基座,隨著B站業務的快速發展,其大數據的規模和複雜度也突飛猛進,技術的追求也同樣不會有止境。 B站一站式大數據集群管理平臺(BMR),在千呼萬喚中孕育而生。本文簡單介紹BMR的由來、面臨的主要矛盾以及如何在變化中求得生存與發展。 下圖是截至2024年6月初,統計到 ...
一、背景
大數據服務是數據平臺建設的基座,隨著B站業務的快速發展,其大數據的規模和複雜度也突飛猛進,技術的追求也同樣不會有止境。
B站一站式大數據集群管理平臺(BMR),在千呼萬喚中孕育而生。本文簡單介紹BMR的由來、面臨的主要矛盾以及如何在變化中求得生存與發展。
下圖是截至2024年6月初,統計到B站大數據的服務規模:
大數據所需承載的業務種類愈加繁多,為更好地承接業務場景的訴求,同時提升穩定性要求,我們大數據集群管理平臺的建設,經歷了以下主要幾個階段:
階段一(求生存)
-
聚焦系統環境標準化、服務配置標準化,清掃野蠻成長過程中非標生產留下的債務(層出不窮的奇怪問題)。
-
快速和花樣地迭代姿勢,滿足業務高速發展訴求。將各服務的安裝包、配置納入版本管理,服務狀態有效透出,完成狀態管理和分享。同時打通線上業務的門禁管理,快速迭代過程中不失穩定性考量。
(標準化工作嵌入迭代發佈、配置發佈、灰度發佈中,同時支持常用的新增節點、快速部署、節點上下線等能力。管理上支持機器分組、打標、自定義流程、異構配置管理等)
階段二(追溫飽)
- 建設元倉,打通服務間數據互通,實現問題的快速診斷。
- 場景化建設,如:機房遷移所需的大批量、持續性項目,故障自愈能力等。
- 提升覆蓋面,邊緣場景或非高頻變更場景。如:Yarn隊列管理、Lable變更、主從切換、HDFS數據遷移、HMS元數據管理等。
階段三(奔小康)
-
擁抱雲原生,拓展容器化管理能力。更好利用在業務內和業務間的資源,實現降本增效。服務混部、潮汐退避 火力全開,追求更高的利用率的同時降低IT成本支出。
-
建設容量管理,完善服務的異常預警、風險預測、故障自愈,進一步完善集群自動化運維體系,進一步追趕業務對大數據賦能的預期。
階段四(共富裕)
-
強化可觀測能力,數據更接近業務視角,自上而下清晰對齊、指引方向。
-
化被動為主動,從異常監控到故障自愈,再從故障自愈走向故障預測。
-
極致追求服務質量,度量服務質量、死磕服務質量。
二、面臨的挑戰
接下來,我將在大數據平臺化過程中遇到的典型問題和解決思路分享如下。
2.1、節點一致性問題
在元數據未閉環聯動的情況下,一致性無法得到保障。B站的大數據集群當前仍以物理機為主,正在逐步容器化的階段。大數據服務組件繁多,疊加多版本、混合部署、部分容器化等諸多因素,讓元數據一致性的保障工作更加複雜。在完全平臺之前,還存在腳本甚至人工操作,狀態的變更無法有效閉環。節點遺漏和信息錯誤的情況時有發生,輕則伺服器未有效利用,重則集群服務存在多個版本,留下穩定性隱患甚至直接影響業務生產。
不斷完善覆蓋面和使用場景的同時,一些重要的且短時間未實現數據閉環的場景,BMR在‘智能運維’模塊的‘巡檢’能力,去兜底去發現未知原因產生的臟數據或不一致的問題,讓風險儘早被髮現、被干預、被解決。
2.2、標準規範的制定和實施
集群標準,需要結合歷史和當前情況來制定,並非設計而來。且實施過程,需要考慮相容、遷移的能力和資源、實施周期等因素。過程中要根據集群支持的業務特點、環境、版本進行劃分,如:實時集群、離線集群(2.8版本和3.2版本)等, 線上存在多個生產集群。在前期組件服務的部署規範和配置文件的標準化不足,存在同一集群內同一組件在不同節點部署環境都存在差異情況。在平衡標準化和差異化的過程中,‘小步快跑’地進行標準化的制定、試運行、修正、公示,技術項的標準最終固化到平臺功能中。
2.3、規模化的管理
當“量變引發質變”和“不必過度設計”遇到“業務飛速發展”時,及時調整管理策略滿足業務發展需求,極具挑戰。
大數據玩的就是數據,硬碟少不了。當前我們的大數據集群磁碟數量在十萬量級。每天磁碟正常故障超10塊, BMR在‘智能運維’模塊集成了‘硬碟故障自愈’的能力,打通各個平臺的數據和流程,實現業務無感式的換盤。還有操作系統層面的內核管理與升級,在面臨節點數量多、需要無感/無故障的管理,都會對平臺提出更高的要求。
而且在機房資源緊張的情況下,會涉及集群遷移甚至機房遷移的工作。如何不停機實現遷移,BMR上也都做了適配。
2.4、提升迭代效率
單純提效不難,難的是在複雜場景中保證穩定的前提下。
生產不能停,迭代要繼續,規模同時要滿足發展需要。BMR在建設迭代能力的同時,通過元數據的管理監測資源容量。本著儘可能地避免問題、儘早地暴露問題的原則,集群資源做了分層、隔離以保全全,迭代過程也必備了‘灰度’、‘快速回滾’、‘異常探測’以便快速發現和快速解決問題。
同時多集群、多組件、多角色的‘變更衝突’需要加以限制,變更信息的‘透明化’和‘快速回滾’利於故障快速診斷與恢復。跨團隊協作中,復用線上業務平臺的通知與協同能力,實現消息的精確觸達和快速應急響應。
2.5、削峰填谷
降本增效大背景的今天,資源有效利用也不是新話題。大數據業務和線上業務有著天然的資源錯峰潛質,BMR當然不會放過。我們已在2023年實現大數據業務與線上業務的資源潮汐退避,大數據業務白天出讓資源給線上業務使用,線上業務夜間歸還的同時也出讓冗餘的資源給到大數據,實現‘削峰填谷’和‘資源共贏’。
三、平臺實踐
秉著先解放雙手再系統閉環然後貼進業務的思路,BMR(大數據管理平臺)逐步拆招解招。
系統整體架構如下圖所示,BMR主要由集群大盤、集群管理、組件管理、變更管控和資源管理功能模塊構成。
底層復用公司的‘Job任務’平臺,使用 DolphinScheduler 做邏輯調度。 業務數據和邏輯集中在‘元數據’、‘配置中心’、‘主機管理’和‘發佈服務’四大模塊中,對用戶由‘集群大盤’、‘集群管理’、‘組件管理’、‘變更管控’和‘資源管理’來呈現。
產品層本著‘一站式’的思想, 在操作集群管理時, 用戶只需選擇發佈的組件、對應的主機節點, 及發佈策略, 即可快捷完成變更操作。把複雜的邏輯和後端留給BMR,讓用戶只關心他需要關心的。
為更好適配不同組件和用戶的使用需求,變更流程設計整體分為節點選擇策略(分批執行)、執行前置操作、調度執行、執行後置操作幾個核心操作,流程示意圖如下:
3.1、集群管理
為適配不同業務、不同規模、不同網路環境、不同用途的部署方式,同時考慮到開發周期和成本。底層功能模塊儘可能的通用、可復用,上層應用區分用戶視角和管理視角。用戶視角僅顯示有許可權的集群,更多展示查看、監控類的實例。管理視角則可以快速新增創建並部署集群。當前我們已經支持瞭如 HDFS、Spark、Flink、ClickHouse、Kafka等集群管理能力。
3.2、組件管理
- 3.2.1、支持新增組件,查看組件部署的節點及組件服務的運行狀態
在組件管理視角,我們優先支持了組件的‘增/刪/改’及‘狀態監控’的功能。這裡的難點是不同集群部署的組件服務, 對應配置存在差異。為更好支持差異化管理訴求,集群管理平臺支持不同集群組件的自定義添加、組件變更管理及對應配置等管理需求。
- 3.2.2、支持組件服務的擴容、迭代、縮容等發佈操作
組件的‘擴縮容’和‘迭代變更’基礎能力具備後,上層即可包裝成各種應用需求。同時提供變更可視化,也支持發佈策略定製。比如:
-
併發度設置: 一次同時變更多少台節點,當前併發度最高限制200,避免一次同時變更過多,對線上任務造成影響。
-
容錯度設置: 變更過程中失敗節點數到達容錯度後,發佈操作自動暫停,及時告警通知發佈者,並人工介入檢查,是否存在風險。
-
發佈暫停、繼續、跳過錯誤並繼續等發佈控制等。
- 3.2.3、組件配置管理
最早的配置文件,多數是在git上管理,本地文本編輯。容易出現導致文件格式、配置項錯誤等問題。也出現過集群部分運行時配置和磁碟上對應配置不一致問題,和線上節點配置版本無聯動,給問題定位排查帶來風險和困難。
BMR的配置管理,支持版本快照功能,可按照配置項快速檢索,同時在修改保存時有合法性檢查,周期性巡檢集群節點磁碟上配置的版本和服務運行生效版本不一致的預警。
3.3、節點管理
不同角度和不同場景,也有對節點管理的需求。特別在差異化管理和問題診斷的場景,以及未閉環場景下的使用。
如:適配硬體配置差異而產生的應用配置差異、不同隊列使用不同配置、不同服務使用不同版本,同時也支持管理查看節點服務運行情況, 服務版本部署監控狀態等。
3.4、隊列管理
線上Yarn資源調度採用Capacity模式,集群根據不同部門、任務優先順序等規則會劃分多個隊列資源, 前期通過文本編輯的形式對配置進行修改調整,存在編輯繁瑣、易出錯等問題。BMR為此提供了Yarn隊列的線上可視化編輯能力, 支持新增、刪減隊列、同時會對隊列資源的capactiy百分比合法性校驗, 也支持隊列配置項調整對全局或部分隊列生效等快捷操作。如圖示意:
四、技術方案
通過大數據集群管理平臺化的建設,解決我們遇到的迭代效率、穩定性等問題,主要圍繞集群管理、節點管理、服務管理、組件管理、節點運行任務等幾個維度進行建設,整體邏輯關係如下:
當前線上存在多套大數據集群,每套集群都存在多個組件,在平臺落地的過程中。面對上述提及的問題和挑戰,我能通過組件工作量管理來應對。
4.1、組件流程管控
大數據集群平臺不同組件管理的核心差異點,在於其變更執行流程差異,基於此我們構建了組件工作流的管理模塊,同時支持不同組件的執行流程可視化配置管理,基於Apache DolphinScheduler框架進行了二次開發, 利用其流程DAG可視化編輯能力,擴展了TaskPlugin適配我們的集群組件變更管理的業務場景。
4.2、變更影響可控
為了保證變更平穩可控, 減少因為變更帶來的集群線上任務穩定性問題, 支持以下變更策略:
-
按批次灰度,可根據組件變更影響差異 ,支持自定義每批次變更節點數量, 當前每批次上限200節點。
-
批次之間有序執行,並相互隔離,出現異常僅影響本批次。
4.3、異常節點容錯
-
容錯策略
-
異常重試
-
工作流程執行時, 支持過濾異常錯誤節點
-
支持批次內異常跳過, 繼續執行下一批次
4.4、跨組件依賴和全局變更
以DataNode節點縮容場景為例,DN涉及數據遷移問題,整個下線流程相對比較繁瑣, 如機房搬遷場景使用Fast Decommission方式快速遷移數據、 節點故障維修場景 通過Decommission方式遷移數據等,整體執行流程如下圖所示:
在DataNode下線流程中,同時涉及DataNode、NameNode組件的變更。縮容操作步驟中存在全局變更(NameNode節點級別)、部分變更(DN節點即便)、阻塞等待等互斥操作。
針對這種複雜變更場景, 通過支持DN下線流程嵌套子流程,來操作不同的變更對象。通過子流程方式我們可以對所需的依賴組件同時進行變更, 可方便快捷進行操作。
五、未來規劃
-
降本:深化資源利用率提升,進一步榨取運算資源。
-
提效:增加故障自愈和故障預測的覆蓋面,降低風險的同時減少人力投入。
-
穩定性:大數據組件眾多,繼續提升覆蓋率,將標準化和迭代可控堅持到底。
-
穩定性:把控容量的可觀測性,將功能之外風險拒之門外。
-
服務質量:建立服務質量管理體系,指引技術改進與服務質量提升。
-End-
作者丨國輝
本文由 白鯨開源 提供發佈支持!