基於 Apache Hudi 極致查詢優化的探索實踐

来源:https://www.cnblogs.com/huaweiyun/archive/2022/09/26/16730086.html
-Advertisement-
Play Games

摘要:本文主要介紹 Presto 如何更好的利用 Hudi 的數據佈局、索引信息來加速點查性能。 本文分享自華為雲社區《華為雲基於 Apache Hudi 極致查詢優化的探索實踐!》,作者:FI_mengtao。 背景 湖倉一體(LakeHouse)是一種新的開放式架構,它結合了數據湖和數據倉庫的最 ...


摘要:本文主要介紹 Presto 如何更好的利用 Hudi 的數據佈局、索引信息來加速點查性能。

本文分享自華為雲社區《華為雲基於 Apache Hudi 極致查詢優化的探索實踐!》,作者:FI_mengtao。

背景

湖倉一體(LakeHouse)是一種新的開放式架構,它結合了數據湖和數據倉庫的最佳元素,是當下大數據領域的重要發展方向。

華為雲早在2020年就開始著手相關技術的預研,並落地在華為雲 FusionInsight MRS智能數據湖解決方案中。

目前主流的三大數據湖組件 Apache Hudi、Iceberg、Delta各有優點,業界也在不斷探索選擇適合自己的方案。

華為湖倉一體架構核心基座是 Apache Hudi,所有入湖數據都通過 Apache Hudi 承載,對外通過 HetuEngine(Presto增強版)引擎承擔一站式SQL分析角色,因此如何更好的結合 Presto 和 Hudi 使其查詢效率接近專業的分散式數倉意義重大。查詢性能優化是個很大的課題,包括索引、數據佈局、預聚合、統計信息、引擎 Runtime優化等等。本文主要介紹 Presto 如何更好的利用 Hudi 的數據佈局、索引信息來加速點查性能。預聚合和統計信息我們將在後續分享。

數據佈局優化

大數據分析的點查場景一般都會帶有過濾條件,對於這種類型查詢,如果目標結果集很小,理論上我們可以通過一定手段在讀取表數據時大量跳過不相干數據,只讀取很小的數據集,進而顯著的提升查詢效率。我們可以把上述技術稱之為 DataSkipping。

好的數據佈局可以使相關數據更加緊湊(當然小文件問題也一併處理掉了)是實現 DataSkipping的關鍵一步。日常工作中合理設置分區欄位、數據排序都屬於數據佈局優化。當前主流的查詢引擎 Presto/Spark 都可以對Parquet文件做 Rowgroup 級別過濾,最新版本甚至支持 Page 級別的過濾;選取合適的數據佈局方式可以使引擎在讀取上述文件可以利用列的統計信息輕易過濾掉大量 Rowgroup/Page,進而減少IO。

那麼是不是 DataSkipping僅僅依賴數據佈局就好了?其實不然。上述過濾還是要打開表裡每一個文件才能完成過濾,因此過濾效果有限,數據佈局優化配合 FileSkipping才能更好的發揮效果。

當我們完成數據佈局後,對每個文件的相關列收集統計信息,下圖給個簡單的示例,數據經過排序後寫入表中生成三個文件,指定點查 where a < 10 下圖可以清楚的看出 a < 10的結果集只存在於 parquet1文件中,parquet2/parquet3 中 a 的最小值都比10大,顯然不可能存在結果集,所以直接裁剪掉 parquet2和 parquet3即可。

這就是一個簡單 FileSkipping,FileSkipping的目的在於盡最大可能裁剪掉不需要的文件,減少掃描IO,實現 FileSkipping有很多種方式,例如

min-max統計信息過濾、BloomFilter、Bitmap、二級索引等等,每種方式都各有優缺點,其中 min-max 統計信息過濾最為常見,也是 Hudi/Iceberg/DeltaLake 預設提供的實現方式。

Apache Hudi核心能力

Clustering

Hudi早在 0.7.0 版本就已經提供了 Clustering 優化數據佈局,0.10.0 版本隨著 Z-Order/Hilbert高階聚類演算法加入,Hudi的數據佈局優化日趨強大,Hudi 當前提供以下三種不同的聚類方式,針對不同的點查場景,可以根據具體的過濾條件選擇不同的策略

關於 Z-Order、Hilbert 具體原理可以查閱相關Wiki,https://en.wikipedia.org/wiki/Z-order 本文不再詳細贅述。

Metadata Table(MDT)

Metadata Table(MDT):Hudi的元數據信息表,是一個自管理的 Hudi MoR表,位於 Hudi 表的 .hoodie目錄,開啟後用戶無感知。同樣的 Hudi 很早就支持 MDT,經過不斷迭代 0.12版本 MDT 已經成熟,當前 MDT 表已經具備如下能力

(1)Column_stats/Bloomfilter

上文我們介紹了數據佈局優化,接下來說說 Hudi 提供的 FileSkipping能力。當前 Hudi 支持對指定列收集包括min-max value,null count,total count 在內的統計信息,並且 Hudi 保證這些信息收集是原子性,利用這些統計信息結合查詢引擎可以很好的完成 FileSkipping大幅度減少IO。BloomFilter是 Hudi 提供的另一種能力,當前只支持對主鍵構建 BloomFilter。BloomFilter判斷不存在就一定不存在的特性,可以很方便進行 FileSkipping,我們可以將查詢條件直接作用到每個文件的 BloomFilter 上,進而過濾點無效的文件,註意 BloomFilter 只適合等值過濾條件例如where a = 10,對於 a > 10這種就無能為力。

(2)高性能FileList

在查詢超大規模數據集時,FileList是不可避免的操作,在 HDFS 上該操作耗時還可以接受,一旦涉及到對象存儲,大規模 FileList 效率極其低下,Hudi 引入 MDT 將文件信息直接保存在下來,從而避免了大規模FileList。

Presto 與 Hudi的集成

HetuEngine(Presto)作為數據湖對外出口引擎,其查詢 Hudi 能力至關重要。對接這塊我們主要針對點查和複雜查詢做了不同的優化,下文著重介紹點查場景。在和 Hudi 集成之前首先要解決如下問題

  1. 如何集成 Hudi,在 Hive Connector 直接魔改,還是使用獨立的 Hudi Connector?
  2. 支持哪些索引做 DataSkipping?
  3. DataSkipping 在 Coordinator 側做還是在 Worker 端做?

問題1: 經過探討我們決定使用 Hudi Connector承載本次優化。當前社區的 Connector 還略優不足,缺失一些優化包括統計信息、Runtime Filter、Filter不能下推等導致 TPC-DS 性能不是很理想,我們在本次優化中重點優化了這塊,後續相關優化會推給社區。

問題2: 內部 HetuEngine 其實已經支持 Bitmap 和二級索引,本次重點集成了 MDT 的 Column statistics和 BloomFilter 能力,利用 Presto下推的 Filter 直接裁剪文件。

問題3: 關於這個問題我們做了測試,對於 column 統計信息來說,總體數據量並不大,1w 個文件統計信息大約幾M,載入到 Coordinator 記憶體完全沒有問題,因此選擇在 Coordinator 側直接做過濾。

對於 BloomFilter、Bitmap 就完全不一樣了,測試結果表明 1.4T 數據產生了 1G 多的 BloomFilter 索引,把這些索引載入到 Coordinator 顯然不現實。我們知道 Hudi MDT 的 BloomFilter 實際是存在 HFile里,HFile點查十分高效,因此我們將 DataSkipping 下壓到 Worker 端,每個 Task 點查 HFile 查出自己的 BloomFilter 信息做過濾。

點查場景測試

測試數據

我們採用和 ClickHouse 一樣的SSB數據集進行測試,數據規模1.5T,120億條數據。

$ ./dbgen -s 2000 -T c
$ ./dbgen -s 2000 -T l
$ ./dbgen -s 2000 -T p
$ ./dbgen -s 2000 -T s

測試環境

1CN+3WN Container 170GB,136GB JVM heap, 95GB Max Query Memory,40vcore

數據處理

利用 Hudi 自帶的 Hilbert 演算法直接預處理數據後寫入目標表,這裡 Hilbert 演算法指定 S_CITY,C_CITY,P_BRAND, LO_DISCOUNT作為排序列。

SpaceCurveSortingHelper
.orderDataFrameBySamplingValues(df.withColumn("year", expr("year((LO_ORDERDATE))")), LayoutOptimizationStrategy.HILBERT, Seq("S_CITY", "C_CITY", "P_BRAND""LO_DISCOUNT"), 9000)
.registerTempTable("hilbert")
spark.sql("insert into lineorder_flat_parquet_hilbert select * from hilbert")

測試結果

使用冷啟動方式,降低 Presto 緩存對性能的影響。

SSB Query

文件讀取量

  1. 對於所有 SQL 我們可以看到 2x - 11x 的性能提升, FileSkipping 效果更加明顯過濾掉的文件有 2x - 200x 的提升。
  2. 即使沒有 MDT ,Presto 強大的 Rowgroup 級別過濾,配合 Hilbert 數據佈局優化也可以很好地提升查詢性能。
  3. SSB模型掃描的列數據都比較少, 實際場景中如果掃描多個列 Presto + MDT+ Hilbert 的性能可以達到 30x 以上。
  4. 測試中同樣發現了MDT的不足,120億數據產生的MDT表有接近50M,載入到記憶體裡面需要一定耗時,後續考慮給MDT配置緩存檔加快讀取效率。

關於 BloomFilter 的測試,由於 Hudi 只支持對主鍵構建 BloomFilter,因此我們構造了1000w 數據集做測試

spark.sql(
 """
 |create table prestoc(
 |c1 int,
 |c11 int,
 |c12 int,
 |c2 string,
 |c3 decimal(38, 10),
 |c4 timestamp,
 |c5 int,
 |c6 date,
 |c7 binary,
 |c8 int
 |) using hudi
 |tblproperties (
 |primaryKey = 'c1',
 |preCombineField = 'c11',
 |hoodie.upsert.shuffle.parallelism = 8,
 |hoodie.table.keygenerator.class = 'org.apache.hudi.keygen.SimpleKeyGenerator',
 |hoodie.metadata.enable = "true",
 |hoodie.metadata.index.column.stats.enable = "true",
 |hoodie.metadata.index.column.stats.file.group.count = "2",
 |hoodie.metadata.index.column.stats.column.list = 'c1,c2',
 |hoodie.metadata.index.bloom.filter.enable = "true",
 |hoodie.metadata.index.bloom.filter.column.list = 'c1',
 |hoodie.enable.data.skipping = "true",
 |hoodie.cleaner.policy.failed.writes = "LAZY",
 |hoodie.clean.automatic = "false",
 |hoodie.metadata.compact.max.delta.commits = "1"
 |)
 |
 |""".stripMargin)

最終一共產生了8個文件,結合 BloomFilter Skipping掉了7 個,效果非常明顯。

後續工作

後續關於點查這塊工作會重點關註 Bitmap 以及二級索引。最後總結一下 DataSkipping 中各種優化技術手段的選擇方式。

  1. Clustering中各種排序方式需要結合 Column statistics 才能達到更好的效果。
  2. BloomFilter 適合等值條件點查,不需要數據做排序, 但是要選擇高基欄位,低基欄位 BloomFIlter 用處不大;另外超高基也不要選 BloomFilter,產出的 BloomFilter 結果太大。

 

點擊關註,第一時間瞭解華為雲新鮮技術~


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 一、本地數據集上傳到到數據倉庫Hive 1、 實驗數據集的下載 1. 將user.zip下載到指定目錄 2.給hadoop用戶賦予針對bigdatacase目錄的各種操作許可權 3.創建一個dataset目錄用於保存數據集 4.解壓縮user.zip文件 5.可以看到dataset目錄下由兩個文件 6 ...
  • 超級跳躍日:Super Leap Day是一款非常有趣的橫版跑酷冒險游戲,游戲操作簡單,只需要按下單個按鈕即可連續跳躍,沿途還有很多獎勵和物品等待你來收集,並且每天都有新的關卡等你來挑戰,喜歡的朋友快來體驗吧~ 詳情:超級跳躍日Super Leap Day for mac(動作冒險游戲) 游戲介紹 ...
  • 如果轉載, 請註明出處 https://www.cnblogs.com/milton/p/16730512.html Ubuntu22.40下VNC和遠程桌面的區別 使用遠程桌面時, 用戶必須在host上登入桌面環境. 可以是鎖屏或非鎖屏, 但是必須要有一個用戶桌面會話存在. 使用VNC時, hos ...
  • 摘要:面向教育模式的轉變,南京功夫豆攜手華為雲IoT,給印表機配上與雲端互通的智能盒子,開啟雲端列印新模式 本文分享自華為雲社區《一臺“厲害”的印表機:雲+IoT,開啟雲端列印新模式》,作者:華為IoT雲服務 。 後疫情時代 生活的各方面都在往線上模式延展 而在不被人註意的角落裡 印表機也在悄悄地提 ...
  • 1. 前言 什麼是Linux Linux是一套免費使用和自由傳播的操作系統。說到操作系統,大家比較熟知的應該就是Windows和MacOS操作系統,我們今天所學習的Linux也是一款操作系統。 為什麼要學Linux 那麼我們為什麼要學習Linux呢,主要出於兩個方面的原因。 1). 企業用人要求 以 ...
  • cobbler部署 #先關閉防火牆和selinux [root@localhost ~]# systemctl disable firewalld [root@localhost ~]# setenforce 0 //cobbler服務,selinux必須得是disabled狀態,所以要重啟 [ro ...
  • 前幾天裝了幾台伺服器測試,在使用的過程中發現,每次重啟系統,登錄界面會彈出網卡提示 “r8169 0000:02:00 eth0 Invalid ocp reg 17758!” 系統版本: 經過測試發現: 1、開機前將eth0/eth1網口插上網線,系統啟動後識別到eth0/eth1網口有網線連接, ...
  • 前言 什麼是Redis Redis是一個基於記憶體的key-value結構資料庫。Redis 是互聯網技術領域使用最為廣泛的存儲中間件,它是「Remote Dictionary Service」的首字母縮寫,也就是「遠程字典服務」。 [ ] 基於記憶體存儲,讀寫性能高 [ ] 適合存儲熱點數據(熱點商品 ...
一周排行
    -Advertisement-
    Play Games
  • Dapr Outbox 是1.12中的功能。 本文只介紹Dapr Outbox 執行流程,Dapr Outbox基本用法請閱讀官方文檔 。本文中appID=order-processor,topic=orders 本文前提知識:熟悉Dapr狀態管理、Dapr發佈訂閱和Outbox 模式。 Outbo ...
  • 引言 在前幾章我們深度講解了單元測試和集成測試的基礎知識,這一章我們來講解一下代碼覆蓋率,代碼覆蓋率是單元測試運行的度量值,覆蓋率通常以百分比表示,用於衡量代碼被測試覆蓋的程度,幫助開發人員評估測試用例的質量和代碼的健壯性。常見的覆蓋率包括語句覆蓋率(Line Coverage)、分支覆蓋率(Bra ...
  • 前言 本文介紹瞭如何使用S7.NET庫實現對西門子PLC DB塊數據的讀寫,記錄了使用電腦模擬,模擬PLC,自至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1.Windows環境下鏈路層網路訪問的行業標準工具(WinPcap_4_1_3.exe)下載鏈接:http ...
  • 從依賴倒置原則(Dependency Inversion Principle, DIP)到控制反轉(Inversion of Control, IoC)再到依賴註入(Dependency Injection, DI)的演進過程,我們可以理解為一種逐步抽象和解耦的設計思想。這種思想在C#等面向對象的編 ...
  • 關於Python中的私有屬性和私有方法 Python對於類的成員沒有嚴格的訪問控制限制,這與其他面相對對象語言有區別。關於私有屬性和私有方法,有如下要點: 1、通常我們約定,兩個下劃線開頭的屬性是私有的(private)。其他為公共的(public); 2、類內部可以訪問私有屬性(方法); 3、類外 ...
  • C++ 訪問說明符 訪問說明符是 C++ 中控制類成員(屬性和方法)可訪問性的關鍵字。它們用於封裝類數據並保護其免受意外修改或濫用。 三種訪問說明符: public:允許從類外部的任何地方訪問成員。 private:僅允許在類內部訪問成員。 protected:允許在類內部及其派生類中訪問成員。 示 ...
  • 寫這個隨筆說一下C++的static_cast和dynamic_cast用在子類與父類的指針轉換時的一些事宜。首先,【static_cast,dynamic_cast】【父類指針,子類指針】,兩兩一組,共有4種組合:用 static_cast 父類轉子類、用 static_cast 子類轉父類、使用 ...
  • /******************************************************************************************************** * * * 設計雙向鏈表的介面 * * * * Copyright (c) 2023-2 ...
  • 相信接觸過spring做開發的小伙伴們一定使用過@ComponentScan註解 @ComponentScan("com.wangm.lifecycle") public class AppConfig { } @ComponentScan指定basePackage,將包下的類按照一定規則註冊成Be ...
  • 操作系統 :CentOS 7.6_x64 opensips版本: 2.4.9 python版本:2.7.5 python作為腳本語言,使用起來很方便,查了下opensips的文檔,支持使用python腳本寫邏輯代碼。今天整理下CentOS7環境下opensips2.4.9的python模塊筆記及使用 ...