ELT已死,EtLT才是現代數據處理架構的終點!

来源:https://www.cnblogs.com/seatunnel/archive/2023/08/31/17669210.html
-Advertisement-
Play Games

![file](https://img2023.cnblogs.com/other/3195851/202308/3195851-20230831114702799-1091292653.jpg) 提到數據處理,經常有人把它簡稱為“ETL”。但仔細說來,數據處理經歷了ETL、ELT、XX ETL(例 ...


file

提到數據處理,經常有人把它簡稱為“ETL”。但仔細說來,數據處理經歷了ETL、ELT、XX ETL(例如,Reverse ETL、Zero-ETL)到現在流行的EtLT架構幾次更迭。目前大家使用大數據Hadoop時代,主要都是ELT方式,也就是載入到Hadoop里進行處理,但是實時數據倉庫、數據湖的流行,這個ELT已經過時了,EtLT才是實時數據載入到數據湖和實時數據倉庫的標準架構。

本文主要講解下幾個架構出現的原因和擅長的場景及優缺點,以及為什麼EtLT逐步取代了ETL、ELT這些常見架構,成為全球主流數據處理架構,並給出開源實踐方法。

ETL時代(1990-2015)

在數據倉庫早期時代,數據倉庫提出者Bill Inmmon把數據倉庫定義為分主題的存儲和查詢的數據存儲架構,數據在存儲時就是按主題分門別類清洗好的數據。而實際情況也如此,大部分數據源是架構化數據源(例如,mysql、Oracle、SQLServer、ERP、CRM等等),而作為數據集中處理的數據倉庫大部分還是以OLTP時代查詢和歷史存儲為主的資料庫(DB2、Oracle),因此數據倉庫在面對複雜ETL處理時並不得心應手。而且這些資料庫購買成本都比較高,處理性能較弱,同時,各種各樣的軟體數據源越來越多。為了更方便地整合複雜的數據源、分擔數據計算引擎負擔、大量的ETL軟體出現,大家耳熟能詳的Informatica、Talend、Kettle都是那個年代的典型軟體產品,很多軟體至今還在很多企業的傳統架構當中配合數據倉庫使用。

file

優點:技術架構清晰、複雜數據源整合順暢、ETL軟體分擔接近50%的數據倉庫工作

缺點:所有處理都由數據工程師實現,業務需求滿足時間較長;硬體成本幾乎投入雙份,數據量大時硬體成本過高

在數據倉庫早期和中期,數據源複雜性比較高的時候,ETL架構幾乎成為行業標準流行了20多年。

ELT時代(2005-2020)

隨著數據量越來越大,數據倉庫的硬體成本與ETL硬體成本雙向增長,而新的MPP技術、分散式技術出現導致在數據倉庫中後期和大數據興起時代,ETL的架構逐步走向ELT架構。例如,當年數據倉庫最大廠商Teradata、至今流行的Hadoop Hive架構,都是ELT架構。它們的特點就是,將數據通過各種工具,幾乎不做join,group等複雜轉化,只做標準化(Normolization)直接抽取到數據倉庫里數據準備層(Staging Layer),再在數據倉庫中通過SQL、H-SQL,從數據準備層到數據原子層(DWD Layer or SOR Layer);後期再將原子層數據進入彙總層(DWS Layey or SMA Layer),最終到指標層(ADS Layer or IDX Layer)。雖然Teradata面向的結構化數據,Hadoop面向非結構化數據,但全球大數據和數據倉庫幾乎用的同一套架構和方法論來實現3-4層數據存儲架構。
file

優點:利用數據倉庫高性能計算處理大數據量處理,硬體ROI更高;同時,複雜業務邏輯可以通過SQL來用數據分析師和懂業務邏輯的技術人員來處理,而無需懂ETL(如Spark, MapReduce)降低數據處理人員總成本。

缺點:只適用於數據源比較簡單、量比較大的情況,面對複雜的數據源明顯處理方式不足;同時直接載入,數據準備層到數據原子層複雜度過高,無法通過SQL處理,往往利用Spark、MapReduce處理,而數據重覆存儲率較高;無法支持實時數據倉庫等需求。

面對ELT的數據倉庫無法載入複雜數據源,實時性比較差的問題,曾經有一個過渡性解決方案被各種公司方法採用,叫做ODS(Operational Data Store)方案。將複雜的數據源通過實時CDC或者實時API或者短時間批量(Micro-Batch)的方式ETL處理到ODS存儲當中,然後再從ODS ELT到企業數據倉庫當中,目前,還有很多企業採用此種方式處理。也有部分企業,把ODS放置在數據倉庫當中,通過Spark、MapReduce完成前期的ETL工作,再在數據倉庫(Hive、Teredata、Oracle、DB2)當中完成後期的業務數據加工工作。
file

其實此時,EtLT初期的人群已經形成,它的特點是人群劃分開,複雜的數據抽取、CDC、數據結構化、規整化的過程,往往由數據工程師實現,我們叫做小“t”,它的目標是從源系統到數據倉庫底層數據準備層或者數據原子層;而複雜的帶有業務屬性的數據原子層到數據彙總層到數據指標層的處理(帶有Group by、Join等複雜操作)往往是擅長使用SQL的業務數據工程師或者數據分析師來處理。
而ODS架構的獨立項目也隨著數據量級變大和EtLT架構的出現逐步淡出歷史舞臺。

EtLT (2020-未來)

EtLT的架構是由James Densmore 在《Data Pipelines Pocket Reference 2021》中總結提到的一個現代全球流行的數據處理架構。EtLT也是隨著現代數據架構(Modern Data Infrastructure)變化而產生的。

EtLT架構產生的背景

現代數據架構架構有如下特點 ,導致EtLT架構出現:

  • 雲、SaaS、本地混合複雜數據源
  • 數據湖與實時數據倉庫
  • 新一代大數據聯邦(Big Data Federation)
  • AI應用大爆發
  • 企業數據社群(Data Community)分裂

複雜數據源出現

現在全球企業運行當中,除了傳統的軟體、資料庫之外,雲和SaaS的出現將本已經很複雜的數據源情況更加複雜,於是面對SaaS的處理,北美企業提出了新的數據集成(Data Ingestion)的概念,例如 Fivetran,Airbyte,以解決SaaS數據進入數據倉庫(例如Snowflake)當中的ELT問題,它是傳統ELT架構在SaaS環境下的升級。而雲端數據存儲(例如,AWS Aruroa,AWS RDS,MongoDB Service等)和傳統線下資料庫與軟體(SAP、Oracle、DB2等)在混合雲架構(Hybrid Cloud)也在迅速增加數據源複雜性。傳統的ETL和ELT架構就無法滿足如此複雜環境的數據源處理。

數據湖與實時數據倉庫

在現代數據架構環境下,數據湖的出現融合了傳統的ODS和數據倉庫的特點,它可以做到貼源的數據變更和實時數據處理(例如 Apache Hudi, Apache Iceberg,Databricks Delta Lake),針對傳統的CDC(Change Data Capture)和實時數據流計算都做了數據存儲結構變化(Schema Evolution)和計算層面的支持。同時,實時數據倉庫理念出現,很多新型計算引擎(Apache Pinnot、ClickHouse、Apache Doris)都將支持實時ETL提上日程。而傳統的CDC ETL軟體或者實時計算流計算(Datastream Computing)對於數據湖和實時數據倉庫的支持,要麼是在新型存儲引擎支持要麼是在新型數據源連接方面存在很大問題,缺乏很好的架構和工具支持。

新一代大數據聯邦

在現代數據架構當中還有一種新型架構出現,它們以儘可能減少數據在不同數據存儲間流動,直接通過連接器或者快速數據載入後直接提供複雜數據查詢而見長,例如 Starburst的TrinoDB(前PrestDB)和基於Apache Hudi的OneHouse。這些工具都以數據緩存以及即席跨數據源查詢為目標,各種ETL、ELT工具亦無法支撐新型的Big Data Federation架構。

大模型大爆發

隨著2022年ChatGPT的出現,AI模型已經具備在企業應用中普及的演算法基礎,阻礙AI應用模型落地的更多的是數據的供給,數據湖和Big Data Federation出現解決了數據存儲和查詢問題。而數據供給側,傳統的ETL和ELT和流計算都形成了瓶頸,亦或無法快速打通各種複雜傳統、新興數據源、亦或無法用一套代碼同時支持AI訓練和AI線上的數據差異化需求。

企業數據社群分裂

隨著數據驅動和使用的深入,企業內部的數據使用者也快速增加,從傳統的數據工程師到數據分析師、AI人員甚至銷售分析師、財務分析師都有從企業數據倉庫當中提取數據的需求。因此,經歷了No-SQL,New-SQL各種變化之後,SQL還是成為企業最後面對複雜業務分析的唯一標準。大量分析師、業務部門工程師使用SQL來解決企業數據最後一公裡的問題,而複雜的非結構化數據處理,留給了專業數據工程師使用Spark、MapReduce、Flink處理。因此,兩批人群的需求產生了比較大的差異,傳統ETL,ELT架構無法滿足新型企業使用者的需求。

EtLT架構應運而生!

在上述背景下,數據處理逐步演化成為EtLT架構:
file

它拆分了原有ETL和ELT的結構,並力求實時和批量統一在一起處理以滿足實時數據倉庫和AI應用的需求:

  • E(xtract)抽取:從數據源角度來看,支持傳統的線下資料庫、傳統文件、傳統軟體同時,還要支持新興雲上資料庫、SaaS軟體API以及Serverless數據源的抽取;從數據抽取方式來看,需要支持實時CDC(Change Data Capture)對資料庫Binlog日誌的解析,也要支持實時計算(例如Kafka Streaming),同時也需要支持大批量數據讀取(多線程分區讀取、限流讀取等)。
  • t(ransform)規範化:相對於ETL和ELT,EtLT多出了一個小t,它的目標是數據規範化(Data Normalization)將複雜、異構的抽取出來數據源,快速地變為目標端可載入的結構化數據,同時,針對CDC實時載入Binlog進行拆分、過濾、欄位格式變更,並支持批量和實時方式快速分發到最終Load階段。
  • L(oad)載入:準確的說,載入階段已經不是簡單的數據載入,而是配合Et階段,將數據源的數據結構的變更、數據內容的變更以適合數據目標端(Data Target)的形式快速、準確的載入到數據目標當中,其中,對於數據結構的變化要支持同源數據結構變更(Schema Evolution),數據載入也應該支持大批量載入(Bulk Load)、SaaS載入(Reverse ETL)、JDBC載入等。確保既支持實時數據和數據結構的變化,還要支持大批量數據快速載入。
  • (T)ransform轉化:在雲數據倉庫、線下數據倉庫或新數據聯邦的環境下,完成業務邏輯的加工,通常使用SQL方式,實時或批量地將複雜業務邏輯準確、快速變為業務端或者AI端使用的數據。

在EtLT架構下,使用者人群也有了明確的分工:

  • EtL階段:以數據工程師為主,他們將複雜異構的混合數據源,變為數據倉庫或者數據聯邦可載入的數據,放到數據存儲當中,他們無需對企業指標計算規則有深入理解,但需要對各種源數據和非結構化數據變為結構化數據轉化有深入理解。他們需要確保的是數據的及時性、數據源到結構化數據的準確性。
  • T階段:以數據分析師、各業務部門數據SQL開發者、AI工程師為主,他們深刻理解企業業務規則,可以將業務規則變為底層結構化數據上的SQL語句進行分析統計,最終實現企業內部的數據分析和AI應用的實現,他們需要確保的是數據邏輯關係、數據質量以及最終數據結果滿足業務需求。

EtLT 架構開源實踐

在新興的EtLT架構下,其實全球有不少開源實踐,例如在大T部分,DBT幫助企業分析師和業務開發者快速基於Snowflake開發相關數據應用。而以大數據任務可視化調度協同(Workflow Orchestration)見長的Apache DolphinScheduler也在規劃Task IDE,讓企業數據分析師可以在DolphinScheduler上直接調試Hudi、Hive、Presto、ClickHouse等的SQL任務並直接拖拽生成Workflow任務。
作為EtLT架構當中代表Apache SeaTunnel則是從雲、本地數據源多種支持開始起步,逐步支持SaaS和Reverse ETL,大模型數據供給等方面,逐步完善EtLT的版圖,可以看到SeaTunnel最新的Zeta計算引擎把複雜的Join,Groupby等複雜操作交給最終的數據倉庫端來實現,自己只完成歸一化、標準化的動作以達到實時數據和批量數據一套代碼和高效引擎處理的目標,而大模型支持也放入支持列表當中:
file

目前Apache SeaTunnel從2022年底加入Apache孵化器的20個連接器發展到現在1年增長了5倍,目前支持的數據源超過100(https://seatunnel.apache.org/docs/Connector-v2-release-state/),從傳統資料庫到雲上資料庫最終到SaaS的支持都在逐步完善。

file

(參見https://seatunnel.apache.org/docs/2.3.2/category/source-v2瀏覽最新支持組件)

而Apache SeaTunnel 2.3.0 發佈的SeaTunnel Zeta引擎也支持數據分散式CDC,目標源數據表變更(SchemaEvolution)和整庫和多表同步諸多Feature和針對大數據量優異的性能贏得全球大量用戶(例如,印度第二大運營商Bharti Airtel,新加坡電商Shopee.com,唯品會Vip.com等)。相信隨著Connector數據量增多,SeaTunnel會贏得更多的企業用戶的青睞。

大模型的支持

更有意思的是現在SeaTunnel已經支持了對大模型訓練和向量資料庫的支撐,讓大模型可以直接和SeaTunnel支撐的100多種數據源交互(參見《圖書搜索領域重大突破!用 Apache SeaTunnel、Milvus 和 OpenAI 提高書名相似度搜索精準度和效率》),而現在SeaTunnel更可以利用ChatGPT直接生成SaaS Connector讓你的大模型和數據倉庫快速獲取互聯網上多種信息。

隨著AI、雲、SaaS的複雜性增加,企業對於實時CDC、SaaS和數據湖、實時數據倉庫裝載的需求,簡單的ETL架構已經很難滿足現有企業的需求,而具有面向企業不同階段的EtLT架構會在現代數據架構當中大放異彩。

而Apache SeaTunnel的目標就是是“連接萬源,同步如飛”。

SeaTunnel社區非常活躍,當前版本也在快速迭代,加入Apache SeaTunnel社區,當前2.3.x版本還有不少地方在快速變化,也歡迎大家一起來貢獻!

本文由 白鯨開源 提供發佈支持!


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 上一章節主要介紹了RocketMQ基本介紹和前期準備,以及如何創建生產者。那這一章節主要介紹一下消費端的實現、如何發佈消費端,以及遇到的坑怎麼去解決。 ...
  • 本地配置: 1.進入“程式”,然後點“啟用或關閉Windows功能” 2.萬維網服務勾選 伺服器IIS配置: IIS伺服器的搭建 IIS全稱Internet Information Service,中文名:Internet信息服務,專用於微軟操作系統平臺,相容微軟的各項Web技術,尤其是ASP.NE ...
  • 一、 前言 在日程辦公中Java環境搭建已經是非常基礎且重要的一環,許多應用如tomcat、weblogic、zookeeper、kafka、Elasticsearch、hadoop、CDH等等都需要依賴它。 Java環境的搭建也比較簡單,在Linux系統上有兩種方法:一種是直接安裝編譯打包好的軟體 ...
  • 本文旨在探討進程間通信的重要性,並介紹了不同的通信機制,如管道、消息隊列、共用記憶體、信號量、信號和套接字。通過理解這些通信機制的特點和應用場景,可以更好地實現進程間的高效數據共用。同時,本文還強調了同步和互斥機制的重要性,以確保數據的一致性和正確性。最後,還介紹了套接字作為一種跨網路和同一主機上進程... ...
  • 我喜歡Kusto (或商用版本 Azure Data Explorer,簡稱 ADX) 是大家可以有目共睹的,之前還專門寫過這方面的書籍,請參考 [大數據分析新玩法之Kusto寶典](https://kusto.book.xizhang.com), 很可能在今年還會推出第二季,正在醞釀題材和場景中。 ...
  • 一、事務簡介 事務是一組操作的集合,它是一個不可分割的工作單位,事務會把所有操作作為一個整體一起向系統提交或者撤銷操作請求,即這些操作要麼同時成功,要麼同時失敗。mysql的事務預設是自動提交的,也就是說,當執行一條DML語句,Mysql會立即隱式的提交事務 二、事務操作 2.1 查看事務提交方式 ...
  • 8月16-18日,第14屆中國資料庫技術大會 (DTCC2023) 在北京召開。在18日的DTCC2023“大數據平臺架構與應用案例(上)”專場,天翼雲科技有限公司資料庫產品線總監葉小朋分享了天翼雲資料庫在多雲場景下的探索,以及一站式資料庫多雲管理平臺TeleDB-DCP的產品能力和落地實踐。 ...
  • 8月30日,由 NineData 和 SelectDB 共同舉辦的主題為“實時數據驅動,引領企業智能化數據管理”的線上聯合發佈會,圓滿成功舉辦!雙方聚焦於實時數據倉庫技術和數據開發能力,展示如何通過強大的生態開發相容性,對接豐富的大數據生態產品,助力企業快速開展數據分析業務,共同探索實時數據驅動的未... ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...