100003字,帶你解密 雙11、618電商大促場景下的系統架構體系

来源:https://www.cnblogs.com/jiagooushi/archive/2022/06/10/16363137.html
-Advertisement-
Play Games

1 背景與挑戰 1.1 背景介紹 1.1.1 課程概述 瞭解雙11 的歷程 學習當前主流的電商系統架構體系 瞭解大促對電商系統的一些挑戰 面對大促活動,站在架構師角度思考,可能有哪些問題,如何應對 1.1.2 雙11歷程 (最早接觸雙11的年份?) ​ 起於2009年,剛開始的雙十一還並不出名,電商 ...


1 背景與挑戰

1.1 背景介紹

1.1.1 課程概述

  • 瞭解雙11 的歷程
  • 學習當前主流的電商系統架構體系
  • 瞭解大促對電商系統的一些挑戰
  • 面對大促活動,站在架構師角度思考,可能有哪些問題,如何應對

1.1.2 雙11歷程

最早接觸雙11的年份?

​ 起於2009年,剛開始的雙十一還並不出名,電商開展促銷月都是以各自的店慶月作為基礎的。國美線上是4月份,京東6月份,易購8月份,而淘寶商城選擇了雙十一作為促銷月。促銷的初衷是光棍節(11月11日)大家沒事幹,就該買點啥東西去當禮物送人。於是乎,雙11就這樣誕生了。

  • 2009年 銷售額0.52億,27家品牌參與;
  • 2010年 銷售額9.36億,711家品牌參與;
  • 2011年 銷售額33.6億,2200家品牌參與;
  • 2012年 銷售額132億,10000家品牌參與;
  • 2013年 銷售額352億,20000家品牌參與;
  • 2014年 銷售額571億,27000家品牌參與;
  • 2015年 銷售額912億,40000家品牌參與;
  • 2016年 銷售額1207億,98000家品牌參與;
  • 2017年 銷售額1682億,140000家品牌參與;
  • 2018年 銷售額2135億,180000家品牌參與;
  • 截止到2019年11日23時59分59秒 銷售額2684億。

瞭解雙11背景下電商公司的應對措施,有助於提升高訪問量背景下的系統架構知識。

1.2 電商整體架構

1.2.1 概述

​ 從組織架構到技術架構,當前各大電商系統基本趨於中台化。中台在2015由阿裡提出,其實是一種企業架構而不是單純的技術層面,目前幾乎各大電商都進行著中台化的建設。

​ 中台沒有什麼神秘的,說到底,中台就是對 ”共用“ 理念系統化的歸納和總結。

  • 重覆功能建設和維護帶來的重覆投資
  • 煙囪式建設造成系統壁壘,數據孤島
  • 業務沉澱促進可持續發展
  • 大中台小前臺快速響應市場的需要

file

1.2.2 上層業務

​ 即大中台,小前臺的前臺,電商中直面用戶的B2B,B2C等各個業務線。

1.2.3 業務中台

​ 業務中台基於公共服務的沉澱,需要收斂一些基礎的業務服務,如商品、訂單、會員、庫存、財務、結算等等。

1.2.4 數據中台

​ 數據中台不是一個平臺,也不是一個系統。數據倉庫、數據平臺和數據中台是有區別的。簡單的舉例:數據平臺可以理解為資料庫,數據倉庫類比為報表,而數據中台更貼近上層業務,帶著業務屬性。

1.2.5 技術中台

​ 與業務無關的基礎沉澱,中間件,系統框架,監控,日誌,集成部署等等

1.2.6 運維中台

​ 不一定存在,系統運維相關的內容,硬體,機房,包括企業雲平臺的建設等可以劃分為單獨的運維中台

1.3 面臨挑戰

1.3.1 考量維度

根據項目情況有所偏重,例如分散式與一致性是一對矛盾

  • 高性能:提供快速的訪問體驗。
  • 高可用:網站服務7*24正常訪問。
  • 可伸縮:硬體彈性增加/減少能力(快速擴容與釋放)。
  • 擴展性:方便地增加/減少新的功能/模塊(迭代與服務降級)。
  • 安全性:安全訪問和數據加密、安全存儲等策略。
  • 敏捷性:快速應對突發情況的能力(災備等)。

1.3.2 內部瓶頸

  • 木桶效應:水管最細的地方決定流量,水桶最低的地方決定容量(QPS壓測調優為例

  • CPU:序列化和反序列化、複雜運算、大量反射、大量線程的應用

  • 記憶體:使用記憶體的中間件或服務,如redis,memcache,jvm大量對象堆積記憶體的應用等

  • 網路帶寬:大流量高併發環境下,雙11用戶訪問量激增,造成網路擁堵

  • 磁碟IO:文件上傳下載,資料庫頻繁讀寫,不合理或大批量的日誌輸出

  • 資料庫連接數:應對雙11,應用伺服器連接池大批擴容,警惕底層資料庫、Redis等連接數瓶頸

1.3.3 外部服務

  • 簡訊:外部簡訊延遲與送達率問題,可以搭建簡訊平臺,多家渠道做路由和切換分流(讓你設計簡訊平臺,會考慮哪些問題?如何做架構?

  • 支付:銀行支付與回調延遲,搭建支付中心,對接多支付渠道

  • 快遞對接:快遞服務對接(快遞100)

  • 外部雲存儲:雲存儲文件訪問,流量擴容(大家所使用的存儲?nfs的架構與事故

  • CDN:外部靜態文件訪問提速服務(使用過的項目?

2 應對措施

​ 該小節從中台的各個團隊角度,介紹雙11期間的一些應對措施和遇到的問題。

file

2.1 業務中台

2.1.1 訂單中心

1)非同步化

非同步化的目的是什麼?大家使用過的mq?遇到的問題?

場景:

​ 大促期間新增許多需要獲取訂單狀態的服務,比如應對雙11而臨時增加的數據中台訂單大屏展示等

解決:

​ 非同步化,並對消息隊列調優,多隊列分流

問題:

​ 註意非同步化引發的亂序問題,一是傳輸階段,二是消費階段

​ 局部有序與絕對有序

圖解:

rabbitmq傳輸:隊列級別順序保障,單消費者消費一個隊列可以嚴格保障順序性,需要擴充隊列數提升性能

file
kafka傳輸:分區級別順序保障,只能保障投放和傳輸階段的順序性

file

消費階段:1對1消費存在性能問題,接收消息後對key做二次分發,放入多個記憶體隊列,開啟多線程消費

file

2)過期訂單

場景及思考,如果讓你做架構設計有什麼方案?這些方案有什麼優缺點

​ 雙11搶單是最常見的場景,搶單不支付會占據大批量資源,如商品庫存。如何取消過期訂單是架構師必須面對的問題。主要有以下幾種方案:

掃表實現

原理:

​ 通過定時任務輪詢掃描訂單表,超時的批量修改狀態

優點:

  • 實現非常簡單

缺點:

  • 大量數據集,對伺服器記憶體消耗大。

  • 資料庫頻繁查詢,訂單量大的情況下,IO是瓶頸。

  • 存在延遲,間隔短則耗資源,間隔長則時效性差,兩者是一對矛盾。

  • 不易控制,隨著定時業務的增多和細化,每個業務都要對訂單重覆掃描,引發查詢浪費

java延遲隊列實現

原理:

​ 通過DelayQueue,每下一單,放入一個訂單元素並實現getDelay()方法,方法返回該元素距離失效還剩餘的時間,當<=0時元素就失效,就可以從隊列中獲取到。啟用線程池對數據監聽,一旦捕獲失效訂單,取出之後,調用取消邏輯進行處理。(多線程課題案例

file
優點:

  • 基於jvm記憶體,效率高,任務觸發時間延遲低。

缺點:

  • 存在jvm記憶體中,伺服器重啟後,數據全部丟失。
  • 依賴代碼硬編碼,集群擴展麻煩
  • 依賴jvm記憶體,如果訂單量過大,無界隊列內容擴充,容易出現OOM
  • 需要代碼實現,多線程處理業務,複雜度較高
  • 多線程處理時,數據頻繁觸發等待和喚醒,多了無謂的競爭

消息隊列實現

原理:

​ 設置兩個隊列,每下一單放一條進延遲隊列,設定過期時間。消息一旦過期,獲取並放入工作隊列,由consumer獲取,喚起超時處理邏輯

file
​ 如果採用的是RabbitMQ,其本身沒有直接支持延遲隊列功能,可以針對Queue和Message設置 x-message-ttl,用消息的生存時間,和死信隊列來實現,具體有兩種手段, A: 通過隊列屬性設置,隊列中所有消息都有相同的過期時間,粗粒度,編碼簡單 B: 對消息進行單獨設置,每條消息TTL可以不同,細粒度,但編碼稍微複雜。

優點:

  • 消息存儲在mq中,不占用應用伺服器資源

  • 非同步化處理,一旦處理能力不足,consumer集群可以很方便的擴容

缺點:

  • 可能會導致消息大量堆積
  • mq伺服器一旦故障重啟後,持久化的隊列過期時間會被重新計算,造成精度不足
  • 死信消息可能會導致監控系統頻繁預警

redis實現

原理:

​ 利用redis的notify-keyspace-events,該選項預設為空,改為Ex開啟過期事件,配置消息監聽。每下一單在redis中放置一個key(如訂單id),並設置過期時間。

優點:

  • 消息都存儲在Redis中,不占用應用記憶體。
  • 外部redis存儲,應用down機不會丟失數據。
  • 做集群擴展相當方便
  • 依賴redis超時,時間準確度高

缺點:

  • 訂單量大時,每一單都要存儲redis記憶體,需要大量redis伺服器資源

被動取消

原理:

​ 在每次用戶查詢訂單的時候,判斷訂單時間,超時則同時完成訂單取消業務。

優點:

  • 實現極其簡單
  • 不會有額外的性能付出
  • 不依賴任何外部中間件,只是應用邏輯的處理

缺點:

  • 延遲度不可控,如果用戶一直沒觸發查詢,則訂單一直掛著,既不支付也未取消,庫存也就被占著

2.1.2 支付中心

支付交互流程,支付系統設計偏重,關於做過的那些支付系統2014與2018的架構變化,政策的變動經歷。

file

1)重覆支付

2018重覆支付事故

原因:

​ 在第一步發起的時候,用戶進入支付方式選擇頁。選第一個支付方式並支付完後因為通知延遲,以為支付失敗。在支付又選了第二種,再次支付。

應對方案:

​ 程式屏蔽,前端js觸發按鈕置灰或者遮罩提示(支付成功?遇到問題?),或者在支付方式選擇頁直接跳轉。

​ 後端處理,發現不同通道下的支付成功回調,拋消息隊列或記錄日誌。

數據修複:

​ 首先查支付日誌,確認針對同一筆訂單收到了不同支付渠道的回調。

​ 其次,在支付平臺管理後端可以查到入賬記錄,人工介入。

​ 最後對賬階段會發現對方多帳,我方補單時出現重覆訂單。

問題處理:

​ 調取退款介面或者在支付渠道的管理後臺操作退款(一定要多次確認無誤)。

2)異常訂單

支付但未開單

場景:

​ 用戶明明支付成功,但未開通訂單

問題分析:

​ 一般支付渠道會間隔性多次回調開單鏈接,如果支付未開單,銀行未回調的可能性比較小,著重排查開單介面是否可用。如果可用追查日誌是否出現異常記錄。

應對措施:

  • 對賬階段可以查漏,程式自動完成補單,但是處理相對延遲,取決於支付渠道的對賬文件下發周期(2011-2013年,支付測試數據與財務人工對賬的歷程

  • 人工補單,人工查詢支付渠道後臺數據,確認已支付的情況下,介入補單流程人工處理

未支付但已開單

場景:

​ 用戶未支付,或者財務中心未收到這筆款項,訂單狀態已開通。這種就問題比較嚴重了

應對措施:

​ 首先排除人為操作因素。其次排查系統是否存在漏洞或者級聯開單的情況(支付中心測試環境數據回調造成線上意外開單經歷

3)回調延遲

場景:

​ 用戶是期望支付完成的同時立馬看到結果。但是中間多層遠程的調用,可能發生訂單狀態更新延遲問題。

解決:

​ 主動查詢。在用戶查看訂單的時候,如果是類似“支付中”的中間態時,觸發遠程訂單狀態查詢介面。(大家看到的點擊“支付完成”跳轉的過程,觸發遠程支付結果查詢

4)支付路由

你所看到的收銀台圖標內情...

背景:

​ 保障支付可用性及支付分流,支付中心對接多家渠道

方案:

  • 支付中心對接多個支付渠道,支付寶,微信,各銀行或第三方支付供應商。
  • 對不同用戶,進入支付方式選擇頁時,做支付分流。
  • 做好監控統計,一旦某個支付渠道不可用或者延遲較大,切掉,下線,或者降權。

2.1.3 營銷中心

1)概述

​ 大促和活動不分家,一般營銷中心所面對的主要是促銷策略、優惠方式等業務上的架構問題。

​ 從促銷活動的範圍來看,分為單品促銷活動、套裝促銷活動、店鋪促銷活動,平臺促銷活動。

​ 從促銷類型來看,分為滿減、折扣、贈品等。

​ 業務複雜度高,一般遵循 “同類營銷僅可選其一,不同類營銷可疊加” 的規則。同類疊加意義不大且會造成系統複雜度上升,引發用戶困惑。

2)前端設計

​ 用戶體驗上的設計,比如購物車裡商品的排序,按商鋪分門別類。優惠總價格及時調整。這些依賴於前端的ui設計和交互體驗。

3)贈品設計

(SPU , SKU 基礎概念,如何設計表結構?京東怎麼做的)

​ 贈品有兩種設計方案,一種是不做單獨的SKU,只有一個空的描述,設計簡單,缺點是沒有商品詳情頁,無法給用戶直觀的查看和估值。

​ 另一種是單獨做SKU,贈品也會作為一個商品存在,與主商品關聯,下單的時候將會自動加到商品列表,價格降為0。這種更為常見。整個商品有完善的詳情頁,用戶可以直接看到價格甚至單獨下單購買。

4)排他與優先順序

​ 檢查同類別促銷,將最大優惠力度的規則應用到訂單,並且滿足排他性,同類只享受其一。比如滿10減3,滿20減5,那麼用戶購買大於20時,只減5即可。

​ 不同類別不做排斥,如購物車整體滿減後,不影響單個商品的折扣。在記錄數據時,優惠要細化到每個單獨的訂單明細上。退款也做到明細級別的單獨退。

5)價格分攤

有沒有遇到精度問題?價格欄位如何設計?

​ 滿減或平臺券等優惠,在多個商品下單時,涉及到金額的分攤。即 優惠總額度/購物車總額 ,得到比例後再按比例均分到每個商品。只有分攤才能在發生部分退款時退回真實金額。

​ 但是這會涉及到一個精度問題。舉例如下:滿99減9活動,假設用戶購買了 30+40+50=120,3件商品應付111元。按比例折算的話,9/99取4位小數是0.9090,那麼分攤後為 30x0.9090+40x0.9090+50x0.9090=109.08與實際支付金額出現偏差。這會造成財務無法平賬。

​ 解決方案:記賬時在訂單明細記錄,將誤差 111-109.08=1.92計入金額最大的明細,也就是50元商品上。那麼最終記賬為:30x0.9090 + 40x0.9090 +(50*0.909+1.92)= 111

6)退單處理

​ 退單後要同時恢復用戶的權益,比如優惠券的再次使用,限購次數等。確保用戶體驗。

2.1.4 商品中心

1)限時商品的下架控制

​ 這個和超時訂單設計方案類似,前面已經提到不再贅述。

2)庫存管理

​ 普通商品可以直接藉助資料庫鎖實現,一般分樂觀鎖和悲觀鎖兩種方案,如果採用悲觀鎖(如select語句帶forupdate),會帶來很大的性能阻塞,所以更多的採用樂觀鎖設計。(冪等性課題的鎖機制有詳細講解

​ 樂觀鎖就是在最後執行庫存扣減操作時,將事務開始前獲取的庫存數量帶入到SQL語句中作為更新的where條件,如果數量相等,則該條更新庫存的語句成功執行返回update條數為1;如果不相等,則表示該商品的庫存信息已經被其他事務修改,需要放棄該條update的執行,採用重試處理。

​ 庫存秒殺商品因為大批量的訪問在一瞬間涌入,資料庫扛不住。可以採用 redis緩存做decr處理,正常下單後,再使用mq非同步更新到db。(秒殺不超賣課題的庫存控制

2.2 技術中台

2.2.1 資料庫優化

​ 資料庫層的調優,一般發生在大促前的預備階段,一旦大促開始,對資料庫的優化已經來不及了。

  • 在大促開始前梳理耗時查詢業務,對關鍵業務壓測。

  • 開啟mysql的慢查詢日誌(兩種方式)

    #配置文件方式,需要重啟mysql
    #日誌文件位置
    log-slow-queries=/opt/data/slowquery.log
    #超時時間,預設10s
    long_query_time=2
    
    #臨時開啟,不需要重啟
    set global slow_query_log=on;
    set global long_query_time=10;
    set global slow_query_log_file=‘/opt/data/slow_query.log’
    
  • 使用mysqldumpslow命令解析mysql慢查詢日誌

    -- 慢查詢日誌以文本打開,可讀性很高
    -- 查詢次數,耗時,鎖時間,返回結果集條數(掃描行數),執行者
    Count: 1  Time=10.91s (10s)  Lock=0.00s (0s)  Rows=1000.0 (1000), mysql[mysql]@[10.1.1.1]
    SELECT * FROM order_history
    
  • 藉助explain查看sql執行計劃,對sql調優,或其他優化工具。

2.2.2 緩存優化

業務篇紅包雨課題里有緩存結構的深度應用

1) 策略

熱點數據預熱:

常規載入機制畫圖展示

​ 常規緩存設計趨向於懶載入,大促期間的熱點數據儘量做到預熱載入。比如某個促銷專題,不要等待活動開始的一瞬間再讀庫加緩存,搞不好引發擊穿。

細粒度設計:

細粒度緩存結構畫圖展示

​ 集合與單體分開存儲,緩存結構細粒度化。如某個櫥窗的推薦商品列表,常規存儲一個key,value為整個商品集合。優化為列表與每個商品詳細信息設置兩個獨立緩存值,在查詢環節組裝,可以降低發生修改時對緩存的衝擊。新增一個推薦則失效列表,修改商品則僅僅失效當前商品緩存。

可用性:

回顧三種緩存問題

  • 只要緩存失效時間設置分散,雪崩的可能性不大

  • 防範惡意攻擊引發穿透,前端做到防刷,業務層面要註意合法性校驗,非法key的失效時間需要評估。

  • 擊穿可能性升高,大促高併發下,修改時,如果採用key刪除策略很可能觸發擊穿,修改少可以優化為雙寫。

2)多級緩存

​ 優化緩存體系,對關鍵業務請求,如商品詳情頁,採用多級緩存處理

file
​ 首先看瀏覽器緩存,一般瀏覽器緩存可分為兩種手段,分別交給瀏覽器和服務端執行

file

  • 客戶端判決:為請求Header設置Expires(http1.0) 和 Cache-Control(http1.1),客戶端本地比較決定是否使用緩存

  • 服務端判決:藉助Last-Modified/If-Modified-Since(http1.0)或ETag/If-None-Match,伺服器端比較決定返回200帶body還是304僅有head頭 (畫圖展示)

  • Last-Modified < ETag < Expires < Cache-Control

​ CDN:藉助CDN的dns解析,對用戶做ip分流,CDN作為應用伺服器的代理,抵擋前端的流量洪峰。同樣,前面提到的http緩存策略對CDN依然有效。

​ nginx緩存:nginx除了作為負載均衡,也可以作為請求級別的緩存,一段典型配置如下:

  proxy_cache_path 緩存文件路徑

  levels 設置緩存文件目錄層次;levels=2:2:2 表示三級目錄,每級用2位16進位數命名

  keys_zone 設置緩存名字和共用記憶體大小

  inactive 在指定時間內沒人訪問則被刪除

  max_size 最大緩存空間,如果緩存空間滿,預設覆蓋掉緩存時間最長的資源。

    # 定義緩存路徑、過期時間、空間大小等
    proxy_cache_path  /tmp/nginx/cache levels=2:2:2 use_temp_path=off keys_zone=my_cache:10m inactive=1h max_size=1g;

    server {
        listen       80;
        server_name  xxx.xxx.com;
        # 添加header頭,緩存狀態信息
        add_header X-Cache-Status $upstream_cache_status;

        location / {
                # 定義緩存名
                proxy_cache my_cache;
                # 定義緩存key
                proxy_cache_key $host$uri$is_args$args;
                # 針對返回狀態碼單獨定義緩存時間
                proxy_cache_valid 200 304 10m;
                # url 上設置請求 nocache=true 時不走緩存。
                proxy_cache_bypass $arg_nocache $http_nocahe;

                proxy_pass http://localhost:8080;
        }
    }

​ 分散式緩存:redis做應用層緩存,不多解釋。但是要註意做好擴容預案和業務層優化

  • 依據預估量做相應的擴容或資源申請,純做緩存時可以關閉持久化,記憶體超出60%將變得不穩定。
  • 頻繁交互業務從java端下移到lua腳本實現,一方面可以實現原子性,另一方面有效減少網路延時和數據的冗餘傳輸。以平臺優惠券領取為例:(搶紅包介面課題有涉及

file

2.2.3 分流與限流

演算法與數據結構應用 - 限流演算法有詳細實現

​ CDN的引入本身起到了按ip分流的作用,但是我們可以在下層做到更細粒度化的控制。根據業務情況將不同的請求分流到各自的伺服器。

​ 限流不同與分流,是對下層的保護,當系統超過一定流量後,超過的流量做直接拒絕處理,以便保護後端的服務,原則就是要麼不進來,進來的都正常服務。常見的限流演算法有三種:計數器(滑動視窗)、漏桶、令牌桶。

file

file

1) 業務分流

​ 根據不同的業務線分發請求,配備二級功能變數名稱如b2b.xxx.com,b2c.xxx.com,或者在nginx軟負載層針對不同虛擬主機名做upstream分發

​ 新上的雙11活動頁,或者促銷專題頁面,採用新訪問入口和機器部署,與主站分離。活動結束後也利於機器資源的快速釋放(有沒有遇到臨時性需求的場景?上線就用1天

2) 終端分流

​ 按不同的請求終端分流,在header頭的user-agent中可以捕獲用戶的訪問終端。android,ios,pc,根據不同終端設備,做流量分發,到不同的應用機器。同時方便對用戶終端流量的監控和統計。

3)nginx限流

​ 評估雙11可能的流量,結合具體業務模塊,配備對應限流措施。主要有流量限制和連接數限制兩個維度。

​ 流量限制:限制訪問頻率,其目的是基於漏桶演算法實現ip級別的防刷。Nginx中使用 ngx_http_limit_req_module 模塊來限制請求的訪問頻率,基於漏桶演算法原理實現。

#$binary_remote_addr 表示通過remote_addr這個標識來做限制
#binary_的目的是縮寫記憶體占用量,是限制同一客戶端ip地址
#zone=one:10m表示生成一個大小為10M,名字為one的記憶體區域,用來存儲訪問的頻次信息
#rate=1r/s表示允許相同標識的客戶端的訪問頻次
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
 
server {
    location /b2b/ {
    #zone=one 設置使用哪個配置區域來做限制,與上面limit_req_zone 里的name對應
    #burst=5,設置一個大小為5的緩衝區,當有大量請求時,超過了訪問頻次限制的請求可以先放到這個緩衝區內
    #nodelay,如果設置,超過訪問頻次而且緩衝區也滿了的時候就會直接返回503,如果沒有設置,則所有請求會等待排隊
    limit_req zone=one burst=5 nodelay;
    }
}

​ 連接數限制:Nginx 的 ngx_http_limit_conn_module模塊提供了對資源連接數進行限制的功能。(同一個出口ip,如公司內部共用一個出口ip,可能會被整體限制

#$binary_remote_addr同上
limit_conn_zone $binary_remote_addr zone=addr:10m;
server {
    location /b2b/ {
        # 限制每個ip下最大隻能有一個連接
        limit_conn addr 1;
    }
}

4)網關限流

​ 從代理伺服器放進來的流量,會進入應用伺服器,第一道關卡是微服務的網關。應對大促,針對各個微服務具體業務具體分析,配備對應限流措施。zuul和gateway是團隊中最常遇到的網關組件。

zuul.routes.userinfo.path=/user/**
zuul.routes.userinfo.serviceId=user-service
zuul.ratelimit.enabled=true
zuul.ratelimit.policies.userinfo.limit=3
zuul.ratelimit.policies.userinfo.refresh-interval=60
zuul.ratelimit.policies.userinfo.type=origin
routes:
        - id: user_route
          uri: http://localhost:8080
          predicates:
            - Path=/*
          filters:
            - name: RequestRateLimiter
              args:
                redis-rate-limiter.replenishRate: 1
                redis-rate-limiter.burstCapacity: 1
                key-resolver: "#{@ipKeyResolver}

2.2.4 服務降級

​ 當伺服器壓力劇增的情況下,根據實際業務情況及流量,對一些服務和頁面有策略的不處理或換種簡單的方式處理,從而釋放伺服器資源以保證核心交易正常運作或高效運作。是一種捨車保帥的策略。

​ 比如平時客戶來我的店鋪購買衣服。平時可以試穿,給出建議,幫助搭配,最後下單支付,送用戶祝福卡片等。雙11大促則簡單粗暴響應下單支付收錢發貨。其他不太重要的服務關閉開關,騰出資源讓位主交易流程。

​ 服務降級可以從前端頁面,後端微服務兩個點著手。

1)頁面降級

​ 很好理解,針對頁面元素處理,將不重要的操作入口置灰或屏蔽。平時調用後端介面實時呈現數據的地方替換為靜態頁也可以理解為一種降級操作。

2)微服務降級

​ 配置介面開關,並通過配置中心可以靈活開閉。必要時關閉開關,屏蔽介面的實際查詢,直接返回mock數據。例如,購買了本商品的用戶還購買過哪些商品介面,在業務上需要調用數據中台訂單統計服務,訪問量大時,關閉對外調用,直接返回設置好的一批相關商品,起到降級保護作用。

3)快速熔斷

​ 快速熔斷可以認為是在應對突發情況時,對服務請求結果準確性的一種妥協。避免因單一服務垮臺導致整個調用鏈路崩潰。常用手段如下:

  • 拋異常:這種處理需要上層配備異常處理機制,在捕獲異常時,導向錯誤頁、等待頁或稍後重試等。

  • 返回NULL:簡單粗暴,可能會出現空白結果,並不友好。

  • 調用Fallback處理邏輯:更人性化的手段,也最常用。為每個業務配備一個備選方案。

​ 舉個例子:商品頁或訂單詳情頁面,一般都會有猜你喜歡這個模塊,通過對用戶的購買行為、瀏覽記錄、收藏記錄等等進行大數據分析,然後給每一個用戶推送自己可能喜歡的商品。在雙11大促背景下,如果推薦服務壓力過大,出現服務出錯、網路延遲等等之類突發情況,導致最後調用服務失敗,則可以配備一個fallback,直接返回當前商品同類別下的幾款商品,作為備選方案,這比拋異常或者返回null空白頁面體驗要更優。

2.2.5 安全性

​ 大促前做好安全防範。常見的DDos,Arp,腳本等攻擊平時也會存在,日常防範已經配備。大促期間需要註意的可能更多的是業務層面的入侵,比如搶購或秒殺時的惡意刷介面。

  • 實名制,限制單用戶,單ip等維度下的頻次
  • 必要的地方添加驗證碼(圖片複雜度升級,或滑塊等新型方式)
  • 黑名單機制,一旦發現惡意行為,列入黑名單,並自動維護

2.3 運維中台

2.3.1 做好災備

2018從一次斷電看災備的背景與經歷,30分鐘以內

​ 災備是應對大型故障的保底措施,最好的結局是永遠不要觸發,但是大促前需要做好災備切換演練,可以選擇大促前用戶量少的時間段進行:

1)前期準備:兩地災備程式同步維護,大促相關的迭代和活動專題上線確保兩地測試ok,鏡像版本統一

2)資料庫配置兩地主從,或雙主單寫。切換前做好數據同步性檢查

3)啟用腳本,切換代理伺服器,代理流量轉入災備機房,正式環境還需要處理dns指向

4)分散式文件災備日常採用rsync等實時同步,採用雲存儲的可以忽略

5)es索引等其他數據確保日常同步

6)註意掛好維護頁,友好提示

7)配備自動化測試腳本以便快速驗證切換結果

2.3.2 配備監控

1)基礎設施監控

​ 包括物理機、Docker 容器、以及對交換機、IP 進行監控 (容器課題

​ 藉助zabbix等開源軟體對機器資源配置監控,如果採用雲化部署,各大雲供應商都會配備完善的監控機制

2)應用級監控

​ 主動監控,日誌或消息隊列形式打點輸出,定時彙報 (日誌平臺追蹤課題

​ 被動監控,添加監控介面,監控系統定時請求確認可用性

3)業務監控

​ 對具體業務點做監控處理,如訂單量、登錄量、註冊量、某些頁面的訪問量等關鍵點採用非同步消息方式推送到監控中心,監控中心針對特定隊列的數據做統計和展示。

4)客服一線反饋

​ 主動監控依然無法察覺的情況下,來自客服的一線反饋成為最後關卡。優先順序也最高。開發故障快速響應平臺,做到實時性保障。做到客服 - 業務線 - 產品 - 技術排查的及時響應,快速排查。

2.3.3 資源盤點

1)網路設施擴容

​ 網路帶寬是影響訪問流量的重要因素,做好各個機房網路帶寬預估,數據在兩地機房間傳輸並且要求低延遲的場景,如資料庫主從,可以考慮機房專線。使用公有雲的服務,可以購買臨時流量。

2)硬體資源盤點

​ 對容量做預估和硬體資源盤點。配合大促期間不同服務的架構設計,以及項目本身的特性,對cpu,記憶體做評估。偏運算的項目,重度使用多線程的項目偏cpu,需要大量對象或集合處理的項目偏記憶體。

3)容器盤點

​ 所有項目容器化部署,基於鏡像即版本理念,打好各個服務的鏡像是docker快速複製擴容的基礎。大促前對各個中心微服務做統計和盤點。

​ 藉助swarm和k8s等編排工具,快速實現容器的伸縮。 (運維篇會講到

2.4 數據中台

​ 數據中台多為大數據相關架構體系,大促期間,同樣可能面臨大批數據洪峰,比如訂單量激增、用戶行為數據暴漲等場景。簡單看一下可能需要做的一些應對。(大屏實時計算課題

file

2.4.1 數據通道

​ 對數據傳輸通道擴容,比如kafka擴大分區數,rabbitmq增加細分隊列。一方面實現了擴容,另一方面在傳輸的起始階段就對數據做了一定的分類。

​ 數據降級,關閉某些非核心數據的通道採集,讓位網路帶寬給核心業務數據。

2.4.2 數據展示

​ 數據大屏開發。對實時性有一定要求,多採用流式運算。

file

2.5 其他準備

2.5.1 流量預估

​ 對關鍵業務的體量做好預估。如用戶的註冊、下單量、首頁,商品詳情頁等關鍵頁面的qps,為壓測提供參考指標。

2.5.2 資源預估

​ 架構師統計各中心服務關係,對各個服務擴容做預估,彙總。

2.5.3 壓測準備

全鏈路壓測課題

1)線下壓測

大家當前使用的環境都有哪些?上線模式是什麼樣的

​ 當前成熟系統都具備各種環境,開發環境、測試環境、準生產環境等,對線下可以選擇準生產環境做為壓測,模擬線上。

​ 線下壓測數據安全,不必擔心對線上造成干擾。所壓測的值可以用於相對性比較,比如其中全鏈路的某個環境哪個是瓶頸。但是無法精準反饋線上的真實場景。

2)線上壓測(謹慎!)

​ 重點看線上壓測,線上壓測壓出的數據是最真實有效的。但是因為使用的是生產環境,操作不當可能引發災難性後果。

file
​ 1)在全鏈路壓測環境下,服務調用關係錯綜複雜,最重要的是實現壓測流量的標識,以及標識在服務上下文間如何有效傳遞不丟失。服務內藉助threadlocal,但是要註意多線程下失效。服務間通過改寫遠程調用框架或藉助框架提供的Context設置。(分散式日誌平臺,訪問鏈路追蹤課題

​ 2)數據隔離,資料庫可以創建影子表,redis等緩存可以設置shadow_等首碼,從開發框架層面封裝處理,對數據層持久化框架做二次開發,使其自動發現壓測數據。

​ 3)外部服務可以藉助服務降級功能,添加開關判斷屬於壓測流量時開關進入降級或mock,比如收銀程式添加擋板,直接返回成功,簡訊應用直接預設一個簡訊號碼。

​ 4)日誌列印需要隔離,可以藉助分散式日誌平臺收集時採用不同的輸出通道和隊列。

​ 5)壓測數據最好的方式是流量克隆(TCPCopy工具等),將線上的實際訪問請求克隆放大幾倍加壓到壓測入口,如果實現不了,儘量模擬線上的真實數據結構和體量。

​ 5)做好全壓流量規劃,按預估2~3倍加壓,確定流量比例,打壓。

2.5.4 人員配備

​ 人員互備,防止故障,及時響應,應對雙11不是什麼神秘事。

任務

  • 梳理課題中自己不太熟的知識點
  • 在日常項目中多換位思考,換成我如何設計,有什麼問題。
  • 多歸納總結,在設計中參考下架構思想

本文由傳智教育博學谷 - 狂野架構師教研團隊發佈
轉載請註明出處!


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 變數(variable)可以理解成一塊記憶體區域,通過變數名,可以引用這塊記憶體區域,獲取裡面存儲的值。 變數名 標識符(identifier)命名有嚴格的規範。 只能由字母、數字和下劃線(_)組成。 不能以數字開頭。 長度不能超過63個字元。 不能使用關鍵字和保留字。 auto, break, cas ...
  • 1、從規範角度分析,一般是禁止使用C++的異常機制的。 2、要求所有的錯誤都應該通過錯誤值在函數間傳遞病做相應的判斷,而不應該通過異常機制進行錯誤處理。 3、編碼人員必須完全掌控自己的整個編碼過程,要有攻擊者思維,主動把握有可能出錯的環節,儘可能的分析出程式的所有異常,增強安全編碼意識。 4、使用c ...
  • ​ 1,建一個表 create table 表名( 屬性a 類型 限制, 屬性b 類型 限制 ) ​編輯 2,向表裡添加數據 insert into Tset(屬性a,屬性b) values(a的數據,b的數據) 給屬性a,屬性b添加數據 insert into Tset values(a的數據,b ...
  • 排序演算法總結 1.十大經典演算法及性能 2.具體排序演算法 1.冒泡排序 迴圈過程中比較相鄰兩個數大小,通過交換正確排位,迴圈整個數組即可完成排序 圖片演示 代碼實現Java //冒泡排序 public static Integer[] Bubble(Integer[] array){ boolean ...
  • 前言 不知道有沒有小伙伴跟我一樣,每次刷抖音都不想動手,好希望能夠有什麼東西代替我的手指,我給它一個命令,它就明白我要什麼。於 是,我利用空閑時間操作了一下,終於用Python把自動刷抖音給搞出來了,這下真的是解決了我長久以來的困擾… 工具準備 1.Python3.7.7 2.adb(Android ...
  • 我們知道 Python 有很多運算符可以進行數學運算,如果是簡單的問題還好說,但是要處理一些相對複雜的問題也要我們自己一行一行手動的來編寫嗎?答案當然不是,Python 提供了 math 模塊對一些數學運算提供了支持。 1.簡介 math 模塊提供了對 C 標准定義的數學函數的訪問,但該模塊並不支持 ...
  • Skywalking介紹 Skywalking是一個國產的開源框架,2015年有吳晟個人開源,2017年加入Apache孵化器,國人開源的產品,主要開發人員來自於華為,2019年4月17日Apache董事會批准SkyWalking成為頂級項目,支持Java、.Net、NodeJs等探針,數據存儲支持 ...
  • 面試總結 最近棧長面試了一個 5 年經驗的 Java 程式員,簡歷和個人介紹都提到了精通 Java 多線程,於是我就問了幾個多線程方面的問題: 1、實現多線程有哪幾種方式,如何返回結果? 2、多個線程如何實現順序訪問? 3、兩個線程如何進行數據交換? 4、如何統計 5 個線程的運行總耗時? 5、如何 ...
一周排行
    -Advertisement-
    Play Games
  • GoF之工廠模式 @目錄GoF之工廠模式每博一文案1. 簡單說明“23種設計模式”1.2 介紹工廠模式的三種形態1.3 簡單工廠模式(靜態工廠模式)1.3.1 簡單工廠模式的優缺點:1.4 工廠方法模式1.4.1 工廠方法模式的優缺點:1.5 抽象工廠模式1.6 抽象工廠模式的優缺點:2. 總結:3 ...
  • 新改進提供的Taurus Rpc 功能,可以簡化微服務間的調用,同時可以不用再手動輸出模塊名稱,或調用路徑,包括負載均衡,這一切,由框架實現並提供了。新的Taurus Rpc 功能,將使得服務間的調用,更加輕鬆、簡約、高效。 ...
  • 本章將和大家分享ES的數據同步方案和ES集群相關知識。廢話不多說,下麵我們直接進入主題。 一、ES數據同步 1、數據同步問題 Elasticsearch中的酒店數據來自於mysql資料庫,因此mysql數據發生改變時,Elasticsearch也必須跟著改變,這個就是Elasticsearch與my ...
  • 引言 在我們之前的文章中介紹過使用Bogus生成模擬測試數據,今天來講解一下功能更加強大自動生成測試數據的工具的庫"AutoFixture"。 什麼是AutoFixture? AutoFixture 是一個針對 .NET 的開源庫,旨在最大程度地減少單元測試中的“安排(Arrange)”階段,以提高 ...
  • 經過前面幾個部分學習,相信學過的同學已經能夠掌握 .NET Emit 這種中間語言,並能使得它來編寫一些應用,以提高程式的性能。隨著 IL 指令篇的結束,本系列也已經接近尾聲,在這接近結束的最後,會提供幾個可供直接使用的示例,以供大伙分析或使用在項目中。 ...
  • 當從不同來源導入Excel數據時,可能存在重覆的記錄。為了確保數據的準確性,通常需要刪除這些重覆的行。手動查找並刪除可能會非常耗費時間,而通過編程腳本則可以實現在短時間內處理大量數據。本文將提供一個使用C# 快速查找並刪除Excel重覆項的免費解決方案。 以下是實現步驟: 1. 首先安裝免費.NET ...
  • C++ 異常處理 C++ 異常處理機制允許程式在運行時處理錯誤或意外情況。它提供了捕獲和處理錯誤的一種結構化方式,使程式更加健壯和可靠。 異常處理的基本概念: 異常: 程式在運行時發生的錯誤或意外情況。 拋出異常: 使用 throw 關鍵字將異常傳遞給調用堆棧。 捕獲異常: 使用 try-catch ...
  • 優秀且經驗豐富的Java開發人員的特征之一是對API的廣泛瞭解,包括JDK和第三方庫。 我花了很多時間來學習API,尤其是在閱讀了Effective Java 3rd Edition之後 ,Joshua Bloch建議在Java 3rd Edition中使用現有的API進行開發,而不是為常見的東西編 ...
  • 框架 · 使用laravel框架,原因:tp的框架路由和orm沒有laravel好用 · 使用強制路由,方便介面多時,分多版本,分文件夾等操作 介面 · 介面開發註意欄位類型,欄位是int,查詢成功失敗都要返回int(對接java等強類型語言方便) · 查詢介面用GET、其他用POST 代碼 · 所 ...
  • 正文 下午找企業的人去鎮上做貸後。 車上聽同事跟那個司機對罵,火星子都快出來了。司機跟那同事更熟一些,連我在內一共就三個人,同事那一手指桑罵槐給我都聽愣了。司機也是老社會人了,馬上聽出來了,為那個無辜的企業經辦人辯護,實際上是為自己辯護。 “這個事情你不能怪企業。”“但他們總不能讓銀行的人全權負責, ...