微服務網關作為微服務後端服務的統一入口,它可以統籌管理後端服務,主要分為數據平面和控制平面: 數據平面主要功能是接入用戶的HTTP請求和微服務被拆分後的聚合。使用微服務網關統一對外暴露後端服務的API和契約,路由和過濾功能正是網關的核心能力模塊。另外,微服務網關可以實現攔截機制和專註跨橫切麵的功能... ...
1 API網關基礎
1.1 什麼是API網關
API網關是一個伺服器,是系統的唯一入口。 從面向對象設計的角度看,它與外觀模式類似。
API網關封裝了系統內部架構,為每個客戶端提供一個定製的API。它可能還具有其它職責,如身份驗證、監控、負載均衡、緩存、協議轉換、限流熔斷、靜態響應處理。
API網關方式的核心要點是,所有的客戶端和消費端都通過統一的網關接入微服務,在網關層處理所有的非業務功能。通常,網關也是提供REST/HTTP的訪問API。
1.2 網關的主要功能
微服務網關作為微服務後端服務的統一入口,它可以統籌管理後端服務,主要分為數據平面和控制平面:
-
數據平面主要功能是接入用戶的HTTP請求和微服務被拆分後的聚合。使用微服務網關統一對外暴露後端服務的API和契約,路由和過濾功能正是網關的核心能力模塊。另外,微服務網關可以實現攔截機制和專註跨橫切麵的功能,包括協議轉換、安全認證、熔斷限流、灰度發佈、日誌管理、流量監控等。 -
控制平面主要功能是對後端服務做統一的管控和配置管理。例如,可以控制網關的彈性伸縮;可以統一下發配置;可以對網關服務添加標簽;可以在微服務網關上通過配置Swagger功能統一將後端服務的API契約暴露給使用方,完成文檔服務,提高工作效率和降低溝通成本。
-
路由功能:路由是微服務網關的核心能力。通過路由功能微服務網關可以將請求轉發到目標微服務。在微服務架構中,網關可以結合註冊中心的動態服務發現,實現對後端服務的發現,調用方只需要知道網關對外暴露的服務API就可以透明地訪問後端微服務。 -
負載均衡:API網關結合負載均衡技術,利用Eureka或者Consul等服務發現工具,通過輪詢、指定權重、IP地址哈希等機制實現下游服務的負載均衡。 -
統一鑒權:一般而言,無論對內網還是外網的介面都需要做用戶身份認證,而用戶認證在一些規模較大的系統中都會採用統一的單點登錄(Single Sign On)系統,如果每個微服務都要對接單點登錄系統,那麼顯然比較浪費資源且開發效率低。API網關是統一管理安全性的絕佳場所,可以將認證的部分抽取到網關層,微服務系統無須關註認證的邏輯,只關註自身業務即可。 -
協議轉換:API網關的一大作用在於構建異構系統,API網關作為單一入口,通過協議轉換整合後臺基於REST、AMQP、Dubbo等不同風格和實現技術的微服務,面向Web Mobile、開放平臺等特定客戶端提供統一服務。 -
指標監控:網關可以統計後端服務的請求次數,並且可以實時地更新當前的流量健康狀態,可以對URL粒度的服務進行延遲統計,也可以使用Hystrix Dashboard查看後端服務的流量狀態及是否有熔斷發生。 -
限流熔斷:在某些場景下需要控制客戶端的訪問次數和訪問頻率,一些高併發系統有時還會有限流的需求。在網關上可以配置一個閾值,當請求數超過閾值時就直接返回錯誤而不繼續訪問後臺服務。當出現流量洪峰或者後端服務出現延遲或故障時,網關能夠主動進行熔斷,保護後端服務,並保持前端用戶體驗良好。 -
黑白名單:微服務網關可以使用系統黑名單,過濾HTTP請求特征,攔截異常客戶端的請求,例如DDoS攻擊等侵蝕帶寬或資源迫使服務中斷等行為,可以在網關層面進行攔截過濾。比較常見的攔截策略是根據IP地址增加黑名單。在存在鑒權管理的路由服務中可以通過設置白名單跳過鑒權管理而直接訪問後端服務資源。 -
灰度發佈:微服務網關可以根據HTTP請求中的特殊標記和後端服務列表元數據標識進行流量控制,實現在用戶無感知的情況下完成灰度發佈。 -
流量染色:和灰度發佈的原理相似,網關可以根據HTTP請求的Host、Head、Agent等標識對請求進行染色,有了網關的流量染色功能,我們可以對服務後續的調用鏈路進行跟蹤,對服務延遲及服務運行狀況進行進一步的鏈路分析。 -
文檔中心:網關結合Swagger,可以將後端的微服務暴露給網關,網關作為統一的入口給介面的使用方提供查看後端服務的API規範,不需要知道每一個後端微服務的Swagger地址,這樣網關起到了對後端API聚合的效果。 -
日誌審計:微服務網關可以作為統一的日誌記錄和收集器,對服務URL粒度的日誌請求信息和響應信息進行攔截。
2 API網關選型
2.1 常用API網關
先簡單看一下市面上常用的API網關:
Nginx
Nginx是一個高性能的HTTP和反向代理伺服器。Nginx一方面可以做反向代理,另外一方面可以做靜態資源伺服器,介面使用Lua動態語言可以完成靈活的定製功能。
Nginx 在啟動後,會有一個 Master 進程和多個 Worker 進程,Master 進程和 Worker 進程之間是通過進程間通信進行交互的,如圖所示。Worker 工作進程的阻塞點是在像 select()、epoll_wait() 等這樣的 I/O 多路復用函數調用處,以等待發生數據可讀 / 寫事件。Nginx 採用了非同步非阻塞的方式來處理請求,也就是說,Nginx 是可以同時處理成千上萬個請求的。
Zuul
Zuul 是 Netflix 開源的一個API網關組件,它可以和 Eureka、Ribbon、Hystrix 等組件配合使用。社區活躍,融合於 SpringCloud 完整生態,是構建微服務體系前置網關服務的最佳選型之一。
Zuul 的核心是一系列的過濾器,這些過濾器可以完成以下功能:
-
統一鑒權 + 動態路由 + 負載均衡 + 壓力測試 -
審查與監控:與邊緣位置追蹤有意義的數據和統計結果,從而帶來精確的生產視圖。 -
多區域彈性:跨越 AWS Region 進行請求路由,旨在實現 ELB(Elastic Load Balancing,彈性負載均衡)使用的多樣化,以及讓系統的邊緣更貼近系統的使用者。
Zuul 目前有兩個大的版本:Zuul1 和 Zuul2
Zuul1 是基於 Servlet 框架構建,如圖所示,採用的是阻塞和多線程方式,即一個線程處理一次連接請求,這種方式在內部延遲嚴重、設備故障較多情況下會引起存活的連接增多和線程增加的情況發生。
Netflix 發佈的 Zuul2 有重大的更新,它運行在非同步和無阻塞框架上,每個 CPU 核一個線程,處理所有的請求和響應,請求和響應的生命周期是通過事件和回調來處理的,這種方式減少了線程數量,因此開銷較小。
Spring Cloud GetWay
Spring Cloud Gateway 是Spring Cloud的一個全新的API網關項目,目的是為了替換掉Zuul1,它基於Spring5.0 + SpringBoot2.0 + WebFlux(基於⾼性能的Reactor模式響應式通信框架Netty,非同步⾮阻塞模型)等技術開發,性能⾼於Zuul,官⽅測試,Spring Cloud GateWay是Zuul的1.6倍,旨在為微服務架構提供⼀種簡單有效的統⼀的API路由管理⽅式。
Spring Cloud Gateway可以與Spring Cloud Discovery Client(如Eureka)、Ribbon、Hystrix等組件配合使用,實現路由轉發、負載均衡、熔斷、鑒權、路徑重寫、⽇志監控等,並且Gateway還內置了限流過濾器,實現了限流的功能。
Kong
Kong是一款基於OpenResty(Nginx + Lua模塊)編寫的高可用、易擴展的,由Mashape公司開源的API Gateway項目。Kong是基於NGINX和Apache Cassandra或PostgreSQL構建的,能提供易於使用的RESTful API來操作和配置API管理系統,所以它可以水平擴展多個Kong伺服器,通過前置的負載均衡配置把請求均勻地分發到各個Server,來應對大批量的網路請求。
Kong主要有三個組件:
-
Kong Server :基於Nginx的伺服器,用來接收API請求。 -
Apache Cassandra/PostgreSQL :用來存儲操作數據。 -
Kong dashboard:官方推薦UI管理工具,也可以使用 restfull 方式管理admin api。
Kong採用插件機制進行功能定製,插件集(可以是0或N個)在API請求響應迴圈的生命周期中被執行。插件使用Lua編寫,目前已有幾個基礎功能:HTTP基本認證、密鑰認證、CORS(Cross-Origin Resource Sharing,跨域資源共用)、TCP、UDP、文件日誌、API請求限流、請求轉發以及Nginx監控。
Kong網關具有以下的特性:
-
可擴展性: 通過簡單地添加更多的伺服器,可以輕鬆地進行橫向擴展,這意味著您的平臺可以在一個較低負載的情況下處理任何請求; -
模塊化: 可以通過添加新的插件進行擴展,這些插件可以通過RESTful Admin API輕鬆配置; -
在任何基礎架構上運行: Kong網關可以在任何地方都能運行。您可以在雲或內部網路環境中部署Kong,包括單個或多個數據中心設置,以及public,private 或invite-only APIs。
Traefik
Træfɪk 是一個為了讓部署微服務更加便捷而誕生的現代HTTP反向代理、負載均衡工具。它支持多種後臺 (Docker, Swarm, Kubernetes, Marathon, Mesos, Consul, Etcd, Zookeeper, BoltDB, Rest API, file…) 來自動化、動態的應用它的配置文件設置。
重要特性:
-
它非常快,無需安裝其他依賴,通過Go語言編寫的單一可執行文件; -
多種後臺支持:Docker, Swarm, Kubernetes, Marathon, Mesos, Consul, Etcd; -
支持支持Rest API、Websocket、HTTP/2、Docker鏡像; -
監聽後臺變化進而自動化應用新的配置文件設置; -
配置文件熱更新,無需重啟進程; -
後端斷路器、負載均衡、容錯機制; -
清爽的前端頁面,可監控服務指標。
關於Traefik的更多內容,可以查看官網:https://traefik.cn/
2.2 API網關對比
上面是網關對比截圖,偷個懶,大家主要關註Kong、Traefik和Zuul即可:
-
從開源社區活躍度來看,無疑是Kong和Traefik較好; -
從成熟度來看,較好的是Kong、Tyk、Traefik; -
從性能來看,Kong要比其他幾個領先一些; -
從架構優勢的擴展性來看,Kong、Tyk有豐富的插件,Ambassador也有插件但不多,而Zuul是完全需要自研,但Zuul由於與Spring Cloud深度集成,使用度也很高,近年來Istio服務網格的流行,Ambassador因為能夠和Istio無縫集成也是相當大的優勢。
下麵是其它網友的思考結論,可供參考:
-
性能:Nginx+Lua形式必然是高於Java語言實現的網關的,Java技術棧裡面Zuul1.0是基於Servlet實現的,剩下都是基於webflux實現,性能是高於基於Servlet實現的。在性能方面我覺得選擇網關可能不算那麼重要,多加幾台機器就可以搞定。 -
可維護性和擴展性:Nginx+Lua這個組合掌握的人不算多,如果團隊有大神,大佬們就隨意了,當沒看到這段話,對於一般團隊來說的話,選擇自己團隊擅長的語言更重要。Java技術棧下的3種網關,對於Zuul和Spring Cloud Getway需要或多或少要搞一些集成和配置頁面來維護,但是對於Soul我就無腦看看文章,需要哪個搬哪個好了,尤其是可以無腦對接Dubbo美滋滋,此外Soul2.0以後版本可以擺脫ZK,在我心裡再無詬病,我就喜歡無腦操作。 -
高可用:對於網關高可用基本都是統一的策略都是採用多機器部署的方式,前面掛一個負載,對於而外需要用的一些組件大家註意一下。
3 基於Traefik自研的微服務網關
這個是我司自研的微服務網關,基於Traefik進行開發,下麵從技術選型、網關框架、網關後臺、協議轉換進行講解,絕對乾貨!
3.1 技術棧選型
-
Traefik:一款開源的反向代理與負載均衡工具,它最大的優點是能夠與常見的微服務系統直接整合,可以實現自動化動態配置。traefik較為輕量,非常易於使用和設置,性能比較好,已在全球範圍內用於生產環境。 -
Etcd:一個Go言編寫的分散式、高可用的一致性鍵值存儲系統,用於提供可靠的分散式鍵值存儲、配置共用和服務發現等功能。(更多內容可以查看文章 肝了一個月的ETCD,從Raft原理到實踐 ) -
Go:併發能力強,性能媲美C,處理能力是PHP的4倍,效率高,語法簡單,易上手,開發效率接近PHP。
3.3 網關框架
整個網關框架分為3塊:
-
網關後臺(hal-fe和hal-admin):用於應用、服務和插件的配置,然後將配置信息發佈到ETCD; -
Traefik:讀取ETCD配置,根據配置信息對請求進行路由分發,如果需要鑒權,會直接通過hal-agent模塊進行統一鑒權。鑒權完畢後,如果是Http請求,直接打到下游服務,如果是Grpc和Thrift協議,會通過hal-proxy模塊進行協議轉換。 -
協議轉換模塊:讀取ETCD配置,對Traefik分發過來的請求,進行Grpc和Thrift協議轉換(更多內容可以查看文章 RPC框架:從原理到選型,一文帶你搞懂RPC),並通過服務發現機制,獲取服務下游機器,並通過負載均衡,將轉換後的數據打到下游服務機器。
3.4 網關後臺
主要由3大模塊組成:
-
應用:主要包括應用名、功能變數名稱、路徑首碼、所屬組、狀態等,比如印度海外商城、印度社區; -
服務:主要包括服務名、註冊方式、協議類型、所屬組、狀態等,比如評論服務、地址服務、搜索服務。 -
插件:主要包括插件名稱、插件類型、插件屬性配置等,比如路徑首碼替換插件、鑒權插件。
一個應用只能綁定一個服務,但是可以綁定多個插件。 通過後臺完成網關配置後,將這些配置信息生成Config文件,發佈到ETCD中,Config文件需要遵循嚴格的數據格式,比如Traefix配置需要遵循官方的文件配置格式,才能被Traefik識別。
3.5 協議轉換模塊
hal-proxy模塊是整個微服務網關最複雜,也是技術含量最高的模塊,所以給大家詳細講解一下。
問題引入
在講這個模塊前,我們先看下麵幾個問題:
-
當請求從上游的trafik過來時,需要知道訪問下游的機器IP和埠,才能將請求發送給下游,這些機器如何獲取呢? -
有了機器後,我們需要和下游機器建立連接,如果連接用一次就直接釋放,肯定對服務會造成很大的壓力,這就需要引入Client緩存池,那這個Client緩存池我們又該如何實現呢? -
最後就是需要對協議進行轉換,因為不同的下游服務,支持的協議類型是不一樣的,這個網關又是如何動態支持的呢?
實現原理
我們還是先看一下hal-proxy內部有哪些模塊,首先是Resolver模塊,這個模塊的是什麼作用呢?這裡我簡單介紹一下,目前公司內部通過服務獲取到機器列表的方式有多種,比如MIS平臺、服務樹等,也就是有的是通過平臺配置的,有的是直接掛在服務樹下,無論哪種方式,我們都通過服務名,通過一定的方式,找到該服務下麵所有的主機。
所以Resolver模塊的作用,其實就是通過服務名,找到該服務下的所有機器的IP和服務埠,然後持久化到記憶體中,並定時更新。
協議模塊就是支持不同的協議轉換,每個協議類型的轉換,都需要單獨實現,這些協議轉換,無非就是先通過機器IP和埠初始化Client,然後再將數據進行轉換後,直接發送到下游的機器。
最後就是連接池,之前我們其實也用到go自帶的pool來做,但是當對pool數據進行更新時,需要加鎖,所以性能一直起不來,後來改成了環形隊列,然後對數據的操作全部通過原子操作方式,就實現了無鎖操作,大大提高的併發性能。 環形隊列的代碼,也給你安排上,可以直接看這篇文章 Go語言核心手冊-10.原子操作。
實現邏輯
這個是hal-proxy的邏輯實現圖,畫了2天,包含所有核心對象的交互方式,這裡就不去細講,能掌握多少,靠大家自己領悟。
作者|蘇三
本文來自博客園,作者:古道輕風,轉載請註明原文鏈接:https://www.cnblogs.com/88223100/p/Introduction-to-5-microservice-gateways.html