Kafka 常見問題

来源:https://www.cnblogs.com/taojietaoge/archive/2022/11/17/16893771.html
-Advertisement-
Play Games

Kafka 常見問題 一年將盡夜,萬里未歸人。 1、Kafka 簡介 Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止 ...


Kafka 常見問題

    一年將盡夜,萬里未歸人。

1、Kafka 簡介

Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止數據丟失。 Kafka構建在ZooKeeper同步服務之上,依賴 Zookeeper,它與Apache Storm和Spark非常好地集成, 用於實時流式數據分析。 Kafka 依賴於日誌順序寫, 因此支持消息回溯和支撐高性能讀寫。

2、Kafka 的 Broker 基本概念

Kafka的 Server包含多個 Topic 、Partition 和 Replica,負責協調 Producer 和 Consumer。主從結構為: 主節點為 Controller, 從節點為從節點 Kafka 啟動是會往 Zookeeper 中註冊當前Broker 信息,誰先註冊誰就是 Controller,讀取註冊上來的從節點的數據(通過監聽機制), 生成集群的元數據信息, 之後把這些信息都分發給其他的伺服器, 讓其他伺服器能感知到集群中其它成員的存在

3、Kafka 的 Topic 基本概念

標準 MQ 中的 Queue,Kafka 中一個 Topic 的消息會保存在不同的 Partition (不同的 Broker)來保證高可用。

4、Kafka 的 Partition (分區) 基本概念

  • 可以理解為將標準 MQ 的 Queue 的消息進行拆分, 來實現高可用。
  • Producer 發送的 Message, 根據 key 和 partition 數進行 hash, 然後進行投遞。
  • 一個分區只能被同一個 Consumer Group 中的一個 Consumer 消費,分區內消費有序。

5、Replica (備份)

每一個 Partition 的備份。 Replica 的小於等於 Broker 的數量。 Leader: Replica領導節點, 每一個 Partition 都有對應的 Leader 節點(Broker),Producer 寫數據時, 只會往 Leader 中寫,Consumer 讀數據也是從 Leader 中讀。 Follower: Replica跟隨節點, 用於複製領導節點的數據,複製 Leader 消息採用 pull (拉)模式。、
# Broker 設置副本數量 預設為 3 
default.replication.factor
# Topic 設置副本數量
replication-factor

6、ISR (In-Sync Replica)

Leader維護一個與其基本保持同步的Replica列表, 每個Partition都會有一個ISR, 而且是由leader動態維護。如果一個flower比一個leader落後太多, 或者超過一定時間未發起數據複製請求, 則leader將其重ISR中移除。當ISR中所有Replica都向Leader發送ACK時, leader才commit。 Leader 宕機之後, 會從 ISR 選擇數據最新的 Follower 來當做 Leader 如果 ISR 全部宕機, 則選擇第一個回覆的 Replica 當做 Leader 節點 (消息可能會丟失或者重覆消費)。

7、水印備份機制

水印備份機制即 LEO (last end offffset),日誌末端位移, 記錄了該副本對象底層日誌文件中下一條消息的位移值, 副本寫入消息的時候, 會自動更新 LEO 值 Leader 會保存兩個 LEO 值, 一個是自己的 LEO 值, 另外一個是 remote 的 LEO 值。Follower 每次 fetch 請求都會攜帶當前 LEO, Leader 會選擇最小的 LEO來更新 HW HW (high watermark): 從名字可以知道, 該值叫高水印值, HW 一定不會大於 LEO 值, 小於 HW 值的消息被認為是"已提交"或"已備份"的消息, 並對消費者可見。

8、Message

標準 MQ 的 Queue 中的 Message,即一條消息。

9、Producer

標準 MQ 中的發送方,發送給 Broker 使用push (推)模式。

10、數據一致性保證 (消息不丟失)

request.required.asks=0
  • 0: 相當於非同步的, 不需要leader給予回覆, producer立即返回, 發送就是成功,那麼發送消息網路超時或broker crash(1.Partition的Leader還沒有commit消息 2.Leader與Follower數據不同步), 既有可能丟失也可能會重發。
  • 1:當leader接收到消息之後發送ack, 丟會重發, 丟的概率很小。
  • -1:當所有的follower都同步消息成功後發送ack. 不會丟失消息。

11、Consumer

標準 MQ 中的消費方,接受 Broker 使用 pull (拉)模式, 預設 100ms 拉一次,Consumer 消費的是Partition 的數據。 消息丟失: 手動確認 ack 而不是自動提交。 消息重覆: 消費端冪等處理。

12、Consumer Group

在 Kafka 中, 一個 Topic 是可以被一個消費組消費, 一個Topic 分發給 Consumer Group 中的Consumer 進行消費, 保證同一條 Message 不會被不同的 Consumer 消費。 註意: 當Consumer Group的 Consumer 數量大於 Partition 的數量時, 超過 Partition 的數量將會拿不到消息。

13、分片規則

Kafka分配Replica的演算法有兩種: RangeAssignor 和 RoundRobinAssignor 預設為RangeAssignor: 1. 將所有Broker(假設共n個Broker)和待分配的Partition排序 2. 將第i個Partition分配到第(i mod n)個Broker上 3. 將第i個Partition的第j個Replica分配到第((i + j) mod n)個Broker上

14、Rebalance (重平衡)

Rebalance 本質上是一種協議, 規定了一個 Consumer Group 下的所有 consumer 如何達成一致,來分配訂閱 Topic 的每個分區。 Rebalance 發生時, 所有的 Consumer Group 都停止工作, 直到 Rebalance 完成。

15、Coordinator

Group Coordinator 是一個服務, 每個 Broker 在啟動的時候都會啟動一個該服務 Group Coordinator 的作用是用來存儲 Group 的相關 Meta 信息, 並將對應 Partition 的 Offset 信息記錄到 Kafka 內置 Topic(__consumer_offsets)中 Kafka 在0.9之前是基於 Zookeeper 來存儲Partition的 offset 信息(consumers/{group}/offsets/{topic}/{partition}), 因為 Zookeeper 並不適用於頻繁的寫操作, 所以在0.9之後通過內置 Topic 的方式來記錄對應 Partition 的 offset。

16、Rebalace 流程

Rebalance 過程分為兩步:Join 和 Sync 1. Join: 顧名思義就是加入組。這一步中, 所有成員都向 Coordinator 發送 JoinGroup 請求, 請求加入消費組,一旦所有成員都發送了 JoinGroup 請求, Coordinator 會從中選擇一個Consumer 擔任 Leader 的角色, 並把組成員信息以及訂閱信息發給 Consumer Leader ,註意Consumer Leader 和 Coordinator不是一個概念。Consumer Leader負責消費分配方案的制定。 2. Sync: Consumer Leader 開始分配消費方案, 即哪個 Consumer 負責消費哪些 Topic 的哪些Partition。一旦完成分配, Leader 會將這個方案封裝進 SyncGroup 請求中發給 Coordinator,非 Leader 也會發 SyncGroup 請求, 只是內容為空。Coordinator 接收到分配方案之後會把方案塞進SyncGroup的Response中發給各個Consumer,這樣組內的所有成員就都知道自己應該消費哪些分區了。

17、日誌索引

Kafka 能支撐 TB 級別數據, 在日誌級別有兩個原因: 順序寫和日誌索引。 Kafka 在一個日誌文件達到一定數據量 (1G) 之後, 會生成新的日誌文件, 大數據情況下會有多個日誌文件, 通過偏移量來確定到某行紀錄時, 如果遍歷所有的日誌文件, 那效率自然是很差的。Kafka在日誌級別上抽出來一層日誌索引, 來方便根據 offset 快速定位到是某個日誌文件。 每一個 partition 對應多個個 log 文件(最大 1G), 每一個 log 文件又對應一個 index 文件。

18、Kafka 高性能、高吞吐 的原因?

分區、順序寫、批發送和數據壓縮等。

19、分區的原因

如果我們假設像標準 MQ 的 Queue, 為了保證一個消息只會被一個消費者消費, 那麼我們第一想到的就是加鎖。對於發送者, 在多線程並且非順序寫環境下, 保證數據一致性, 我們同樣也要加鎖。一旦考慮到加鎖, 就會極大的影響性能。我們再來看Kafka 的 Partition, Kafka 的消費模式和發送模式都是以 Partition 為分界,也就是說對於一個 Topic 的併發量限制在於有多少個 Partition, 就能支撐多少的併發,可以參考 Java 1.7 的 ConcurrentHashMap 的桶設計, 原理一樣, 有多少桶, 支持多少的併發。

20、順序寫

磁碟的順序寫的性能要比記憶體隨機寫的還要強。

21、批發送

批處理是一種常用的用於提高I/O性能的方式。對Kafka而言, 批處理既減少了網路傳輸的Overhead, 又提高了寫磁碟的效率。Kafka 0.82 之後是將多個消息合併之後再發送, 而並不是send一條就立馬發送(之前支持)。
# 批量發送的基本單位, 預設是16384Bytes, 即16kB 
batch.size 
# 延遲時間 linger.ms 
# 兩者滿足其一便發送

22、數據壓縮

數據壓縮的一個基本原理是, 重覆數據越多壓縮效果越好. 因此將整個Batch的數據一起壓縮能更大幅度減小數據量, 從而更大程度提高網路傳輸效率Broker接收消息後,並不直接解壓縮,而是直接將消息以壓縮後的形式持久化到磁碟 Consumer接受到壓縮後的數據再解壓縮。 整體來講: Producer 到 Broker, 副本複製, Broker 到 Consumer 的數據都是壓縮後的數據, 保證高效率的傳輸。         一年將盡夜 萬里未歸人        
您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 限流,通常講就是限制流量,也有很多其他的說法,比如:限頻、疲勞度控制等。 原文鏈接:自定義開發限流組件 之 場景需求分析-一隻小Coder 最近遇到一個需求,系統A作為一個專門推送消息給客戶的消息中心系統,對於每個客戶是否能接受消息,能接受多少消息,接收消息的速度,能接受哪些消息等都要進行控制,這也 ...
  • 5.4 介面開發-根據id刪除附件 第2-1-2章 傳統方式安裝FastDFS-附FastDFS常用命令 第2-1-3章 docker-compose安裝FastDFS,實現文件存儲服務 第2-1-5章 docker安裝MinIO實現文件存儲服務-springboot整合minio-minio全網最 ...
  • 自己的客服系統做好了,官網頁面也有了,但是沒有介紹性的內容文章。網站被收錄的太少,這樣會導致網站的權重不高,搜索排名比較低。 因此要簡單的加上一個小型的內容管理功能。 設計資料庫 很簡單的兩張表,分類表和內容表 DROP TABLE IF EXISTS `cms_cate`; CREATE TABL ...
  • jdk線程池工作原理解析(二) 本篇博客是jdk線程池ThreadPoolExecutor工作原理解析系列博客的第二篇,在第一篇博客中從源碼層面分析了ThreadPoolExecutor在RUNNING狀態下處理任務的核心邏輯,而在這篇博客中將會詳細講解jdk線程池ThreadPoolExecuto ...
  • RabbitMQ 常見問題 昔我往矣,楊柳依依。今我來思,雨雪霏霏。 1、什麼是RabbitMQ? RabbitMQ是一款開源的、Erlang編寫的消息中間件;最大的特點就是消費並不需要確保提供方存在,實現了服務之間的高度解耦,可以用它來:解耦、非同步、削峰。 2、MQ的優點 非同步處理 - 相比於傳統 ...
  • 實現02 3.實現任務階段3-處理Servlet02 3.3Servlet規範設計 3.3.1MyServlet 該類模仿Servlet介面,為了簡化,只聲明瞭三個方法:init(),service(),destroy() package com.li.MyTomcat.servlet; impor ...
  • 通過創建數據表索引,有效提升系統性能。 一、問題背景 在11月10日下午5點,出現channel非同步下發消息隊列消息積壓報警,經排查分析是因為channel請求鑫某億服務商落單時間過長,導致了channel消費消息隊列的消息變慢的情況。所以,專項對鑫某億系統相關業務進行優化。 一(1)、現場 查看當 ...
  • 眾所周知,某度本身就是最大的爬蟲腳本,那麼純純的去某個網站找壁紙,還不如去某度圖片直接找,瞬間格局打開! 話不多說,直接用Python來開發一下此處資源! 開發環境 & 第三方模塊 環境 解釋器版本 >>> python 3.8 代碼編輯器 >>> pycharm 2021.2 模塊 request ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...