Kafka 常見問題

来源:https://www.cnblogs.com/taojietaoge/archive/2022/11/17/16893771.html
-Advertisement-
Play Games

Kafka 常見問題 一年將盡夜,萬里未歸人。 1、Kafka 簡介 Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止 ...


Kafka 常見問題

    一年將盡夜,萬里未歸人。

1、Kafka 簡介

Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止數據丟失。 Kafka構建在ZooKeeper同步服務之上,依賴 Zookeeper,它與Apache Storm和Spark非常好地集成, 用於實時流式數據分析。 Kafka 依賴於日誌順序寫, 因此支持消息回溯和支撐高性能讀寫。

2、Kafka 的 Broker 基本概念

Kafka的 Server包含多個 Topic 、Partition 和 Replica,負責協調 Producer 和 Consumer。主從結構為: 主節點為 Controller, 從節點為從節點 Kafka 啟動是會往 Zookeeper 中註冊當前Broker 信息,誰先註冊誰就是 Controller,讀取註冊上來的從節點的數據(通過監聽機制), 生成集群的元數據信息, 之後把這些信息都分發給其他的伺服器, 讓其他伺服器能感知到集群中其它成員的存在

3、Kafka 的 Topic 基本概念

標準 MQ 中的 Queue,Kafka 中一個 Topic 的消息會保存在不同的 Partition (不同的 Broker)來保證高可用。

4、Kafka 的 Partition (分區) 基本概念

  • 可以理解為將標準 MQ 的 Queue 的消息進行拆分, 來實現高可用。
  • Producer 發送的 Message, 根據 key 和 partition 數進行 hash, 然後進行投遞。
  • 一個分區只能被同一個 Consumer Group 中的一個 Consumer 消費,分區內消費有序。

5、Replica (備份)

每一個 Partition 的備份。 Replica 的小於等於 Broker 的數量。 Leader: Replica領導節點, 每一個 Partition 都有對應的 Leader 節點(Broker),Producer 寫數據時, 只會往 Leader 中寫,Consumer 讀數據也是從 Leader 中讀。 Follower: Replica跟隨節點, 用於複製領導節點的數據,複製 Leader 消息採用 pull (拉)模式。、
# Broker 設置副本數量 預設為 3 
default.replication.factor
# Topic 設置副本數量
replication-factor

6、ISR (In-Sync Replica)

Leader維護一個與其基本保持同步的Replica列表, 每個Partition都會有一個ISR, 而且是由leader動態維護。如果一個flower比一個leader落後太多, 或者超過一定時間未發起數據複製請求, 則leader將其重ISR中移除。當ISR中所有Replica都向Leader發送ACK時, leader才commit。 Leader 宕機之後, 會從 ISR 選擇數據最新的 Follower 來當做 Leader 如果 ISR 全部宕機, 則選擇第一個回覆的 Replica 當做 Leader 節點 (消息可能會丟失或者重覆消費)。

7、水印備份機制

水印備份機制即 LEO (last end offffset),日誌末端位移, 記錄了該副本對象底層日誌文件中下一條消息的位移值, 副本寫入消息的時候, 會自動更新 LEO 值 Leader 會保存兩個 LEO 值, 一個是自己的 LEO 值, 另外一個是 remote 的 LEO 值。Follower 每次 fetch 請求都會攜帶當前 LEO, Leader 會選擇最小的 LEO來更新 HW HW (high watermark): 從名字可以知道, 該值叫高水印值, HW 一定不會大於 LEO 值, 小於 HW 值的消息被認為是"已提交"或"已備份"的消息, 並對消費者可見。

8、Message

標準 MQ 的 Queue 中的 Message,即一條消息。

9、Producer

標準 MQ 中的發送方,發送給 Broker 使用push (推)模式。

10、數據一致性保證 (消息不丟失)

request.required.asks=0
  • 0: 相當於非同步的, 不需要leader給予回覆, producer立即返回, 發送就是成功,那麼發送消息網路超時或broker crash(1.Partition的Leader還沒有commit消息 2.Leader與Follower數據不同步), 既有可能丟失也可能會重發。
  • 1:當leader接收到消息之後發送ack, 丟會重發, 丟的概率很小。
  • -1:當所有的follower都同步消息成功後發送ack. 不會丟失消息。

11、Consumer

標準 MQ 中的消費方,接受 Broker 使用 pull (拉)模式, 預設 100ms 拉一次,Consumer 消費的是Partition 的數據。 消息丟失: 手動確認 ack 而不是自動提交。 消息重覆: 消費端冪等處理。

12、Consumer Group

在 Kafka 中, 一個 Topic 是可以被一個消費組消費, 一個Topic 分發給 Consumer Group 中的Consumer 進行消費, 保證同一條 Message 不會被不同的 Consumer 消費。 註意: 當Consumer Group的 Consumer 數量大於 Partition 的數量時, 超過 Partition 的數量將會拿不到消息。

13、分片規則

Kafka分配Replica的演算法有兩種: RangeAssignor 和 RoundRobinAssignor 預設為RangeAssignor: 1. 將所有Broker(假設共n個Broker)和待分配的Partition排序 2. 將第i個Partition分配到第(i mod n)個Broker上 3. 將第i個Partition的第j個Replica分配到第((i + j) mod n)個Broker上

14、Rebalance (重平衡)

Rebalance 本質上是一種協議, 規定了一個 Consumer Group 下的所有 consumer 如何達成一致,來分配訂閱 Topic 的每個分區。 Rebalance 發生時, 所有的 Consumer Group 都停止工作, 直到 Rebalance 完成。

15、Coordinator

Group Coordinator 是一個服務, 每個 Broker 在啟動的時候都會啟動一個該服務 Group Coordinator 的作用是用來存儲 Group 的相關 Meta 信息, 並將對應 Partition 的 Offset 信息記錄到 Kafka 內置 Topic(__consumer_offsets)中 Kafka 在0.9之前是基於 Zookeeper 來存儲Partition的 offset 信息(consumers/{group}/offsets/{topic}/{partition}), 因為 Zookeeper 並不適用於頻繁的寫操作, 所以在0.9之後通過內置 Topic 的方式來記錄對應 Partition 的 offset。

16、Rebalace 流程

Rebalance 過程分為兩步:Join 和 Sync 1. Join: 顧名思義就是加入組。這一步中, 所有成員都向 Coordinator 發送 JoinGroup 請求, 請求加入消費組,一旦所有成員都發送了 JoinGroup 請求, Coordinator 會從中選擇一個Consumer 擔任 Leader 的角色, 並把組成員信息以及訂閱信息發給 Consumer Leader ,註意Consumer Leader 和 Coordinator不是一個概念。Consumer Leader負責消費分配方案的制定。 2. Sync: Consumer Leader 開始分配消費方案, 即哪個 Consumer 負責消費哪些 Topic 的哪些Partition。一旦完成分配, Leader 會將這個方案封裝進 SyncGroup 請求中發給 Coordinator,非 Leader 也會發 SyncGroup 請求, 只是內容為空。Coordinator 接收到分配方案之後會把方案塞進SyncGroup的Response中發給各個Consumer,這樣組內的所有成員就都知道自己應該消費哪些分區了。

17、日誌索引

Kafka 能支撐 TB 級別數據, 在日誌級別有兩個原因: 順序寫和日誌索引。 Kafka 在一個日誌文件達到一定數據量 (1G) 之後, 會生成新的日誌文件, 大數據情況下會有多個日誌文件, 通過偏移量來確定到某行紀錄時, 如果遍歷所有的日誌文件, 那效率自然是很差的。Kafka在日誌級別上抽出來一層日誌索引, 來方便根據 offset 快速定位到是某個日誌文件。 每一個 partition 對應多個個 log 文件(最大 1G), 每一個 log 文件又對應一個 index 文件。

18、Kafka 高性能、高吞吐 的原因?

分區、順序寫、批發送和數據壓縮等。

19、分區的原因

如果我們假設像標準 MQ 的 Queue, 為了保證一個消息只會被一個消費者消費, 那麼我們第一想到的就是加鎖。對於發送者, 在多線程並且非順序寫環境下, 保證數據一致性, 我們同樣也要加鎖。一旦考慮到加鎖, 就會極大的影響性能。我們再來看Kafka 的 Partition, Kafka 的消費模式和發送模式都是以 Partition 為分界,也就是說對於一個 Topic 的併發量限制在於有多少個 Partition, 就能支撐多少的併發,可以參考 Java 1.7 的 ConcurrentHashMap 的桶設計, 原理一樣, 有多少桶, 支持多少的併發。

20、順序寫

磁碟的順序寫的性能要比記憶體隨機寫的還要強。

21、批發送

批處理是一種常用的用於提高I/O性能的方式。對Kafka而言, 批處理既減少了網路傳輸的Overhead, 又提高了寫磁碟的效率。Kafka 0.82 之後是將多個消息合併之後再發送, 而並不是send一條就立馬發送(之前支持)。
# 批量發送的基本單位, 預設是16384Bytes, 即16kB 
batch.size 
# 延遲時間 linger.ms 
# 兩者滿足其一便發送

22、數據壓縮

數據壓縮的一個基本原理是, 重覆數據越多壓縮效果越好. 因此將整個Batch的數據一起壓縮能更大幅度減小數據量, 從而更大程度提高網路傳輸效率Broker接收消息後,並不直接解壓縮,而是直接將消息以壓縮後的形式持久化到磁碟 Consumer接受到壓縮後的數據再解壓縮。 整體來講: Producer 到 Broker, 副本複製, Broker 到 Consumer 的數據都是壓縮後的數據, 保證高效率的傳輸。         一年將盡夜 萬里未歸人        
您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 限流,通常講就是限制流量,也有很多其他的說法,比如:限頻、疲勞度控制等。 原文鏈接:自定義開發限流組件 之 場景需求分析-一隻小Coder 最近遇到一個需求,系統A作為一個專門推送消息給客戶的消息中心系統,對於每個客戶是否能接受消息,能接受多少消息,接收消息的速度,能接受哪些消息等都要進行控制,這也 ...
  • 5.4 介面開發-根據id刪除附件 第2-1-2章 傳統方式安裝FastDFS-附FastDFS常用命令 第2-1-3章 docker-compose安裝FastDFS,實現文件存儲服務 第2-1-5章 docker安裝MinIO實現文件存儲服務-springboot整合minio-minio全網最 ...
  • 自己的客服系統做好了,官網頁面也有了,但是沒有介紹性的內容文章。網站被收錄的太少,這樣會導致網站的權重不高,搜索排名比較低。 因此要簡單的加上一個小型的內容管理功能。 設計資料庫 很簡單的兩張表,分類表和內容表 DROP TABLE IF EXISTS `cms_cate`; CREATE TABL ...
  • jdk線程池工作原理解析(二) 本篇博客是jdk線程池ThreadPoolExecutor工作原理解析系列博客的第二篇,在第一篇博客中從源碼層面分析了ThreadPoolExecutor在RUNNING狀態下處理任務的核心邏輯,而在這篇博客中將會詳細講解jdk線程池ThreadPoolExecuto ...
  • RabbitMQ 常見問題 昔我往矣,楊柳依依。今我來思,雨雪霏霏。 1、什麼是RabbitMQ? RabbitMQ是一款開源的、Erlang編寫的消息中間件;最大的特點就是消費並不需要確保提供方存在,實現了服務之間的高度解耦,可以用它來:解耦、非同步、削峰。 2、MQ的優點 非同步處理 - 相比於傳統 ...
  • 實現02 3.實現任務階段3-處理Servlet02 3.3Servlet規範設計 3.3.1MyServlet 該類模仿Servlet介面,為了簡化,只聲明瞭三個方法:init(),service(),destroy() package com.li.MyTomcat.servlet; impor ...
  • 通過創建數據表索引,有效提升系統性能。 一、問題背景 在11月10日下午5點,出現channel非同步下發消息隊列消息積壓報警,經排查分析是因為channel請求鑫某億服務商落單時間過長,導致了channel消費消息隊列的消息變慢的情況。所以,專項對鑫某億系統相關業務進行優化。 一(1)、現場 查看當 ...
  • 眾所周知,某度本身就是最大的爬蟲腳本,那麼純純的去某個網站找壁紙,還不如去某度圖片直接找,瞬間格局打開! 話不多說,直接用Python來開發一下此處資源! 開發環境 & 第三方模塊 環境 解釋器版本 >>> python 3.8 代碼編輯器 >>> pycharm 2021.2 模塊 request ...
一周排行
    -Advertisement-
    Play Games
  • GoF之工廠模式 @目錄GoF之工廠模式每博一文案1. 簡單說明“23種設計模式”1.2 介紹工廠模式的三種形態1.3 簡單工廠模式(靜態工廠模式)1.3.1 簡單工廠模式的優缺點:1.4 工廠方法模式1.4.1 工廠方法模式的優缺點:1.5 抽象工廠模式1.6 抽象工廠模式的優缺點:2. 總結:3 ...
  • 新改進提供的Taurus Rpc 功能,可以簡化微服務間的調用,同時可以不用再手動輸出模塊名稱,或調用路徑,包括負載均衡,這一切,由框架實現並提供了。新的Taurus Rpc 功能,將使得服務間的調用,更加輕鬆、簡約、高效。 ...
  • 本章將和大家分享ES的數據同步方案和ES集群相關知識。廢話不多說,下麵我們直接進入主題。 一、ES數據同步 1、數據同步問題 Elasticsearch中的酒店數據來自於mysql資料庫,因此mysql數據發生改變時,Elasticsearch也必須跟著改變,這個就是Elasticsearch與my ...
  • 引言 在我們之前的文章中介紹過使用Bogus生成模擬測試數據,今天來講解一下功能更加強大自動生成測試數據的工具的庫"AutoFixture"。 什麼是AutoFixture? AutoFixture 是一個針對 .NET 的開源庫,旨在最大程度地減少單元測試中的“安排(Arrange)”階段,以提高 ...
  • 經過前面幾個部分學習,相信學過的同學已經能夠掌握 .NET Emit 這種中間語言,並能使得它來編寫一些應用,以提高程式的性能。隨著 IL 指令篇的結束,本系列也已經接近尾聲,在這接近結束的最後,會提供幾個可供直接使用的示例,以供大伙分析或使用在項目中。 ...
  • 當從不同來源導入Excel數據時,可能存在重覆的記錄。為了確保數據的準確性,通常需要刪除這些重覆的行。手動查找並刪除可能會非常耗費時間,而通過編程腳本則可以實現在短時間內處理大量數據。本文將提供一個使用C# 快速查找並刪除Excel重覆項的免費解決方案。 以下是實現步驟: 1. 首先安裝免費.NET ...
  • C++ 異常處理 C++ 異常處理機制允許程式在運行時處理錯誤或意外情況。它提供了捕獲和處理錯誤的一種結構化方式,使程式更加健壯和可靠。 異常處理的基本概念: 異常: 程式在運行時發生的錯誤或意外情況。 拋出異常: 使用 throw 關鍵字將異常傳遞給調用堆棧。 捕獲異常: 使用 try-catch ...
  • 優秀且經驗豐富的Java開發人員的特征之一是對API的廣泛瞭解,包括JDK和第三方庫。 我花了很多時間來學習API,尤其是在閱讀了Effective Java 3rd Edition之後 ,Joshua Bloch建議在Java 3rd Edition中使用現有的API進行開發,而不是為常見的東西編 ...
  • 框架 · 使用laravel框架,原因:tp的框架路由和orm沒有laravel好用 · 使用強制路由,方便介面多時,分多版本,分文件夾等操作 介面 · 介面開發註意欄位類型,欄位是int,查詢成功失敗都要返回int(對接java等強類型語言方便) · 查詢介面用GET、其他用POST 代碼 · 所 ...
  • 正文 下午找企業的人去鎮上做貸後。 車上聽同事跟那個司機對罵,火星子都快出來了。司機跟那同事更熟一些,連我在內一共就三個人,同事那一手指桑罵槐給我都聽愣了。司機也是老社會人了,馬上聽出來了,為那個無辜的企業經辦人辯護,實際上是為自己辯護。 “這個事情你不能怪企業。”“但他們總不能讓銀行的人全權負責, ...