在Kafka中,Broker、Topic、Partition和Replication是四個核心概念,它們各自扮演了不同的角色並共同協作以確保數據的可靠性、可擴展性和高性能。以下是關於這四個概念的詳細解釋: Broker(代理) * Broker是Kafka集群中的一個節點,負責存儲和轉發消息。Kaf ...
在Kafka中,Broker
、Topic
、Partition
和Replication
是四個核心概念,它們各自扮演了不同的角色並共同協作以確保數據的可靠性、可擴展性和高性能。以下是關於這四個概念的詳細解釋:
Broker(代理)
* Broker是Kafka集群中的一個節點,負責存儲和轉發消息。Kafka集群由多個Broker組成。
* Broker接收來自生產者的消息,為消息設置Offset,並提交消息到磁碟保存。同時,Broker也負責將消息轉發給消費者。
* Broker之間通過協調機制維護Topic和Partition的元數據信息,確保整個集群的數據一致性和可用性。
* Broker提供了API介面,供生產者和消費者使用。生產者通過API發送消息到Topic中,消費者通過API讀取Topic中的消息。
Topic(主題):
* Kafka中的Topic是一個邏輯上的概念,用於組織和存儲消息。你可以將Topic看作是一個特定的消息類別或者類型,它代表了一類數據或事件。
* 生產者(Producer)向特定的Topic發送消息,而消費者(Consumer)則從Topic中消費消息。
* Kafka的分散式特性使得一個Topic可以被劃分為多個Partition,這些Partition可以分佈在不同的Broker上,以實現數據的並行處理和存儲。
Partition(分區):
* Partition是Kafka中實際保存數據的單位,是Topic的物理劃分。每個Topic都可以被劃分為一個或多個Partition。
* 為了實現擴展性,一個非常大的Topic可以分佈到多個Broker上,即一個Topic可以包含多個Partition,每個Partition是一個有序的隊列。
* 當一條消息發送到Kafka時,它會被分配到一個特定的Partition中,並最終寫入Partition對應的日誌文件里。這個分配過程可以根據一定的規則進行,如按照消息的某個屬性進行哈希或者按照時間戳進行排序等。
* Partition中的每條消息都會被分配一個有序的ID(Offset),消費者通過Offset來追蹤已經消費的消息位置。
Replication(副本):
* Kafka通過副本機制提供高可用性和數據持久性。每個Partition都可以配置多個副本(Replica),這些副本分佈在不同的Broker上。
* 在一個Partition的多個副本中,有一個副本被選舉為Leader,其他副本則為Follower。Leader負責處理讀寫請求,而Follower則實時從Leader同步數據。
* 當某個Broker出現故障時,Kafka可以自動從其他Broker上的Follower副本中選舉出新的Leader,以確保服務的可用性。
* 通過設置適當的副本因數(Replication Factor),可以在保證數據可靠性的同時提高系統的容錯能力。
這四個概念共同協作,使得Kafka能夠處理大量的實時數據流,並提供高吞吐量、低延遲和可擴展性。在Kafka集群中,通過合理配置Topic、Partition、Replication和Broker等參數,可以優化系統的性能和可靠性。
Kafka 是一個流處理平臺,用於構建實時數據管道和流應用。在 Kafka 中,Producer、Consumer、Event 和 Offset 是核心概念。下麵我將簡要解釋這些概念:
Producer(生產者):
- 生產者是向 Kafka 集群發送(或稱為“生產”)消息的應用程式。
- 生產者將消息發送到 Kafka 的一個或多個主題(Topic)中。
- 生產者發送的消息被追加到該主題的分區(Partition)中。
Consumer(消費者):
- 消費者是從 Kafka 集群讀取(或稱為“消費”)消息的應用程式。
- 消費者訂閱一個或多個主題,並從這些主題的分區中讀取消息。
- 消費者組(Consumer Group)是多個消費者的集合,它們共同讀取一個主題的消息,但每個分區只能被一個消費者組中的一個消費者讀取。
Event(事件):
- 在 Kafka 的語境中,事件(或稱為“消息”)是生產者發送到 Kafka 主題並被消費者讀取的數據單元。
- 事件可以包含各種類型的數據,如字元串、JSON 對象等。
- 事件是 Kafka 中數據流的基本單位。
Offset(偏移量):
- 偏移量是 Kafka 中用於唯一標識分區中每個消息的序列號。
- 當消息被追加到分區時,Kafka 會為每個消息分配一個遞增的偏移量。
- 消費者使用偏移量來跟蹤它已經讀取到哪個位置,以便在故障恢復或重新連接時能夠繼續從正確的位置讀取消息。
- Kafka 提供了 API 來允許消費者提交和獲取其偏移量,以確保消息的可靠消費。
消費者的消費模型:
消費者使用偏移量來跟蹤其消費進度。消費者可以手動提交偏移量,也可以讓 Kafka 在滿足一定條件(如成功處理消息)後自動提交偏移量。Kafka 還提供了“至少一次”和“至多一次”等語義來確保消息的可靠傳遞。
- Current Position:表示消費者當前正在讀取的消息的偏移量。
- Last Committed Offset:表示消費者最近一次提交的偏移量。它表示消費者已經成功處理並確認的消息的邊界。
- Log End Offset (LEO):表示分區中最後一條消息的偏移量。對生產者來說,它表示即將插入下一條消息的偏移量。
- High Watermark (HW):表示已經成功備份到其他副本中的最新一條數據的偏移量。它表示消費者可以安全讀取的消息的邊界,因為這部分消息已經被覆制到足夠多的副本中,即使某些副本出現故障也不會丟失數據。
本文來自博客園,作者:dashery,轉載請註明原文鏈接:https://www.cnblogs.com/ydswin/p/18169055