Kafka生產者

来源:https://www.cnblogs.com/feiyu2/archive/2023/03/24/17250979.html
-Advertisement-
Play Games

生產者創建消息。在其他基於發佈與訂閱的消息系統中,生產者可能被稱為發佈者 或 寫入者。 一般情況下,一個消息會被髮布到一個特定的主題上。生產者在預設情況下把消息均衡地分佈到主題的所有分區上,而並不關心特定消息會被寫到哪個分區。不過,在某些情況下,生產者會把消息直接寫到指定的分區。這通常是通過消息鍵和 ...


生產者創建消息。在其他基於發佈與訂閱的消息系統中,生產者可能被稱為發佈者 或 寫入者。

一般情況下,一個消息會被髮布到一個特定的主題上。生產者在預設情況下把消息均衡地分佈到主題的所有分區上,而並不關心特定消息會被寫到哪個分區。不過,在某些情況下,生產者會把消息直接寫到指定的分區。這通常是通過消息鍵和分區器來實現的,分區器為鍵生成一個散列值,並將其映射到指定的分區上。這樣可以保證包含同一個鍵的消息會被寫到同一個分區上。生產者也可以使用自定義的分區器,根據不同的業務規則將消息映射到分區。

生產者發送消息的方式

生產者發送消息主要有 2 種方式:同步發送消息、非同步發送消息

同步發送消息

同步發送消息:我們調用 KafkaProducer 的 send() 方法發送消息,send() 方法會返回一個包含 RecordMetadata 的 Future 對象,然後調用 Future 的 get() 方法等待 Kafka 響應,通過 Kafka 的響應,我們就可以知道消息是否發送成功。

  • 如果伺服器返回錯誤,Future 的 get() 方法會拋出異常。
  • 如果沒有發生錯誤,我們會得到一個 RecordMetadata 對象,這個對象包含消息的目標主題、分區信息和消息的偏移量等信息。

我們調用 KafkaProducer 的 send() 方法發送 ProducerRecord 對象,消息先是被放進緩衝區,然後使用單獨的線程將消息發送到伺服器端。


異常處理

如果在發送數據之前或者在發送過程中發生了任何錯誤,比如 broker 返回了一個不允許重發消息的異常或者已經超過了重發的次數,那麼就會拋出異常。在發送消息之前,生產者也是有可能發生異常的。這些異常有可能是 SerializationException(說明序列化消息失敗)、BufferExhaustedException 或 TimeoutException(說明緩衝區已滿),又或者是 InterruptException(說明發送線程被中斷)。

KafkaProducer 一般會發生兩類錯誤。

  • 其中一類是可重試錯誤,這類錯誤可以通過重發消息來解決。比如對於連接錯誤,可以通過再次建立連接來解決,“無主(no leader)”錯誤則可以通過重新為分區選舉首領來解決。KafkaProducer 可以被配置成自動重試,如果在多次重試後仍無法解決問題,應用程式會收到一個重試異常。
  • 另一類錯誤無法通過重試解決,比如“消息太大”異常。對於這類錯誤,KafkaProducer 不會進行任何重試,直接拋出異常。
public void send(String topic, String key, String val) {

    ProducerRecord<String, String> producerRecord = new ProducerRecord<>(topic, key, val);

    try {
        ListenableFuture<SendResult<String, String>> future = kafkaTemplate.send(producerRecord);
        SendResult<String, String> sendResult = future.get();
    } catch (Exception e) {
        e.printStackTrace();
    }
}

非同步發送消息

非同步發送消息:我們調用 KafkaProducer 的 send() 方法,並指定一個回調方法,在伺服器返迴響應時調用該方法。

大多數時候,我們並不需要等待響應。不過在遇到消息發送失敗時,我們需要拋出異常、記錄錯誤日誌,或者把消息寫入“錯誤消息”文件以便日後分析。為了在非同步發送消息的同時能夠對異常情況進行處理,生產者提供了回調支持。

為了使用回調,需要一個實現了 org.apache.kafka.clients.producer.Callback 介面的類,這個介面只有一個 onCompletion() 方法。如果 Kafka 返回一個錯誤,onCompletion() 方法會拋出一個非空異常。通過 onCompletion() 方法拋出的異常,我們可以對發送失敗的消息進行處理。一般情況下,因為生產者會自動進行重試,所以就沒必要在代碼邏輯里處理那些可重試的錯誤。你只需要處理那些不可重試的錯誤或重試次數超出上限的情況。

private class DemoProducerCallback implements Callback {
    @Override
    public void onCompletion(RecordMetadata recordMetadata, Exception e) {
        if (e != null) {
            e.printStackTrace();
        }
    }
}

ProducerRecord<String, String> record = new ProducerRecord<>("CustomerCountry", "Biomedical Materials", "USA");

producer.send(record, new DemoProducerCallback());

分區器

介紹分區

ProducerRecord 對象包含目標主題、消息鍵和值(消息)。

  • 如果消息鍵為 null,並且使用了預設的 DefaultPartitioner 分區器,那麼分區器使用粘性分區策略(UniformSticky),會隨機選擇一個分區,並儘可能一直使用該分區,等到該分區的 batch 已滿或者已完成,Kafka 再隨機一個分區進行使用(保證和上一次的分區不同)。
  • 如果消息鍵不為 null,並且使用了預設的 DefaultPartitioner 分區器,那麼分區器會對消息鍵進行散列(使用 Kafka 自己的散列演算法,即使升級 Java 版本,散列值也不會發生變化),然後根據散列值把消息映射到特定的分區上(散列值 與 主題的分區數進行取餘得到 partition 值)。

這裡的關鍵之處在於,同一個鍵總是被映射到同一個分區上,所以在進行映射時,我們會使用主題的所有分區,而不僅僅是可用的分區。這也意味著,如果寫入數據的分區是不可用的,那麼就會發生錯誤。

只有在不改變主題分區數量的情況下,鍵與分區之間的映射才能保持不變。一旦主題增加了新的分區,那麼鍵與分區之間的映射關係就改變了。如果要使用鍵來映射分區,那麼最好在創建主題的時候就把分區規劃好,而且永遠不要增加新分區。

自定義分區策略

生產者可以使用自定義的分區器,根據不同的業務規則將消息映射到分區。

通過分區器實現自定義分區策略的步驟:

  1. 定義一個類,該類實現 Partitioner 介面(分區器)
  2. 配置生產者(KafkaProducer),讓生產者發送消息時使用自定義的分區器:properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, MyPartitioner.class.getName());
public class MyPartitioner implements Partitioner {

    /**
     * 返回信息對應的分區
     *
     * @param topic      主題
     * @param key        消息的 key
     * @param keyBytes   消息的 key 序列化後的位元組數組
     * @param value      消息的 value
     * @param valueBytes 消息的 value 序列化後的位元組數組
     * @param cluster    集群元數據可以查看分區信息
     * @return
     */
    @Override
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);

        if ((keyBytes == null) || (!(key instanceof String))) {
            throw new InvalidRecordException("We expect all messages to have String type as key");
        }

        // 實現自己的分區策略
        // 返回數據寫入的分區號
        return 0;
    }

    // 關閉資源
    @Override
    public void close() {
    }

    // 配置方法
    @Override
    public void configure(Map<String, ?> configs) {
    }
}

參考資料

《Kafka 權威指南》第 3 章:Kafka 生產者——向 Kafka 寫入數據

本文來自博客園,作者:真正的飛魚,轉載請註明原文鏈接:https://www.cnblogs.com/feiyu2/p/17250979.html


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 1 降壓 電容有容抗,可以承擔分壓的作用。容抗計算如下 Xc=1/(2πfc) 其中 f 為電流頻率 ,c 為電容大小。 計算電容分壓時不要忘記電容電壓相位差與電阻等普通元件相差π/2。 例如下圖,若要電容分壓210v,則需要電容分擔電壓大小為Vc=(220^2-10^2)^0.5=219.77v, ...
  • 本系列旨在交流 ESP32-S3 硬體開發環境的搭建,通過一些基本的示例來展示怎麼用 ESP-IDF (Espressif IoT Development Framework) 來安裝、配置環境,並編譯、下載固件至 BPI-Leaf-S3 開發板等步驟。如果有什麼沒提到或者有問題的,歡迎各位留言交流... ...
  • 存儲過程 特定功能的的SQL指令 進行封裝 編譯之後存儲在資料庫伺服器中客戶端通過名字調用這個SQL指令集 優點: 防止SQL 在網路中惡意修改 無需客戶端編寫 通過網路傳送 存儲過程 SQL存在邏輯關係 支持流程式控制制 分支 迴圈 ##基本語法 創建存儲過程 輸入參數 a 輸入參數b 都是 int ...
  • windows安裝redis及配置教程,附網盤資源 鏈接:https://pan.baidu.com/s/1KvcyY27_q7aI2hQ7QRsEGA?pwd=iidx 一、windows系統安裝及配置 解壓文件,準備開始配置、安裝服務。 1.1、註冊redis的windows服務 在該文件夾中打 ...
  • windows安裝mysql8免安裝版教程,附網盤資源 鏈接:https://pan.baidu.com/s/1_qagfA-i7CbeWG3urIAlgw?pwd=iidx 提取碼:iidx 一、前言 本次使用的mysql版本為mysql8.0.32,安裝的系統為windows系統。使用免安裝的方 ...
  • 本文分享自華為雲社區《選擇KV資料庫最重要的是什麼?》,作者:GaussDB 資料庫 。 經常有客戶提到KV資料庫,但卻偏偏“不要Redis”。比如有個做安全威脅分析平臺的客戶,他們明確表示自己對可靠性要求非常高,需要的不是開源Redis這種記憶體緩存庫,而是KV資料庫。 雖然最後我也沒問清楚他們業務 ...
  • 一、工具介紹 YCSB 於 2010 年開源,YCSB是雅虎開源的NoSQL測試工具,通常用來對noSQL資料庫進行性能,註意此工具僅支持varchar和text類型,且列的長度可以增加,預設是10列,可以根據自己的需要增加列長。運行一個壓力測試需要 6 步: 配置需要測試的資料庫 選擇合適的資料庫 ...
  • 在MySQL中,如果訪問/連接MySQL資料庫時遇到“ERROR 2003 (HY000): Can't connect to MySQL server on 'xxx.xxx.xxx.xxx:xxx' (111)”這個錯誤,我們應該從哪些方面進行考慮和排查問題呢? 下圖是我總結整理的一個思維導圖, ...
一周排行
    -Advertisement-
    Play Games
  • 1、預覽地址:http://139.155.137.144:9012 2、qq群:801913255 一、前言 隨著網路的發展,企業對於信息系統數據的保密工作愈發重視,不同身份、角色對於數據的訪問許可權都應該大相徑庭。 列如 1、不同登錄人員對一個數據列表的可見度是不一樣的,如數據列、數據行、數據按鈕 ...
  • 前言 上一篇文章寫瞭如何使用RabbitMQ做個簡單的發送郵件項目,然後評論也是比較多,也是準備去學習一下如何確保RabbitMQ的消息可靠性,但是由於時間原因,先來說說設計模式中的簡單工廠模式吧! 在瞭解簡單工廠模式之前,我們要知道C#是一款面向對象的高級程式語言。它有3大特性,封裝、繼承、多態。 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 介紹 Nodify是一個WPF基於節點的編輯器控制項,其中包含一系列節點、連接和連接器組件,旨在簡化構建基於節點的工具的過程 ...
  • 創建一個webapi項目做測試使用。 創建新控制器,搭建一個基礎框架,包括獲取當天日期、wiki的請求地址等 創建一個Http請求幫助類以及方法,用於獲取指定URL的信息 使用http請求訪問指定url,先運行一下,看看返回的內容。內容如圖右邊所示,實際上是一個Json數據。我們主要解析 大事記 部 ...
  • 最近在不少自媒體上看到有關.NET與C#的資訊與評價,感覺大家對.NET與C#還是不太瞭解,尤其是對2016年6月發佈的跨平臺.NET Core 1.0,更是知之甚少。在考慮一番之後,還是決定寫點東西總結一下,也回顧一下.NET的發展歷史。 首先,你沒看錯,.NET是跨平臺的,可以在Windows、 ...
  • Nodify學習 一:介紹與使用 - 可樂_加冰 - 博客園 (cnblogs.com) Nodify學習 二:添加節點 - 可樂_加冰 - 博客園 (cnblogs.com) 添加節點(nodes) 通過上一篇我們已經創建好了編輯器實例現在我們為編輯器添加一個節點 添加model和viewmode ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...
  • 類型檢查和轉換:當你需要檢查對象是否為特定類型,並且希望在同一時間內將其轉換為那個類型時,模式匹配提供了一種更簡潔的方式來完成這一任務,避免了使用傳統的as和is操作符後還需要進行額外的null檢查。 複雜條件邏輯:在處理複雜的條件邏輯時,特別是涉及到多個條件和類型的情況下,使用模式匹配可以使代碼更 ...
  • 在日常開發中,我們經常需要和文件打交道,特別是桌面開發,有時候就會需要載入大批量的文件,而且可能還會存在部分文件缺失的情況,那麼如何才能快速的判斷文件是否存在呢?如果處理不當的,且文件數量比較多的時候,可能會造成卡頓等情況,進而影響程式的使用體驗。今天就以一個簡單的小例子,簡述兩種不同的判斷文件是否... ...
  • 前言 資料庫併發,數據審計和軟刪除一直是數據持久化方面的經典問題。早些時候,這些工作需要手寫複雜的SQL或者通過存儲過程和觸發器實現。手寫複雜SQL對軟體可維護性構成了相當大的挑戰,隨著SQL字數的變多,用到的嵌套和複雜語法增加,可讀性和可維護性的難度是幾何級暴漲。因此如何在實現功能的同時控制這些S ...