基於SpringBoot 使用 Flink 收發Kafka消息

来源:https://www.cnblogs.com/dk168/archive/2023/01/06/17031253.html
-Advertisement-
Play Games

pom.xml中引入依賴 <!-- https://mvnrepository.com/artifact/org.apache.commons/commons-lang3 --> <dependency> <groupId>org.apache.commons</groupId> <artifact ...


前言

這周學習下Flink相關的知識,學習到一個讀寫Kafka消息的示例, 自己動手實踐了一下,別人示例使用的是普通的Java Main方法,沒有用到spring boot. 我們在實際工作中會使用spring boot。 因此我做了些加強, 把流程打通了,過程記錄下來。

準備工作

首先我們通過docker安裝一個kafka服務,參照Kafka的官方知道文檔
https://developer.confluent.io/tutorials/kafka-console-consumer-producer-basics/kafka.html
主要的是有個docker-compose.yml文件

---
version: '2'

services:
  zookeeper:
    image: confluentinc/cp-zookeeper:7.3.0
    hostname: zookeeper
    container_name: zookeeper
    ports:
      - "2181:2181"
    environment:
      ZOOKEEPER_CLIENT_PORT: 2181
      ZOOKEEPER_TICK_TIME: 2000

  broker:
    image: confluentinc/cp-kafka:7.3.0
    hostname: broker
    container_name: broker
    depends_on:
      - zookeeper
    ports:
      - "29092:29092"
    environment:
      KAFKA_BROKER_ID: 1
      KAFKA_ZOOKEEPER_CONNECT: 'zookeeper:2181'
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXT
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://broker:9092,PLAINTEXT_HOST://localhost:29092
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
      KAFKA_GROUP_INITIAL_REBALANCE_DELAY_MS: 0


docker compose up -d
就可以把kafka docker 環境搭起來,
使用以下命令,創建一個flink.kafka.streaming.source的topic
docker exec -t broker kafka-topics --create --topic flink.kafka.streaming.source --bootstrap-server broker:9092
然後使用命令,就可以進入到kafka機器的命令行
docker exec -it broker bash
官方文檔示例中沒有-it, 運行後沒有進入broker的命令行,加上來才可以。這裡說明下

Flink我們打算直接採用開發工具運行,暫時未搭環境,以體驗為主。

開發階段

首先需要引入的包POM文件

    <properties>
        <jdk.version>1.8</jdk.version>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <spring-boot.version>2.7.7</spring-boot.version>
        <flink.version>1.16.0</flink.version>
    </properties>
    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-dependencies</artifactId>
                <version>${spring-boot.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter</artifactId>
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
    </dependencies>

這裡我們使用Java8, 本來想使用Spring Boot 3的,但是Spring Boot 3 最低需要Java17了, 目前Flink支持Java8和Java11,所以我們使用Spring Boot 2, Java 8來開發。

spring-boot-starter 我們就一個命令行程式,所以用這個就夠了
lombok 用來定義model
flink-java, flink-clients, flink-streaming-java 是使用基本組件, 缺少flink-clients編譯階段不會報錯,運行的時候會報java.lang.IllegalStateException: No ExecutorFactory found to execute the application.
flink-connector-kafka 是連接kafka用
我們這裡把provided, 打包的時候不用打包flink相關組件,由運行環境提供。但是IDEA運行的時候會報java.lang.NoClassDefFoundError: org/apache/flink/streaming/util/serialization/DeserializationSchema,
在運行的configuration上面勾選上“add dependencies with provided scope to classpath”可以解決這個問題。

主要代碼

@Component
@Slf4j
public class KafkaRunner implements ApplicationRunner
{
    @Override
    public void run(ApplicationArguments args) throws Exception {
        try{

            /****************************************************************************
             *                 Setup Flink environment.
             ****************************************************************************/

            // Set up the streaming execution environment
            final StreamExecutionEnvironment streamEnv
                    = StreamExecutionEnvironment.getExecutionEnvironment();

            /****************************************************************************
             *                  Read Kafka Topic Stream into a DataStream.
             ****************************************************************************/

            //Set connection properties to Kafka Cluster
            Properties properties = new Properties();
            properties.setProperty("bootstrap.servers", "localhost:29092");
            properties.setProperty("group.id", "flink.learn.realtime");

            //Setup a Kafka Consumer on Flnk
            FlinkKafkaConsumer<String> kafkaConsumer =
                    new FlinkKafkaConsumer<>
                            ("flink.kafka.streaming.source", //topic
                                    new SimpleStringSchema(), //Schema for data
                                    properties); //connection properties

            //Setup to receive only new messages
            kafkaConsumer.setStartFromLatest();

            //Create the data stream
            DataStream<String> auditTrailStr = streamEnv
                    .addSource(kafkaConsumer);

            //Convert each record to an Object
            DataStream<Tuple2<String, Integer>> userCounts
                    = auditTrailStr
                    .map(new MapFunction<String,Tuple2<String,Integer>>() {

                        @Override
                        public Tuple2<String,Integer> map(String auditStr) {
                            System.out.println("--- Received Record : " + auditStr);
                            AuditTrail at = new AuditTrail(auditStr);
                            return new Tuple2<String,Integer>(at.getUser(),at.getDuration());
                        }
                    })

                    .keyBy(0)  //By user name
                    .reduce((x,y) -> new Tuple2<String,Integer>( x.f0, x.f1 + y.f1));

            //Print User and Durations.
            userCounts.print();

            /****************************************************************************
             *                  Setup data source and execute the Flink pipeline
             ****************************************************************************/
            //Start the Kafka Stream generator on a separate thread
            System.out.println("Starting Kafka Data Generator...");
            Thread kafkaThread = new Thread(new KafkaStreamDataGenerator());
            kafkaThread.start();

            // execute the streaming pipeline
            streamEnv.execute("Flink Windowing Example");

        }
        catch(Exception e) {
            e.printStackTrace();
        }
    }
}

簡單說明下程式
DataStream auditTrailStr = streamEnv
.addSource(kafkaConsumer);
就是接通了Kafka Source

        Thread kafkaThread = new Thread(new KafkaStreamDataGenerator());
        kafkaThread.start();

這段代碼是另外開一個線程往kafka裡面去發送文本消息
我們在這個示例中就是一個線程發,然後flink就讀出來,然後統計出每個用戶的操作時間。
auditTrailStr.map 就是來進行統計操作。

運行效果

image

可以看到Kafka一邊發送,然後我們就一邊讀出來,然後就統計出了每個用戶的時間。

總結

本文只是簡單的打通了幾個環節,對於flink的知識沒有涉及太多,算是一個環境入門。後面學習更多的以後我們再深入些來記錄flink. 示例代碼會放到 https://github.com/dengkun39/redisdemo.git spring-boot-flink 文件夾。


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 如果覺得文章對你有幫助,點贊、收藏、關註、評論,一鍵四連支持,你的支持就是我創作最大的動力。 ❤️ 本文原創聽蟬 公眾號:碼里特別有禪 歡迎關註原創技術文章第一時間推送 ❤️ 前言 沒錯,繼Flutter 異常監控 | 框架 Catcher 原理分析 之後,帶著那顆騷動的好奇心我又搗鼓著想找其他 F ...
  • 模塊化編程 1.基本介紹 傳統的非模塊化開發有如下的缺點:(1)命名衝突(2)文件依賴 JavaScript代碼越來越龐大,JavaScript引入模塊化編程,開發者只需要實現核心的業務邏輯,其他都可以載入別人已經寫好的模塊 JavaScript使用“模塊”(module)的概念來實現模塊化編程,解 ...
  • 這裡給大家分享我在網上總結出來的一些知識,希望對大家有所幫助 微信調用jssdk全流程詳解 系統框架使用的是前後端分離,前端使用vant,後端是springboot 一、網頁授權的時序圖 二、公眾號配置 1. 綁定功能變數名稱 登錄微信公眾平臺進入“公眾號設置”的“功能設置”里填寫“JS介面安全功能變數名稱”。也就 ...
  • 摘要:if-else 語句對於程式員來說,是非常非常熟悉的一個判斷語句,我們在日常開發和學習中都經常看見它。 本文分享自華為雲社區《JavaScript代碼之美—代碼優化,減少if-else冗餘的技巧》,作者:黛琳ghz。 前言 if-else 語句對於程式員來說,是非常非常熟悉的一個判斷語句,我們 ...
  • 摘要:session 和 token 本質上是沒有區別的,都是對用戶身份的認證機制,只是他們實現的校驗機制不一樣而已。 本文分享自華為雲社區《Session/Cookie/Token 還傻傻分不清?》,作者: 龍哥手記。 相信項目中用JWT Token的應該不在少數,但是發現網上很多文章對 toke ...
  • 系統運維 SIG 已在龍蜥社區建立 SIG 組。目前 sysAK 工具集已經在龍蜥社區開源,並且在系統運維 SIG、跟蹤診斷 SIG 一起共建,希望大家後期加入 SIG 一起討論共建。本文將從技術角度分享 sysAK 系統。一、 What is sysAKsysAK 是我們去年才提的概念,但裡面的功 ...
  • 如果決策引擎是風控的大腦,那麼規則引擎則是大腦內的重要構成,其編排了各種對抗黑產的規則,是多年對抗黑產的專家經驗的累計,本文將向你介紹規則引擎的構成及實現。 ...
  • 簡介: 建造者模式,又稱之為生成器模式,屬於創建型的設計模式。將一個複雜對象的構建,與它的表示分離,使得同樣的構建過程可以創建不同的表示。 適用場景: 用於創建一些複雜的對象,這些對象內部構建間的建造順序通常是穩定的(這就表名可以抽離),但對象的外在面臨著複雜的變化。 優點: 創建和表象分離 缺點: ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...