Spark Streaming

来源:http://www.cnblogs.com/one--way/archive/2016/09/16/5877552.html
-Advertisement-
Play Games

Spark Streaming Spark Streaming 是Spark為了用戶實現流式計算的模型。 數據源包括Kafka,Flume,HDFS等。 DStream 離散化流(discretized stream), Spark Streaming 使用DStream作為抽象表示。是隨時間推移而 ...


Spark Streaming 

Spark Streaming 是Spark為了用戶實現流式計算的模型。

數據源包括Kafka,Flume,HDFS等。

DStream 離散化流(discretized stream), Spark Streaming 使用DStream作為抽象表示。是隨時間推移而收到的數據的序列。DStream內部的數據都是RDD形式存儲, DStream是由這些RDD所組成的離散序列。

 

編寫Streaming步驟:

1.創建StreamingContext

// Create a local StreamingContext with two working thread and batch interval of 5 second.
// The master requires 2 cores to prevent from a starvation scenario.
val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
val ssc = new StreamingContext(conf, Seconds(5))

創建本地化StreamingContext, 需要至少2個工作線程。一個是receiver,一個是計算節點。

2.定義輸入源,創建輸入DStream

// Create a DStream that will connect to hostname:port, like localhost:9999
val lines = ssc.socketTextStream("node1", 9999)

3.定義流的計算過程,使用transformation和output operation DStream

// Split each line into words
val words = lines.flatMap(_.split(" "))

// Count each word in each batch
val pairs = words.map(word => (word, 1))
val wordCounts = pairs.reduceByKey(_ + _)

// Print the first ten elements of each RDD generated in this DStream to the console
wordCounts.print()

4.開始接收數據及處理數據,使用streamingContext.start()

ssc.start()             // Start the computation

5.等待批處理被終止,使用streamingContext.awaitTermination()

ssc.awaitTermination()  // Wait for the computation to terminate

6.可以手工停止批處理,使用streamingContext.stop()

 

數據源

數據源分為兩種

1.基本源

text,HDFS等

2.高級源

Flume,Kafka等

 

DStream支持兩種操作

一、轉化操作(transformation)

無狀態轉化(stateless):每個批次的處理不依賴於之前批次的數據

 

有狀態轉化(stateful):跨時間區間跟蹤數據的操作;一些先前批次的數據被用來在新的批次中參與運算。

  • 滑動視窗:
  • 追蹤狀態變化:updateStateByKey()

 

transform函數

transform操作允許任意RDD-to-RDD函數被應用在一個DStream中.比如在DStream中的RDD可以和DStream外部的RDD進行Join操作。通常用來過濾垃圾郵件等操作。

不屬於DStream的RDD,在每個批間隔都被調用;允許你做隨時間變化的RDD操作。RDD操作,partitions的數量,廣播變數的值,可以變化在不同的批次中。

例子:

import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
  * Created by Edward on 2016/9/16.
  */
object TransformOperation {

  def main(args: Array[String]) {
    val conf: SparkConf = new SparkConf().setMaster("local[2]").setAppName("TransformOperation")
    val ssc = new StreamingContext(conf, Seconds(5))
    val textStream: ReceiverInputDStream[String] = ssc.socketTextStream("node1",9999)

    //黑名單過濾功能,可以將數據存到redis或者資料庫,每批次間隔都會重新取數據並參與運算,保證數據可以動態載入進來。
    val blackList=Array(Tuple2("Tom", true))
    val listRDD  = ssc.sparkContext.parallelize(blackList).persist() //創建RDD

    val map  = textStream.map(x=>(x.split(" ")(1),x))
    
    //通過transform將DStream中的RDD進行過濾操作
    val dStream = map.transform(rdd =>{
      //listRDD.collect()
      //println(listRDD.collect.length)
      
      //通過RDD的左鏈接及過濾函數,對數據進行處理,生成新的RDD
      rdd.leftOuterJoin(listRDD).filter(x =>{ //使用transform操作DStream中的rdd  rdd左鏈接listRDD, 併進行過濾操作
        if(!x._2._2.isEmpty && x._2._2.get)// if(x._2._2.getOrElse(false)) //如果沒取到值則結果為false
          false
        else{
          true
        }
      })
    })

    dStream.print()

    ssc.start()
    ssc.awaitTermination()

  }
}

 

視窗函數

 

 

二、輸出操作(output operation)

 

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 【等待事件】等待事件系列(3+4)--System IO(控制文件)+日誌類等待 1 BLOG文檔結構圖 2 前言部分 2.1 導讀和註意事項 各位技術愛好者,看完本文後,你可以掌握如下的技能,也可以學到一些其它你所不知道的知識,~O(∩_∩)O~: ① 控制文件類等待 ② 日誌類等待 2.2 相關... ...
  • 每一個資料庫連接可以包括多個資料庫文件,一個主資料庫文件和attached的幾個資料庫文件。每一個資料庫文件都有自己的B-tree和pager。資料庫連接(connection)和事務(transaction)的關係1. 每一個資料庫連接都必須在事務下進行操作2. 每一個資料庫連接不同同時打開多個... ...
  • https://blueprints.launchpad.net/myconnpy/+spec/sp-multi-resultsets Calling a stored procedure can produce multiple result sets. They should be retrie ...
  • 12down votefavorite 8 8 http://stackoverflow.com/questions/31748278/how-do-you-install-mysql-connector-python-development-version-through-pip/34027037 ...
  • SQL 是用於訪問和處理資料庫的標準的電腦語言。 什麼是 SQL? SQL 指結構化查詢語言 SQL 使我們有能力訪問資料庫 SQL 是一種 ANSI 的標準電腦語言 編者註:ANSI,美國國家標準化組織 什麼是 SQL? SQL 指結構化查詢語言 SQL 使我們有能力訪問資料庫 SQL 是一種 ...
  • 之前一直沒用到這個函數,因為一般的情況下分類比較少的情況下,比如 : 男 : 0 女 : 1 我們一般會這麼設計資料庫,前臺顯示的時候一般會用select 或者 redio value = "0" 或=“1”顯示這樣確實是比較方便 其實用decode函數直接就可以使用了 select decode( ...
  • 一、登錄 打開終端,輸入/usr/local/mysql/bin/mysql -u root -p 初次進入mysql,密碼為空。當出現mysql>提示符時,表示你已經進入mysql中。鍵入exit退出mysql。 二、更改Mysqlroot用戶密碼 更改mysql root 用戶密碼,在終端輸入/ ...
  • oracle使用java source調用外部程式 需求 Oracle調用第三方外部程式。Oracle使用sqluldr2快速導出大批量數據,然後用winrar壓縮後發送郵件。 原碼 java source create or replace and compile java source name... ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...