Mongo Spark Connector中的分區器(一)

来源:https://www.cnblogs.com/softlin/archive/2020/06/27/13199392.html
-Advertisement-
Play Games

MongoSpark為入口類,調用MongoSpark.load,該方法返回一個MongoRDD類對象,Mongo Spark Connector框架本質上就是一個大號的自定義RDD,加了些自定義配置、適配幾種分區器規則、Sql的數據封裝等等,個人認為相對核心的也就是分區器的規則實現;弄清楚了其分析 ...


  MongoSpark為入口類,調用MongoSpark.load,該方法返回一個MongoRDD類對象,Mongo Spark Connector框架本質上就是一個大號的自定義RDD,加了些自定義配置、適配幾種分區器規則、Sql的數據封裝等等,個人認為相對核心的也就是分區器的規則實現;弄清楚了其分析器也就搞明白了Mongo Spark Connector 。

當前實現的分區器(Partitioner):

  MongoPaginateByCountPartitioner 基於總數的分頁分區器
  MongoPaginateBySizePartitioner 基於大小的分頁分區器
  MongoSamplePartitioner 基於採樣的分區器
  MongoShardedPartitioner 基於分片的分區器
  MongoSinglePartitioner 單分區分區器
  MongoSplitVectorPartitioner 基於分割向量的分區器

  這裡根據源碼簡單介紹MongoSinglePartitioner與MongoSamplePartitioner分區器,這或許就是用得最多的兩種分區器,他的預設分區器(DefaultMongoPartitioner)就是MongoSamplePartitioner分區器;
該分區預設的PartitionKey為_id、預設PartitionSizeMB為64MB、預設每個分區採樣為10;

MongoSamplePartitioner

  該類的核心也是唯一的方法為:partitions方法,下麵為該方法的執行流程與核心邏輯;
  1、檢查執行buildInfo指令檢查Mongo版本用於判斷是否支持隨機採樣聚合運算,版本大於3.2。 hasSampleAggregateOperator方法。Mongo3.2版本中才新增了數據採樣功能。
  Mongodb中的語法為:

db.cName.aggregate([
  {$sample:{ size: 10 } }
])

  上示例N等於10,如果N大於collection中總數據的5%,那麼$sample將會執行collection掃描、sort,然後選擇top N條文檔;如果N小於5%,對於wiredTiger而言則會遍歷collection並使用“偽隨機”的方式選取N條文檔,對於MMAPv1引擎則在_id索引上隨機選取N條文檔。
  2、執行collStats,用於獲取集合的存儲信息,如行數、大小、存儲大小等等信息;
  matchQuery: 過濾條件
  partitionerOptions: ReadConfig傳進去的分析器選項
  partitionKey: 分區key,預設為_id
  partitionSizeInBytes: 分區大小,預設64MB
  samplesPerPartition: 每個分區預設採樣數量,預設10
  count: 集合總條數
  avgObjSizeInBytes: 對象平均位元組數
  numDocumentsPerPartition: 每個分區文檔數,   partitionSizeInBytes / avgObjSizeInBytes:分區大小/對象平均大小
  numberOfSamples: 採樣數量,samplesPerPartition * count / numDocumentsPerPartition,每個分區採樣數*集合總數/每個分區文檔數

  如每個分區文檔數大於集合總文檔數,則將直接創建單分區,不採取採樣數據方式創建分區,因為此時數據量太少單個分區已經可以容得下無需多個分區;

一、創建單分區

  在MongoSinglePartitioner類中通過PartitionerHelper.createPartitions執行相關邏輯;
  _id作為partitionKey,

二、通過採樣數據創建分區

  指定採樣條件、採樣數據量、PartitionKey、排序條件等,獲取採樣數據;
集合拆分:

def collectSplit(i: Int): Boolean = (i % samplesPerPartition == 0) || !matchQuery.isEmpty && i == count – 1

右側邊界:

val rightHandBoundaries = samples.zipWithIndex.collect {
case (field, i) if collectSplit(i) => field.get(partitionKey)
}

  獲取右側邊界,使用採樣數據數組索引對每個分區採樣數求餘等於0對採樣數據進行過濾取右側邊界(如匹配條件不為空則再取最後一條數據);
  如採樣得到62條數據,並且沒有存在匹配條件,根據上述的採樣數據過濾條件最後取得7條數據,分別為數據數組索引為0、索引為10、20、30、40、50、60的7條數據,數據的值為PartitionKey預設就是集合中_id欄位的值;

創建分區(Partitions)

  獲取得到PartitionKey、rightHandBoundaries後就可以調用PartitionerHelper.createPartitions創建Partition;下麵為創建Partition的具體邏輯;
  使用PartitionKey創建查詢邊界,每個分區具有不同的查詢邊界,有最大、最小邊界; 此處創建分區Partition併在每個分區中指定了查詢邊界;
  上面獲取得到了7條數據,此處將創建8個分區;下麵給出了簡單數據用於說明該分區邊界條件的基本邏輯與實現;

  1、創建Min、1、3、5、7、9、11、13、Max的序列
  2、創建1、3、5、7、9、11、13、Max序列
  3、使用zip將兩個序列拉鏈式的合併:合併後的數據為:
  4、Min,1、1,3、3,5、5,7、7,9、9,11、11,13、13,Max

  Partition的邊界條件將使用上面的邊界條件,8條數據八個Partition一個對應;
  0 Partition的邊界條件為:小於1
  1 Partition的邊界條件為:大於等於1 小於 3
  2 Partition的邊界條件為:大於等於3 小於 5
  3 Partition的邊界條件為:大於等於5 小於 7
  4 Partition的邊界條件為:大於等於7小於 9
  5 Partition的邊界條件為:大於等於9 小於 11
  6 Partition的邊界條件為:大於等於11 小於 13
  7 Partition的邊界條件為:大於等於13
  上面的8個Partition為8個MongoPartition對象,每個對象的index、查詢邊界與上面所說的一一對應;
  在MongoRDD類的compute方法中可以看到根據對應的分區與上面創建分區時所建立的邊界條件用於計算(從Mongo中獲取對應數據);

分區1分區與邊界條件

MongoSinglePartitioner

  創建單分區分區器時,直接調用PartitionerHelper.createPartitions方法創建分區,該類並無其他邏輯,並且固定的PartitionKey為_id,右側邊界條件為空集合,然後創建id為0的MongoPartition對象,並無查詢邊界;


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 普利姆演算法(加點法)求最小生成樹 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> ...
  • jdk1.7中的底層實現過程(底層基於數組+鏈表) 在我們new HashMap()時,底層創建了預設長度為16的一維數組Entry[ ] table。當我們調用map.put(key1,value1)方法向HashMap里添加數據的時候: 首先,調用key1所在類的hashCode()計算key1 ...
  • tomcat伺服器源碼解讀,整體結構梳理,開源server,java servlet容器 ...
  • 跟大多數編程語言一樣,python中的迴圈有兩種: while迴圈和for迴圈 首先,介紹一下while迴圈,結合案例做一些練習。 +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++while迴圈語法結構:while ...
  • 今天博主再給大家分享一個小項目:MiNi圖書管理系統。用的是Java語言開發的,代碼不多,大概260行左右吧,系統是實現圖書的新增圖書、刪除圖書、借閱圖書、歸還圖書、查看圖書等簡單的功能(後附源代碼)! 首先展示一下運行界面效果圖:運行代碼後,會在控制台顯示如下界面: 然後讓用戶選擇,如果用戶不小心 ...
  • import pandas a=pandas.read_excel() def abc(x): return ','.join(x.values) b=a.groupby(['列名'1])['列名2'].apply(abc) c=b.reset_index() print(c) ...
  • WebSocket 非同步風格伺服器 WebSocket\Server 繼承自 Http\Server,所以 Http\Server 提供的所有 API 和配置項都可以使用。 # ws_server.php class WebSocket { public $server; public functi ...
  • 一.環境要求 安裝java 1.8 以上 命令行運行 java -version 返回版本大於1.8 如果沒有,請安裝java 1.8 二.下載與安裝 下載apktool_x.x.x.jar到本地 官網下載或者 鏡像下載 重命名下載的apktool_x.x.x.jar,改名為apktool.jar ...
一周排行
    -Advertisement-
    Play Games
  • 前言 在我們開發過程中基本上不可或缺的用到一些敏感機密數據,比如SQL伺服器的連接串或者是OAuth2的Secret等,這些敏感數據在代碼中是不太安全的,我們不應該在源代碼中存儲密碼和其他的敏感數據,一種推薦的方式是通過Asp.Net Core的機密管理器。 機密管理器 在 ASP.NET Core ...
  • 新改進提供的Taurus Rpc 功能,可以簡化微服務間的調用,同時可以不用再手動輸出模塊名稱,或調用路徑,包括負載均衡,這一切,由框架實現並提供了。新的Taurus Rpc 功能,將使得服務間的調用,更加輕鬆、簡約、高效。 ...
  • 順序棧的介面程式 目錄順序棧的介面程式頭文件創建順序棧入棧出棧利用棧將10進位轉16進位數驗證 頭文件 #include <stdio.h> #include <stdbool.h> #include <stdlib.h> 創建順序棧 // 指的是順序棧中的元素的數據類型,用戶可以根據需要進行修改 ...
  • 前言 整理這個官方翻譯的系列,原因是網上大部分的 tomcat 版本比較舊,此版本為 v11 最新的版本。 開源項目 從零手寫實現 tomcat minicat 別稱【嗅虎】心有猛虎,輕嗅薔薇。 系列文章 web server apache tomcat11-01-官方文檔入門介紹 web serv ...
  • C總結與剖析:關鍵字篇 -- <<C語言深度解剖>> 目錄C總結與剖析:關鍵字篇 -- <<C語言深度解剖>>程式的本質:二進位文件變數1.變數:記憶體上的某個位置開闢的空間2.變數的初始化3.為什麼要有變數4.局部變數與全局變數5.變數的大小由類型決定6.任何一個變數,記憶體賦值都是從低地址開始往高地 ...
  • 如果讓你來做一個有狀態流式應用的故障恢復,你會如何來做呢? 單機和多機會遇到什麼不同的問題? Flink Checkpoint 是做什麼用的?原理是什麼? ...
  • C++ 多級繼承 多級繼承是一種面向對象編程(OOP)特性,允許一個類從多個基類繼承屬性和方法。它使代碼更易於組織和維護,並促進代碼重用。 多級繼承的語法 在 C++ 中,使用 : 符號來指定繼承關係。多級繼承的語法如下: class DerivedClass : public BaseClass1 ...
  • 前言 什麼是SpringCloud? Spring Cloud 是一系列框架的有序集合,它利用 Spring Boot 的開發便利性簡化了分散式系統的開發,比如服務註冊、服務發現、網關、路由、鏈路追蹤等。Spring Cloud 並不是重覆造輪子,而是將市面上開發得比較好的模塊集成進去,進行封裝,從 ...
  • class_template 類模板和函數模板的定義和使用類似,我們已經進行了介紹。有時,有兩個或多個類,其功能是相同的,僅僅是數據類型不同。類模板用於實現類所需數據的類型參數化 template<class NameType, class AgeType> class Person { publi ...
  • 目錄system v IPC簡介共用記憶體需要用到的函數介面shmget函數--獲取對象IDshmat函數--獲得映射空間shmctl函數--釋放資源共用記憶體實現思路註意 system v IPC簡介 消息隊列、共用記憶體和信號量統稱為system v IPC(進程間通信機制),V是羅馬數字5,是UNI ...