Python開發MapReduce系列(一)WordCount Demo

来源:http://www.cnblogs.com/liangjf/archive/2017/09/17/liangjf.html
-Advertisement-
Play Games

原創,轉發請註明出處。 MapReduce是hadoop這隻大象的核心,Hadoop 中,數據處理核心就是 MapReduce 程式設計模型。一個Map/Reduce 作業(job) 通常會把輸入的數據集切分為若幹獨立的數據塊,由 map任務(task)以完全並行的方式處理它們。框架會對map的輸出 ...


   原創,轉發請註明出處。

  MapReduce是hadoop這隻大象的核心,Hadoop 中,數據處理核心就是 MapReduce 程式設計模型。一個Map/Reduce 作業(job) 通常會把輸入的數據集切分為若幹獨立的數據塊,由 map任務(task)以完全並行的方式處理它們。框架會對map的輸出先進行排序, 然後把結果輸入給reduce任務。通常作業的輸入和輸出都會被存儲在文件系統中。因此,我們的編程中心主要是 mapper階段和reducer階段。

下麵來從零開發一個MapReduce程式,併在hadoop集群上運行。
mapper代碼 map.py:

 import sys
    
    for line in sys.stdin:
        word_list = line.strip().split(' ')    
        for word in word_list:
            print '\t'.join([word.strip(), str(1)]) 
View Code

reducer代碼 reduce.py:

 import sys
    
    cur_word = None
    sum = 0
    
    for line in sys.stdin:
        ss = line.strip().split('\t')
        
        if len(ss) < 2:
            continue
    
        word = ss[0].strip()
        count = ss[1].strip()
    
        if cur_word == None:
            cur_word = word
    
        if cur_word != word:
            print '\t'.join([cur_word, str(sum)])
            cur_word = word
            sum = 0
        
        sum += int(count)
    
    print '\t'.join([cur_word, str(sum)])
    sum = 0
View Code

資源文件 src.txt(測試用,在集群中跑時,記得上傳到hdfs上):

hello    
    ni hao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni haoao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao
    Dad would get out his mandolin and play for the family
    Dad loved to play the mandolin for his family he knew we enjoyed singing
    I had to mature into a man and have children of my own before I realized how much he had sacrificed
    I had to,mature into a man and,have children of my own before.I realized how much he had sacrificed
View Code

首先本地調試查看結果是否正確,輸入命令以下:

cat src.txt | python map.py | sort -k 1 | python reduce.py

 命令行中輸出的結果:

 a    2
    and    2
    and,have    1
    ao    1
    before    1
    before.I    1
    children    2
    Dad    2
    enjoyed    1
    family    2
    for    2
    get    1
    had    4
    hao    33
    haoao    1
    haoni    3
    have    1
    he    3
    hello    1
    his    2
    how    2
    I    3
    into    2
    knew    1
    loved    1
    man    2
    mandolin    2
    mature    1
    much    2
    my    2
    ni    34
    of    2
    out    1
    own    2
    play    2
    realized    2
    sacrificed    2
    singing    1
    the    2
    to    2
    to,mature    1
    we    1
    would    1
View Code

通過調試發現本地調試,代碼是OK的。下麵扔到集群上面跑。為了方便,專門寫了一個腳本 run.sh,解放勞動力嘛。

   HADOOP_CMD="/home/hadoop/hadoop/bin/hadoop"
    STREAM_JAR_PATH="/home/hadoop/hadoop/contrib/streaming/hadoop-streaming-1.2.1.jar"
    
    INPUT_FILE_PATH="/home/input/src.txt"
    OUTPUT_PATH="/home/output"
    
    $HADOOP_CMD fs -rmr  $OUTPUT_PATH 
    
    $HADOOP_CMD jar $STREAM_JAR_PATH \
        -input $INPUT_FILE_PATH \
        -output $OUTPUT_PATH \
        -mapper "python map.py" \
        -reducer "python reduce.py" \
        -file ./map.py \
        -file ./reduce.py

下麵解析下腳本:

   HADOOP_CMD: hadoop的bin的路徑
    STREAM_JAR_PATH:streaming jar包的路徑
    INPUT_FILE_PATH:hadoop集群上的資源輸入路徑
    OUTPUT_PATH:hadoop集群上的結果輸出路徑。(註意:這個目錄不應該存在的,因此在腳本加了先刪除這個目錄。**註意****註意****註意**:若是第一次執行,沒有這個目錄,會報錯的。可以先手動新建一個新的output目錄。)
    $HADOOP_CMD fs -rmr  $OUTPUT_PATH
    
    $HADOOP_CMD jar $STREAM_JAR_PATH \
        -input $INPUT_FILE_PATH \
        -output $OUTPUT_PATH \
        -mapper "python map.py" \
        -reducer "python reduce.py" \
        -file ./map.py \
        -file ./reduce.py                 #這裡固定格式,指定輸入,輸出的路徑;指定mapper,reducer的文件;並分發mapper,reducer角色的我們用戶寫的代碼文件,因為集群其他的節點還沒有mapper、reducer的可執行文件。

   輸入以下命令查看經過reduce階段後輸出的記錄:

cat src.txt | python map.py | sort -k 1 | python reduce.py | wc -l
命令行中輸出:43

在瀏覽器輸入:master:50030 查看任務的詳細情況。

Kind    % Complete    Num Tasks    Pending    Running    Complete    Killed     Failed/Killed Task Attempts
map       100.00%        2            0        0        2            0            0 / 0
reduce    100.00%        1            0        0        1            0            0 / 0

 Map-Reduce Framework中看到這個。

Counter                      Map    Reduce    Total
Reduce output records    0      0          43

證明整個過程成功。第一個hadoop程式開髮結束。


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • - 安裝 body-parser模塊- npm install body-parser -S- 調用- let bodyParser=require('body-parser');- 設置中間件- app.use(bodyParser.urlencoded({extended:true}));- 判 ...
  • 轉載請註明原創出處,謝謝! 問題 這個Xmn設置為1G,,我用jmap heap 看,這個Eden From To怎麼不是一個整8:1:1的關係呢? 我看記憶體分配還是沒變,我Xmn1g,感覺From、To應該都是102.4M才對,現在是102.375M。 執行命令 結果: 發現很奇怪,的確和我們相信 ...
  • 轉載需要著名出處: 之前寫過微信登錄分享支付第一版: 前言 大部分的app都有接入第三方sdk的需求。例如第三方登錄需要接入微信、QQ、微博。第三方支付需要接入微信、支付寶、銀聯。 這些我都有使用過,都有使用過他們的sdk,感覺最麻煩的就是微信,不能直接調試,得用正式的簽名進行簽名才能調試。還有他們 ...
  • 數據泵技術是Oracle Database 10g 中的新技術,它比原來導入/導出(imp,exp)技術快15-45倍。速度的提高源於使用了並行技術來讀寫導出轉儲文件。 ...
  • 最近在學習Oracle的統計信息這一塊,收集統計信息的方法如下: DBMS_STATS.GATHER_TABLE_STATS ( ownname VARCHAR2, 所有者名字 tabname VARCHAR2, 表名 partname VARCHAR2 DEFAULT NULL, 要分析的分區名 ...
  • 將所學知識整理一下,備忘。 1. Hdfs (v 2.7.3) 1.1.啟動集群 註:這個啟動腳本是通過ssh對多個節點的namenode、datanode、journalnode以及zkfc進程進行批量啟動的。 1.2.啟動NameNode 1.3.啟動DataNode 1.4.停止集群 1.5. ...
  • 一.Oracle的支持數據類型 1.字元串類型 char 固定長度(定義時即已確定長度,空餘位置被補全),最大長度255,如 name char(10),'中'會占用10個長度; varchar2 長度不固定,根據實際情況占用,空餘被放棄,最大長度3999,如 name varchar2(10),'... ...
  • SQL概念:結構化查詢語言(SQL = Structured Query Language),也是一種編程語言(資料庫查詢和程式設計語言),可以用於數據的存取及查詢,更新,管理關係型資料庫系統ps: 不同資料庫系統之間的SQL不能完全相互通用;分類針對操作的對象不同,可以分成不同語言1: 數據操作( ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...