大數據-Hadoop生態(16)-MapReduce框架原理-自定義FileInputFormat

来源:https://www.cnblogs.com/duoduotouhenying/archive/2018/12/11/10101817.html
-Advertisement-
Play Games

1. 需求 將多個小文件合併成一個SequenceFile文件(SequenceFile文件是Hadoop用來存儲二進位形式的key-value對的文件格式),SequenceFile裡面存儲著多個文件,存儲的形式為文件路徑+名稱為key,文件內容為value 三個小文件 one.txt two.t ...


 

1. 需求

將多個小文件合併成一個SequenceFile文件(SequenceFile文件是Hadoop用來存儲二進位形式的key-value對的文件格式),SequenceFile裡面存儲著多個文件,存儲的形式為文件路徑+名稱為key,文件內容為value

三個小文件

one.txt

yongpeng weidong weinan
sanfeng luozong xiaoming

two.txt

shuaige changmo zhenqiang 
dongli lingu xuanxuan

three.txt

longlong fanfan
mazong kailun yuhang yixin
longlong fanfan
mazong kailun yuhang yixin

 

2. 需求分析

 

3.案例代碼

1) 自定義RecordReader

package com.nty.inputformat;

import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

import java.io.IOException;

/**
 * author nty
 * date time 2018-12-11 9:10
 */
public class CustomRecordReader extends RecordReader<Text, BytesWritable> {

    /**
     * 由於採用了FileInputFormat的輸入方式,所以輸入源3個文件,會分成三個切片,所以一個RecordReader只處理一個文件,一次讀完
     */

    //標記文件是否被讀過,true表示沒被讀過
    private boolean flag = true;

    private Text key = new Text();
    private BytesWritable value = new BytesWritable();

    //輸入流
    FSDataInputStream fis;

    private FileSplit fs;

    /**
     * 初始化方法,只調用一次
     * @param split
     * @param context
     * @throws IOException
     * @throws InterruptedException
     */
    public void initialize(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException {
        //FileSplit是InputSplit的子類
        fs = (FileSplit) split;

        //獲取文件路徑
        Path path = fs.getPath();

        //獲取文件系統
        FileSystem fileSystem = FileSystem.get(context.getConfiguration());
        //FileSystem fileSystem = path.getFileSystem(context.getConfiguration());

        //開流
        fis = fileSystem.open(path);
    }

    /**
     * 讀取下一組KV
     * @return 讀到了返回true,反之返回false
     * @throws IOException
     * @throws InterruptedException
     */
    public boolean nextKeyValue() throws IOException, InterruptedException {
        if(flag){
            //讀取文件進入key和value
            String path = fs.getPath().toString();
            key.set(path);

            //文件是一次性讀完,bytes的長度不能為普遍的1024,當然這麼寫會涉及到大文件的問題,不做討論.
            byte[] bytes = new byte[(int) fs.getLength()];
            fis.read(bytes);
            value.set(bytes,0,bytes.length);

            //重新標記
            flag = false;

            return  true;
        }
        return false;
    }

    /**
     * 獲取當前讀到的key
     * @return
     * @throws IOException
     * @throws InterruptedException
     */
    public Text getCurrentKey() throws IOException, InterruptedException {
        return this.key;
    }

    /**
     * 獲取當前讀到的value
     * @return
     * @throws IOException
     * @throws InterruptedException
     */
    public BytesWritable getCurrentValue() throws IOException, InterruptedException {
        return this.value;
    }

    /**
     * 獲取當前讀取的進度
     * @return
     * @throws IOException
     * @throws InterruptedException
     */
    public float getProgress() throws IOException, InterruptedException {
        //文件一次讀完,只有0和1的進度,根據flag來判斷
        return flag ? 0f : 1f;
    }

    /**
     * 關閉資源
     * @throws IOException
     */
    public void close() throws IOException {
        IOUtils.closeStream(fis);
    }
}

2) 自定義Inputformat

package com.nty.inputformat;

import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.JobContext;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import java.io.IOException;

/**
 * author nty
 * date time 2018-12-11 9:09
 */
//需求中,key為文件路徑+名稱,所以key類型為Text,value為文件內容,用BytesWritable
public class CustomInputFormat extends FileInputFormat<Text, BytesWritable> {

    //最後輸出的value為一個文件,所讓文件不能被切分,返回false
    @Override
    protected boolean isSplitable(JobContext context, Path filename) {
        return false;
    }

    //返回自定義的 RecordReader
    public RecordReader<Text, BytesWritable> createRecordReader(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException {
        return new CustomRecordReader();
    }
}

3) 編寫Mapper類

package com.nty.inputformat;

import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * author nty
 * date time 2018-12-11 9:10
 */
public class CustomMapper extends Mapper<Text, BytesWritable, Text, BytesWritable> {
    @Override
    protected void map(Text key, BytesWritable value, Context context) throws IOException, InterruptedException {
        context.write(key,value);
    }
}

4) 編寫Reducer類

package com.nty.inputformat;

import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

/**
 * author nty
 * date time 2018-12-11 9:10
 */
public class CustomReducer extends Reducer<Text, BytesWritable, Text, BytesWritable> {
    @Override
    protected void reduce(Text key, Iterable<BytesWritable> values, Context context) throws IOException, InterruptedException {
        for (BytesWritable value : values) {
            context.write(key, value);
        }
    }
}

5) 編寫Driver類

package com.nty.inputformat;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat;

/**
 * author nty
 * date time 2018-12-11 9:10
 */
public class CustomDriver {

    public static void main(String[] args) throws  Exception{
        //獲取job
        Configuration configuration = new Configuration();
        Job job = Job.getInstance(configuration);

        //設置類
        job.setJarByClass(CustomDriver.class);
        //設置input和output
        job.setInputFormatClass(CustomInputFormat.class);
        job.setOutputFormatClass(SequenceFileOutputFormat.class);

        //設置Mapper和Reducer
        job.setMapperClass(CustomMapper.class);
        job.setReducerClass(CustomReducer.class);

        //設置Mapper和Reducer的輸入輸出
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(BytesWritable.class);

        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(BytesWritable.class);

        //設置文件路徑
        FileInputFormat.setInputPaths(job, new Path("d:\\Hadoop_test"));
        FileOutputFormat.setOutputPath(job, new Path("d:\\Hadoop_test_out"));
        //提交
        boolean b = job.waitForCompletion(true);

        System.exit(b ? 0 : 1);

    }
}

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 今天出去面試,碰見一個面試題,說來也巧,又是劃分子網的問題,曾經花了一整個上午研究子網,算是研究透徹了,今天正好碰上順便分享下怎麼處理這個問題 面試官說好的給我一個鐘答題,實際給了我十五分鐘,原定的和HR視頻面試時間到了,還有兩個需要用英文簡述的題沒做,有點尷尬,英語太渣,廢話不多說,對於網路精英來 ...
  • Vagrant 是一個簡單易用的部署工具,用英文說應該是 Orchestration Tool 。它能幫助開發人員迅速的構建一個開發環境,幫助測試人員構建測試環境, Vagrant 基於 Ruby 開發,使用開源 VirtualBox 作為虛擬化支持,可以輕鬆的跨平臺部署。 通俗的來說, 就是在本地 ...
  • 1、概述 i.MX 6ULL系列晶元的MMDC是一個多模式DDR控制器,支持DDR3/DDR3Lx16和LPDDR2x16的存儲類型,MMDC是可配置,高性能,優化的記憶體控制器。 註:DDR3/DDR3Lx16、LPDDR2x16 ,此處的x16表示晶元位寬,每個傳輸周期能夠提供的數據量(bit)。 ...
  • 由於某些需求,需要在蘋果OS x系統下展示一組點雲,準備使用蘋果官方的三維顯示控制項來完成這一功能。場景點雲作為離散的點, 如果每個點以SCNnode的形式加入場景中,則回造成過大的記憶體消耗,筆者電腦下,單個場景展示到1w點時記憶體就崩潰了。所以準備通過 修改單個node的shader屬性,實現自定義的 ...
  • 最近導師讓學習golang, 然後我就找了些有關golang的學習視頻和網站。 昨天在電腦上下載了go tools, 之後在sublime上配置了golang的運行環境。By the way, 我的電腦是windows的操作系統。 Golang學習資料: 學習視頻:https://www.cours ...
  • mysql 3306 主庫配置文件 [client]port = 3306default-character-set=utf8mb4socket = /ssd/mysql/3306/tmp/mysql.sock# Here follows entries for some specific prog ...
  • 硝煙剛剛散去,馬上又將迎來雙十二了。自從雙十一火了之後,逐漸的雙十二也演變成為了一個全民狂歡的購物節日。我們都知道阿裡雲在雙十一推出了拼團的優惠活動,那麼在接下來的2018年雙十二又會給到我們一些什麼樣的優惠呢?下麵阿裡雲官方雲大使伺服器吧小編就帶大家來看看。 阿裡雲在12月7日正式上線了2018年 ...
  • 一. 概述 使用和配置主從複製非常簡單,每次當 slave 和 master 之間的連接斷開時, slave 會自動重連到 master 上,並且無論這期間 master 發生了什麼, slave 都將嘗試讓自身成為 master 的精確副本。這個系統的運行依靠三個主要的機制: (1) 當一個 ma ...
一周排行
    -Advertisement-
    Play Games
  • 前言 本文介紹一款使用 C# 與 WPF 開發的音頻播放器,其界面簡潔大方,操作體驗流暢。該播放器支持多種音頻格式(如 MP4、WMA、OGG、FLAC 等),並具備標記、實時歌詞顯示等功能。 另外,還支持換膚及多語言(中英文)切換。核心音頻處理採用 FFmpeg 組件,獲得了廣泛認可,目前 Git ...
  • OAuth2.0授權驗證-gitee授權碼模式 本文主要介紹如何筆者自己是如何使用gitee提供的OAuth2.0協議完成授權驗證並登錄到自己的系統,完整模式如圖 1、創建應用 打開gitee個人中心->第三方應用->創建應用 創建應用後在我的應用界面,查看已創建應用的Client ID和Clien ...
  • 解決了這個問題:《winForm下,fastReport.net 從.net framework 升級到.net5遇到的錯誤“Operation is not supported on this platform.”》 本文內容轉載自:https://www.fcnsoft.com/Home/Sho ...
  • 國內文章 WPF 從裸 Win 32 的 WM_Pointer 消息獲取觸摸點繪製筆跡 https://www.cnblogs.com/lindexi/p/18390983 本文將告訴大家如何在 WPF 裡面,接收裸 Win 32 的 WM_Pointer 消息,從消息裡面獲取觸摸點信息,使用觸摸點 ...
  • 前言 給大家推薦一個專為新零售快消行業打造了一套高效的進銷存管理系統。 系統不僅具備強大的庫存管理功能,還集成了高性能的輕量級 POS 解決方案,確保頁面載入速度極快,提供良好的用戶體驗。 項目介紹 Dorisoy.POS 是一款基於 .NET 7 和 Angular 4 開發的新零售快消進銷存管理 ...
  • ABP CLI常用的代碼分享 一、確保環境配置正確 安裝.NET CLI: ABP CLI是基於.NET Core或.NET 5/6/7等更高版本構建的,因此首先需要在你的開發環境中安裝.NET CLI。這可以通過訪問Microsoft官網下載並安裝相應版本的.NET SDK來實現。 安裝ABP ...
  • 問題 問題是這樣的:第三方的webapi,需要先調用登陸介面獲取Cookie,訪問其它介面時攜帶Cookie信息。 但使用HttpClient類調用登陸介面,返回的Headers中沒有找到Cookie信息。 分析 首先,使用Postman測試該登陸介面,正常返回Cookie信息,說明是HttpCli ...
  • 國內文章 關於.NET在中國為什麼工資低的分析 https://www.cnblogs.com/thinkingmore/p/18406244 .NET在中國開發者的薪資偏低,主要因市場需求、技術棧選擇和企業文化等因素所致。歷史上,.NET曾因微軟的閉源策略發展受限,儘管後來推出了跨平臺的.NET ...
  • 在WPF開發應用中,動畫不僅可以引起用戶的註意與興趣,而且還使軟體更加便於使用。前面幾篇文章講解了畫筆(Brush),形狀(Shape),幾何圖形(Geometry),變換(Transform)等相關內容,今天繼續講解動畫相關內容和知識點,僅供學習分享使用,如有不足之處,還請指正。 ...
  • 什麼是委托? 委托可以說是把一個方法代入另一個方法執行,相當於指向函數的指針;事件就相當於保存委托的數組; 1.實例化委托的方式: 方式1:通過new創建實例: public delegate void ShowDelegate(); 或者 public delegate string ShowDe ...