Hadoop_簡介_01

来源:https://www.cnblogs.com/rjwudishuai/archive/2019/11/29/11960167.html
-Advertisement-
Play Games

1. Apache Hadoop 1.1 Hadoop介紹 Hadoop是Apache旗下的一個用java語言實現的開源軟體框架, 是一個開發和運行處理大規模數據的軟體平臺. 允許使用簡單的編程模型在大量電腦集群上對大型數據集進行分散式處理. Hadoop不會跟某種具體的行業或者某個具體的業務掛鉤 ...


1. Apache Hadoop

  1.1 Hadoop介紹

    Hadoop是Apache旗下的一個用java語言實現的開源軟體框架, 是一個開發和運行處理大規模數據的軟體平臺. 允許使用簡單的編程模型在大量電腦集群上對大型數據集進行分散式處理. Hadoop不會跟某種具體的行業或者某個具體的業務掛鉤, 他只是一種用來做海量數據分析處理的工具. 

    

    狹義上說, Hadoop指Apache這款開源框架, 其核心組件有: 

      HDFS (分散式文件系統) : 解決海量數據存儲

      YARN (作業調度和集群資源管理的框架) : 解決資源任務調度

      MAPREDUCE (分散式運算編程框架) : 解決海量數據計算

    廣義上說, Hadoop通常是指一個更廣泛的概念 -- Hadoop生態圈. 

    

    當下的Hadoop已經成長為一個龐大的體系

    HDFS: 分散式文件系統

    MAPREDUCE: 分散式運算程式開發框架

    HIVE: 基於Hadoop的分散式數據倉庫, 提供基於SQL的查詢數據操作

    HBASE: 基於Hadoop的分散式海量數據資料庫

    ZOOKEEPER: 分散式協調服務基礎組件

    Mahout: 基於MR / Spark / Flink等分散式運算框架的機器學習演算法庫

    OOZIE: 工作流調度框架

    SQOOP: 數據導入導出工具 (比如用於mysql和HDFS之間)

    FLUME: 日誌數據採集框架

    IMPALA: 基於Hive的實時sql查詢分析

  1.2 Hadoop發展簡史

    三篇Google論文:

    1) 2003年Google發表的第一篇論文: GFS (Google分散式文件系統)

    2) 2004年Google發表的第二篇論文: Google的MapReduce解決海量數據計算

      同一時期,Doug Cutting基於Google的兩篇論文開發出: HDFS (Hadoop的分散式文件系統) , MapReduce (基於Hadoop的分散式計算平臺) 成為Apache的頂級項目. 

    3) 2006年Google發表的第三篇論文: BigTable, 開源界根據論文開發了HBase (基於Hadoop的分散式資料庫) . 

  1.3 Hadoop特性優點

    1) 擴容能力: Hadoop是在可用的電腦集群間分配數據並完成計算任務的, 這些集群可用方便的擴展到數以千計的節點中. 

    2) 成本低: Hadoop通過廉價的機器組成伺服器集群來分發以及處理數據, 以至於成本很低. 

    3) 高效率: 通過併發數據,Hadoop可以在節點之間動態並行的移動數據, 使得速度非常快. 

    4) 可靠性: 能自動維護數據的多份複製, 並且在任務失敗後自動的重新部署計算任務. 所以Hadoop的按位存儲和處理數據的能力值得信賴. 

 

2. Hadoop集群

  2.1 發行版本

    分為開源社區版商業版

    社區版: 由Apache軟體基金會維護的版本, 是官方維護的版本體系. 

      優點: 功能最新, 免費. 

      缺點: 穩定性差, 相容性差. 

    商業版: 由第三方商業公司在社區版基礎上進行一些修改, 整合以及各個服務組件相容性測試而發行的版本, 比如著名的cloudera的CDH, mapR, hortonWorks等. 

      優點: 穩定性好, 軟體相容性好. 

      缺點: 收費, 暫時不能使用最新的Hadoop版本. 

    Hadoop版本特殊, 是由多條分支並行的發展, 大的來看分為3個大的系列版本: 1.x, 2.x, 3.x. 

    Hadoop1.x由一個分散式文件系統HDFS和一個離線計算框架MR組成. 

    Hadoop2.x包含一個支持NameNode橫向擴展的HDFS, 一個資源管理系統YARN和一個運行在YARN上的離線計算框架MR. 相比於Hadoop1.x, Hadoop2.x功能更加強大, 且具有更好的擴展性, 性能, 並支持多種計算框架. 現在是企業主流版本. 

    Hadoop3.x相比之前的Hadoop2.x有一系列的功能增強. 目前已經趨於穩定, 但是整個生態圈體系升級整合還未完畢, 所以商用還值得商榷. 

  2.2 集群簡介

    Hadoop集群具體來說包含兩個集群: HDFS集群, YARN集群, 兩者邏輯上分離, 但物理上常在一起. 

      1) HDFS集群負責海量數據的存儲, 集群中的角色主要有: NameNode, DataNode, SecondaryNameNode. 

      2) YARN集群負責海量數據運算時的資源調度, 集群中的角色主要有: ResourceManager, NodeManager. 

      其中MR其實是一個分散式運算編程框架, 是應用程式開發包, 由用戶按照編程規範進行程式開發, 後打包運行在HDFS集群上, 並且受到YARN集群的資源調度管理.  

    Hadoop部署方式分四種: Standalone mode (獨立模式) , Pseudo-Distributed mode (偽分散式模式) , Cluster mode (集群模式) , HA high availability (高可用集群模式) 其中前兩種都是在單機部署. 

      1) 獨立模式又稱為單機模式, 僅1個機器運行1個Java進程, 主要用於調試. 

      2) 偽分佈模式也是在1個機器運行HDFS的NameNode和DataNode, YARN的ResourceManager和NodeManager, 但分別啟動單獨的Java進程, 主要用於調試. 

      3) 集群模式主要用於生產環境部署. 會使用N台主機組成一個集群, 這種部署模式下, 主節點和從節點會分開部署在不同的機器上. 

      4) 高可用集群模式主要解決單點故障, 保證集群的高可用, 提高可靠性

    HDFS集群 (主從架構) : 

      主角色: NameNode (nn)

      從角色: DataNode (dn)

      主角色的輔助角色: SecondaryNameNode (snn)

    YARN集群 (主從架構) : 

      主角色: ResourceManager (rm)

      從角色: NodeManager (nm)

    MR需要開發的程式組件: 

      Map組件

      Reduce組件

    Hadoop角色分佈圖

    

    HDFS原理圖簡單分析

    

  2.3 為什麼CDH版本Hadoop要重新編譯?

    由於CDH的所有安裝包版本都給出了對應的軟體版本, 一般情況下是不需要自己進行編譯的, 但是由於CDH給出的Hadoop的安裝包沒有提供帶C程式訪問的藉口, 所有我們在使用本地庫的時候就會出現問題. (本地庫: 可以用來做壓縮, 以及支持C程式等等) 

    1) Hadoop是使用Java語言開發的, 但是有一些需求和操作並不適合使用java, 所以就引入了本地庫 (Native Libraries) 的概念. 說白了, 就是Hadoop的某些功能, 必須通過JNT來協調Java類文件和Native代碼生成的庫文件一起才能工作.

    2) linux系統要運行Native代碼, 首先要將Native編譯成目標CPU架構的 [.so] 文件. 而不同的處理器架構, 需要編譯出相應平臺的動態庫 [.so] 文件, 才能被正確的執行, 所以最好重新編譯一次hadoop源碼, 讓 [.so] 文件與自己處理器相對應. 註意: windows平臺是動態庫 [.dll] 文件

    總結: 主要是要重新編譯本地庫 (Native Libraries) 代碼 (Linux下對應 [.so] 文件,window下對應 [.dlI] 文件) , 也就是編譯生成linux下的 [.so] 文件. 

    源碼編譯後壓縮包路徑: 

    

     源碼編譯後結果: 

    

  2.4 Hadoop安裝包目錄結構

    目錄結構如下: 

    bin: Hadoop最基本的管理腳本和使用腳本的目錄

    etc: Hadoop配置文件所在的目錄

    include: 對外提供的編程庫頭文件 (具體動態庫和靜態庫在lib目錄中) . 

    lib: 包含了Hadoop對外提供的編程動態庫和靜態庫, 與include目錄中的頭文件結合使用. 

    libexec: 各個服務對用的shell配置文件所在的目錄, 可用於配置日誌輸出, 啟動參數等基本信息. 

    sbin: Hadoop管理腳本所在的目錄, 主要包括HDFS和YARN中各類服務的啟動 / 關閉腳本

    share: Hadoop各個模塊編譯後的jar包所在的目錄, 官方自帶實例

  2.5 集群規劃 

    集群規劃: 在我們準備的三台伺服器上如何搭建hadoop集群
    原則:
      1) 優先滿足軟體需要的硬體資源
      2) 儘量避免有衝突的軟體不要在一起
      3) 有依賴的軟體儘量部署在一起

    規劃安排:
      hadoop01: NameNode DataNode | ResourceManager NodeManager
      hadoop02: DataNode SecondaryNameNode | NodeManager
      hadoop03: DataNode | NodeManager

    未來擴展:
      hadoop04: DataNode NodeManager
      hadoop05: DataNode NodeManager
      hadoop06: DataNode NodeManager
      ......

  2.6 啟動, Web-UI

    要啟動Hadoop集群, 需要啟動HDFS和YARN兩個集群, 首次啟動HDFS時, 必須對其進行格式化操作. 本質上是一些清理和準備工作, 因此此時的HDFS在物理上還是不存在的. 

    Hadoop集群啟動並允許, 可以通過web-ui進行查看

    NameNode: http://nn_host:port/ 預設50070

    ResourceManager: http://rm_host:port/ 預設8088

  2.7 MapReduce JobHistory

    JobHistory用來記錄已經finished的MR運行日誌, 日誌信息存放於HDFS目錄中, 預設情況下沒有開啟此功能, 需要在mapred-site.xml中配置並手動啟動. 

    可以通過web-ui進行查看

    http://nn_host:port/ 預設19888

 

3. HDFS的垃圾桶機制

  3.1 垃圾桶機制解析

    每一個文件系統都會有垃圾桶機制, 便於將刪除的數據回收到垃圾桶里, 避免某些誤操作刪除一些重要文件. 回收到垃圾桶里的資料數據, 都可以進行恢復. 

  3.2 垃圾桶機制配置

     HDFS的垃圾回收的預設配置屬性為0, 也就是說, 如果不小心誤刪了, 那麼這個操作是不可恢復的. 修改core-site.xml , 那麼可以按照生產上的需求設置回收站的保存時間, 這個時間以分鐘為單位, 例如1440 = 24h = 1天. 

  3.3 垃圾桶機制驗證

    如果啟用垃圾桶配置, dfs命令刪除的文件不會立即從HDFS中刪除. 相反, HDFS將其移動到垃圾目錄 (每個用戶在 /user/<username>/.Trash 下都有自己的垃圾目錄). 只要文件保留在垃圾箱中, 文件可以快速回覆. 

    使用skipTrash選項刪除文件, 該選項不會將文件發送到垃圾桶, 它將從HDFS中完全刪除. 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • fail2ban是一款非常實用的安全軟體,通過監視系統日誌,設置錯誤登陸次數,可阻擋暴力密碼攻擊。 1.安裝epelyum install epel-release -y 2.安裝fail2banyum install fail2ban -y 3.配置cd /etc/fail2ban/cp jail ...
  • 1、MySQL8.0以上版本 用法1:無分組排序 Row_number() OVER(ORDER BY 欄位 DESC)例如:Row_number() OVER(ORDER BY 學生成績 DESC)表示不分班級,所有學生的成績從高到低排序用法2:分組排序ROW_NUMBER() OVER(PART ...
  • 為每個虛擬用戶建立自己的配置文件,單獨定義許可權 可以給每個虛擬用戶單獨建立目錄,並建立自己的配置文件。這樣方便單獨配置許可權,並可以單獨指定上傳目錄 1、修改配置文件 vi /etc/vsftpd/vsftpd.conf user_config_dir=/etc/vsftpd/vusers_dir # ...
  • 配置虛擬用戶訪問 首先至少要關閉userlist 改完配置文件是要重啟服務來使它生效 其實在剛裝好vsftp的時候的配置文件不用修改的情況下配置虛擬用戶訪問控制是最好的 local_root選項不影響 本地用戶登錄的目錄和虛擬用戶登錄的目錄是不產生影響的 為防止有影響,把chroot也註釋了 配置虛 ...
  • 1、nginx 簡介(1)介紹 nginx 的應用場景和具體可以做什麼事情 (2)介紹什麼是反向代理 (3)介紹什麼是負載均衡 (4)介紹什麼是動靜分離 2、nginx 安裝(1)介紹 nginx 在 linux 系統中如何進行安裝 3、nginx 常用的命令和配置文件(1)介紹 nginx 啟動、 ...
  • 工作中用到的命令以及問題彙總 2019-11-29 查看系統運行時間,這個問題是因為我們在阿裡雲上有個機器,在某一天發現這台機器上有的服務莫名奇妙的停了,然後排查時懷疑機器被重啟過用如下如下命令查看了系統運行時間,發現果不其然機器就是被重啟過: 1 cat /proc/uptime| awk -F. ...
  • 目的:在VirtualBox中最小化安裝Centos7,記錄下最小化安裝後的相關操作以及安裝的軟體,方便以後再次安裝。 網路配置 設置了兩張網卡, 網卡1 的連接方式 網路地址轉換(NAT) 用於訪問外網, 網卡2 的連接方式 僅主機(Host Only)網路 用於和宿主主機通信。 一般網路配置路徑 ...
  • 典型神經網路模型:(圖片來源:https://github.com/madalinabuzau/tensorflow-eager-tutorials) 保持更新,更多內容請關註 cnblogs.com/xuyaowen; ...
一周排行
    -Advertisement-
    Play Games
  • Dapr Outbox 是1.12中的功能。 本文只介紹Dapr Outbox 執行流程,Dapr Outbox基本用法請閱讀官方文檔 。本文中appID=order-processor,topic=orders 本文前提知識:熟悉Dapr狀態管理、Dapr發佈訂閱和Outbox 模式。 Outbo ...
  • 引言 在前幾章我們深度講解了單元測試和集成測試的基礎知識,這一章我們來講解一下代碼覆蓋率,代碼覆蓋率是單元測試運行的度量值,覆蓋率通常以百分比表示,用於衡量代碼被測試覆蓋的程度,幫助開發人員評估測試用例的質量和代碼的健壯性。常見的覆蓋率包括語句覆蓋率(Line Coverage)、分支覆蓋率(Bra ...
  • 前言 本文介紹瞭如何使用S7.NET庫實現對西門子PLC DB塊數據的讀寫,記錄了使用電腦模擬,模擬PLC,自至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1.Windows環境下鏈路層網路訪問的行業標準工具(WinPcap_4_1_3.exe)下載鏈接:http ...
  • 從依賴倒置原則(Dependency Inversion Principle, DIP)到控制反轉(Inversion of Control, IoC)再到依賴註入(Dependency Injection, DI)的演進過程,我們可以理解為一種逐步抽象和解耦的設計思想。這種思想在C#等面向對象的編 ...
  • 關於Python中的私有屬性和私有方法 Python對於類的成員沒有嚴格的訪問控制限制,這與其他面相對對象語言有區別。關於私有屬性和私有方法,有如下要點: 1、通常我們約定,兩個下劃線開頭的屬性是私有的(private)。其他為公共的(public); 2、類內部可以訪問私有屬性(方法); 3、類外 ...
  • C++ 訪問說明符 訪問說明符是 C++ 中控制類成員(屬性和方法)可訪問性的關鍵字。它們用於封裝類數據並保護其免受意外修改或濫用。 三種訪問說明符: public:允許從類外部的任何地方訪問成員。 private:僅允許在類內部訪問成員。 protected:允許在類內部及其派生類中訪問成員。 示 ...
  • 寫這個隨筆說一下C++的static_cast和dynamic_cast用在子類與父類的指針轉換時的一些事宜。首先,【static_cast,dynamic_cast】【父類指針,子類指針】,兩兩一組,共有4種組合:用 static_cast 父類轉子類、用 static_cast 子類轉父類、使用 ...
  • /******************************************************************************************************** * * * 設計雙向鏈表的介面 * * * * Copyright (c) 2023-2 ...
  • 相信接觸過spring做開發的小伙伴們一定使用過@ComponentScan註解 @ComponentScan("com.wangm.lifecycle") public class AppConfig { } @ComponentScan指定basePackage,將包下的類按照一定規則註冊成Be ...
  • 操作系統 :CentOS 7.6_x64 opensips版本: 2.4.9 python版本:2.7.5 python作為腳本語言,使用起來很方便,查了下opensips的文檔,支持使用python腳本寫邏輯代碼。今天整理下CentOS7環境下opensips2.4.9的python模塊筆記及使用 ...