第6章 HDFS HA配置

来源:https://www.cnblogs.com/dreamboy/archive/2018/07/10/9289326.html
-Advertisement-
Play Games

[TOC] 在Hadoop 2.0.0之前,一個HDFS集群中只有一個單一的NameNode,如果NameNode所在的節點宕機了或者因伺服器軟體升級導致NameNode進程不可用,則將導致整個集群無法訪問,直到NameNode被重新啟動。 HDFS高可用性(HDFS High Availabili ...


目錄

在Hadoop 2.0.0之前,一個HDFS集群中只有一個單一的NameNode,如果NameNode所在的節點宕機了或者因伺服器軟體升級導致NameNode進程不可用,則將導致整個集群無法訪問,直到NameNode被重新啟動。
HDFS高可用性(HDFS High Availability)解決了上述問題,它提供了一個選項,可以在同一個集群中運行兩個NameNode,其中一個處於活動狀態,另一個處於備用狀態。當活動狀態的NameNode崩潰時,HDFS集群可以快速切換到備用的NameNode,這樣也就實現了故障轉移功能。

為了使備用節點保持與活動節點同步的狀態,兩個節點都與一組稱為“日誌節點”(JournalNodes)的獨立守護進程通信。當活動狀態的NameNode的命名空間有任何修改時,會告知大部分的JournalNodes進程。備份狀態的NameNode有能力讀取JournalNodes中的變更信息,並且一直監控edit log的變化,把變化應用於自己的命名空間。
本例中,各節點的角色分配如下表所示:

節點 角色
centos01 NameNode DataNode JournalNode
centos02 NameNode DataNode JournalNode
centos03 DataNode JournalNode

配置之前最好將三個節點的$HADOOP_HOME/etc/hadoop文件夾與$HADOOP_HOME/tmp文件夾備份一下。備份命令如下:

[hadoop@centos01 etc]$ cp -r hadoop/ backup-hadoop
[hadoop@centos01 hadoop-2.7.1]$ cp -r tmp/ backup-tmp

註意:本例配置的總體思路是,先在centos01節點上配置完畢之後,再將改動的配置文件發送到centos02、centos03節點上。

6.1 hdfs-site.xml文件配置

要配置HA NameNodes,必須向hdfs-site.xml文件添加一些配置選項,設置這些配置的順序並不重要,但是需要為選項dfs.nameservice和dfs. namenodes (nameservice ID)設置一個值,這個值將被後面的選項所引用。因此,在設置其他配置選項之前,應該先設置這些值。
向hdfs-site.xml文件加入以下內容(在之前配置的基礎上追加):

<property>
  <name>dfs.nameservices</name>
  <value>mycluster</value><!--mycluster為自定義的值,下方配置要使用該值-->
</property>
<property>
  <name>dfs.ha.namenodes.mycluster</name>
  <value>nn1,nn2</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  <value>centos01:8020</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  <value>centos02:8020</value>
</property>
<property>
  <name>dfs.namenode.http-address.mycluster.nn1</name>
  <value>centos01:50070</value>
</property>
<property>
  <name>dfs.namenode.http-address.mycluster.nn2</name>
  <value>centos02:50070</value>
</property>
<property>
  <name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://centos01:8485;centos02:8485;centos03:8485/mycluster</value>
</property>
<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/opt/modules/hadoop-2.7.1/tmp/dfs/jn</value>
</property>
<property>
  <name>dfs.client.failover.proxy.provider.mycluster</name>
 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
 <property>
      <name>dfs.ha.fencing.methods</name>
      <value>sshfence</value>
    </property>
    <property>
      <name>dfs.ha.fencing.ssh.private-key-files</name>
      <value>/home/hadoop/.ssh/id_rsa</value><!--hadoop為當前用戶名-->
</property>

上述參數解析如下:
dfs.nameservices:為nameservice設置一個邏輯名稱ID(nameservice ID),名稱ID可以自定義,例如mycluster。並使用這個邏輯名稱ID作為配置選項的值。後續配置選項將引用該ID。
dfs.ha.namenodes.mycluster:nameservice中每個NameNode的唯一標識符。選項值是一個以逗號分隔的NameNode id列表。這將被DataNodes用於確定集群中的所有NameNodes。例如,本例中使用“mycluster”作為nameservice ID,並且使用“nn1”和“nn2”作為NameNodes的單個ID。需要註意的是,當前每個nameservice只能配置最多兩個NameNodes。
dfs.namenode.rpc-address.mycluster.nn1:設置NameNode的RPC監聽地址,需要設置NameNode進程的完整地址和RPC埠。
dfs.namenode.rpc-address.mycluster.nn2:設置另一個NameNode的RPC監聽地址,需要設置NameNode進程的完整地址和RPC埠。
dfs.namenode.http-address.mycluster.nn1:設置NameNode的HTTP Web端監聽地址,類似於上面的RPC地址,可以通過瀏覽器端訪問NameNode。
dfs.namenode.http-address.mycluster.nn2:設置另一個NameNode的HTTP Web端監聽地址,類似於上面的RPC地址,可以通過瀏覽器端訪問NameNode。
dfs.namenode.shared.edits.dir:設置一組 JournalNode 的 URI 地址,活動狀態的NameNode將 edit log 寫入這些JournalNode,而備份狀態的 NameNode 則讀取這些 edit log,並作用在記憶體的目錄樹中。如果JournalNode有多個節點則使用分號分割。該屬性值應符合以下格式:qjournal://host1:port1;host2:port2;host3:port3/nameservice ID。
dfs.journalnode.edits.dir: JournalNode所在節點上的一個目錄,用於存放 edit log和其他狀態信息。
dfs.client.failover.proxy.provider.mycluster:客戶端與活動狀態的NameNode 進行交互的 Java 實現類,DFS 客戶端通過該類尋找當前的活動NameNode。目前Hadoop的唯一實現是ConfiguredFailoverProxyProvider類,除非我們自己對其定製,否則應該使用這個類。
dfs.ha.fencing.methods:解決HA集群腦裂問題(即出現兩個 master 同時對外提供服務,導致系統處於不一致狀態)。在 HDFS HA中,JournalNode只允許一個 NameNode 寫數據,不會出現兩個活動NameNode 的問題,但是,當主備切換時,之前的 活動 NameNode 可能仍在處理客戶端的 RPC 請求,為此,需要增加隔離機制(fencing)將之前的活動NameNode 殺死。常用的fence方法是sshfence,使用ssh需要指定ssh通訊使用的密鑰文件。
dfs.ha.fencing.ssh.private-key-files:指定上述選項ssh通訊使用的密鑰文件在系統中的位置。

6.2 core-site.xml文件配置

修改core-site.xml文件中的fs.defaultFS屬性值,為Hadoop客戶端配置預設的訪問路徑,以使用新的支持HA的邏輯URI。將之前配置的hdfs://centos01:9000改為hdfs://mycluster,其中的mycluster為hdfs-site.xml中定義的nameservice ID值。內容如下:

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://mycluster</value>
</property>

文件hdfs-site.xml與core-site.xml都配置完成後,需要將這兩個文件重新發送到集群其它的節點中,並覆蓋原來的文件。
進入Hadoop安裝目錄,執行以下命令:

scp etc/hadoop/hdfs-site.xml hadoop@centos02:/opt/modules/hadoop-2.7.1/etc/hadoop/
scp etc/hadoop/hdfs-site.xml hadoop@centos03:/opt/modules/hadoop-2.7.1/etc/hadoop/
scp etc/hadoop/core-site.xml hadoop@centos02:/opt/modules/hadoop-2.7.1/etc/hadoop/  
scp etc/hadoop/core-site.xml hadoop@centos03:/opt/modules/hadoop-2.7.1/etc/hadoop/

6.3 啟動與測試

HDFS HA配置完成後,下麵我們將集群啟動,進行測試:
(1)刪除各個節點的$HADOOP_HOME/tmp目錄下的所有文件。在各個節點分別執行下麵命令,啟動三台JournalNode :

sbin/hadoop-daemon.sh start journalnode

(2)在centos01節點上執行namenode格式化,如果沒有啟動JournalNode,格式化將失敗。

bin/hdfs namenode -format

出現如下輸出代表格式化成功:

18/03/15 14:14:45 INFO common.Storage: Storage directory /opt/modules/hadoop-2.7.1/tmp/dfs/name has been successfully formatted.

(3)在centos01節點上執行如下命令,啟動namenode:

sbin/hadoop-daemon.sh start namenode

啟動namenode後會生成images元數據。
(4)在centos02上執行以下命令,將centos01上的NameNode元數據拷貝到centos02上(也可以直接將centos01上的$HADOOP_HOME/tmp目錄拷貝到centos02上):

bin/hdfs namenode -bootstrapStandby

輸出以下信息代表拷貝成功:

18/03/15 14:28:01 INFO common.Storage: Storage directory /opt/modules/hadoop-2.7.1/tmp/dfs/name has been successfully formatted.

(5)在centos02上執行以下命令,啟動namenode2(備份的NameNode):

sbin/hadoop-daemon.sh start namenode

啟動後,在瀏覽器中輸入網址http://centos01:50070 查看namenode1(活動的NameNode)的狀態。namenode1的狀態顯示,如下圖所示。

在瀏覽器中輸入網址http://centos02:50070 查看namenode2的狀態。Namenode2的狀態顯示,如下圖所示。

可以看到,此時兩個namenode的狀態都為standby。接下來我們需要將namenode1的狀態設置為active。
(6)在centos01上執行如下命令,將namenode1的狀態置為active:

bin/hdfs haadmin -transitionToActive nn1

上述代碼中,nn1為hdfs-site.xml中設置的節點centos01上的namenode的ID標識符。
上述代碼執行完畢後,刷新瀏覽器,可以看到namenode1的狀態已經變為了active,如下圖所示:

(7)重新啟動HDFS
停止HDFS:

sbin/stop-dfs.sh

啟動HDFS:

sbin/start-dfs.sh

(8)重啟以後,NameNode、DataNode等進程都已經啟動了,但兩個NameNode的狀態仍然都為standby,需要再次執行步驟(6)的命令,將namenode1的狀態置為active。
(9)在各節點中執行jps命令,查看各節點啟動的Java進程:
centos01節點上的Java進程:

[hadoop@centos01 hadoop-2.7.1]$ jps
8996 DataNode
9221 JournalNode
9959 Jps
8877 NameNode

centos02節點上的Java進程:

[hadoop@centos02 hadoop-2.7.1]$ jps
8162 NameNode
8355 JournalNode
8565 Jps
8247 DataNode

centos03節點上的Java進程:

[hadoop@centos03 hadoop-2.7.1]$ jps
7144 DataNode
7256 JournalNode
7371 Jps

(10)上傳一個文件到HDFS,測試HDFS是否正常運行。若一切正常,接下來測試NameNode故障轉移功能,首先將namenode1進程殺掉:

 [hadoop@centos01 hadoop-2.7.1]$ jps
8996 DataNode
10452 Jps
9221 JournalNode
8877 NameNode
[hadoop@centos01 hadoop-2.7.1]$ kill -9 8877

然後查看namenode2的狀態,發現仍然是standby,沒有自動切換到active,此時需要手動執行步驟(6)的命令,將namenode2的狀態切換為active。再次進行HDFS文件系統的測試,發現一切正常。

以上描述瞭如何配置手動故障轉移。在該模式下,即使活動節點失敗,系統也不會自動觸發從active到備用NameNode的故障轉移。這樣手動切換NameNode雖然能解決故障問題,但是還是比較麻煩,可不可以自動切換呢?答案是肯定的。下一節講解HDFS結合ZooKeeper進行自動故障轉移。

6.4 結合ZooKeeper進行自動故障轉移

自動故障轉移為HDFS部署添加了兩個新組件:一個ZooKeeper quorum和ZKFailoverController流程(縮寫為ZKFC)。
Apache ZooKeeper是一種高度可用的服務,用於維護少量的協調數據,通知客戶數據的變化,並監控客戶的失敗。自動HDFS故障轉移的實現主要依賴於ZooKeeper的如下功能:

*   故障檢測——集群中的每個NameNode機器都在ZooKeeper中維護一個持久會話。如果機器崩潰,ZooKeeper會話將過期,通知另一個NameNode,它將觸發故障轉移。
*   活動的NameNode選舉——ZooKeeper提供了一個簡單的機制來專門選擇一個活動的節點。如果當前活動的NameNode崩潰,另一個節點可能會在ZooKeeper中使用一個特殊的獨占鎖,這表明它應該成為下一個活            動。
*   ZKFailoverController (ZKFC)是一個新的組件,它是一個ZooKeeper客戶端,它也監視和管理NameNode的狀態。每個運行NameNode的機器都運行一個ZKFC。
*   健康監測——ZKFC以健康檢查命令定期對本地的NameNode進行檢測。只要NameNode能及時地以健康的狀態做出反應,ZKFC就認為該節點是健康的。如果該節點崩潰、凍結或進入不健康狀態,健康監控器將標記為不健康狀態。

有關自動故障轉移設計的更多細節,請參考Apache HDFS JIRA上的HDFS-2185的設計文檔。
本例中,各節點的角色分配如下表:

節點 角色
centos01 NameNode DataNode JournalNode ZKFC QuorumPeerMain
centos02 NameNode DataNode JournalNode ZKFC QuorumPeerMain
centos03 DataNode JournalNode QuorumPeerMain

HDFS集成ZooKeeper來實現NameNode的自動故障轉移,操作步驟如下:
(1)修改hdfs-site.xml文件,加入以下內容:

    <!--開啟自動故障轉移,mycluster為自定義配置的nameservice ID值-->
    <property>
       <name>dfs.ha.automatic-failover.enabled.mycluster</name>
       <value>true</value>
     </property>

(2)修改core-site.xml文件,加入以下內容,指定ZooKeeper集群:

     <property>
       <name>ha.zookeeper.quorum</name>
       <value>centos01:2181,centos02:2181,centos03:2181</value>
     </property>

(3)發送修改好的hdfs-site.xml、core-site.xml文件到集群其它節點,覆蓋原來的文件(這一步容易被忽略)。
(4)停止HDFS集群:

sbin/stop-dfs.sh

(5)啟動ZooKeeper集群:
分別進入每個節點的安裝目錄,執行如下命令:

bin/zkServer.sh start

(6)初始化HA在ZooKeeper中的狀態:
在centos01節點上執行如下命令,將在ZooKeeper中創建一個znode,存儲自動故障轉移系統的數據:

bin/hdfs zkfc -formatZK

(7)啟動HDFS集群:

sbin/start-dfs.sh

(8)由於我們是手動管理集群上的服務,所以需要手動啟動運行NameNode的每個機器上的zkfc守護進程。分別在centos01和centos02上執行以下命令,啟動zkfc進程(先在哪個節點上啟動,哪個節點的namenode狀態就是active):

sbin/hadoop-daemon.sh start zkfc

(或者執行bin/hdfs start zkfc也可以,兩種啟動方式。)
(9)上傳文件到HDFS進行測試。
在centos01中上傳一個文件,然後停止namenode1,讀取剛纔上傳的文件內容。相關命令及輸出如下:

[hadoop@centos01 hadoop-2.7.1]$ jps
13105 QuorumPeerMain
13523 DataNode
13396 NameNode
13753 JournalNode
13882 DFSZKFailoverController
14045 Jps
[hadoop@centos01 hadoop-2.7.1]$ kill -9 13396
[hadoop@centos01 hadoop-2.7.1]$ jps
13105 QuorumPeerMain
14066 Jps
13523 DataNode
13753 JournalNode
13882 DFSZKFailoverController
[hadoop@centos01 hadoop-2.7.1]$ hdfs dfs -cat /input/*

如果仍能成功讀取文件內容,說明自動故障轉移配置成功。此時我們在瀏覽器中訪問namenode2,可以看到namenode2的狀態變為了active。

查看各節點的Java進程,命令及輸出結果如下:

[hadoop@centos01 hadoop-2.7.1]$ jps
3360 QuorumPeerMain
4080 DFSZKFailoverController
3908 JournalNode
3702 DataNode
4155 Jps
3582 NameNode

[hadoop@centos02 hadoop-2.7.1]$ jps
3815 DFSZKFailoverController
3863 Jps
3480 NameNode
3353 QuorumPeerMain
3657 JournalNode
3563 DataNode

[hadoop@centos03 zookeeper-3.4.9]$ jps
3496 JournalNode
3293 QuorumPeerMain
3390 DataNode
3583 Jps

原創文章,轉載請註明出處!!


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 第1章 什麼是運維 1.1 運維的職責: 1、 數據不能丟 2、 網站7*24小時 3、 用戶體驗要好 要求伺服器穩定性比普通家用機高 1.2 運維人員的原則: 簡單,易用,高效 (簡單,粗暴) 第2章 伺服器的組成詳解 2.1 伺服器 2.1.1 伺服器的類型: 機架式伺服器、刀片式伺服器、塔式服 ...
  • 1、利用netstat查看 TIME_WAIT 情況 2、利用netstat查看是哪個ip遠程訪問了伺服器 3、利用netstat查看指定的網路程式占用了哪個網路埠 ...
  • 游標 游標是sql的一個記憶體工作區,由系統或用戶以變數的形式定義,用於臨時存儲從資料庫中提取的數據塊。 游標分為顯式游標和隱式游標,可自定義顯式游標用來存儲多行多列的數據。 顯式游標一旦打開,就相當於執行了select語句,執行的結果集就存儲在游標中。 隱式游標 在進行DML操作和單行SELECT語 ...
  • 這篇博文里的好多內容之前在讀《大數據時代》時讀到過,所以就算是補上的讀書筆記? 信息科技為大數據時代提供技術支撐 1.存儲設備容量不斷增加 2.CPU處理能力大幅提升 3.網路帶寬不斷增加 數據產生方式的變革促成大數據時代的來臨 1.運營式系統階段 2.用戶原創內容階段 3.感知式系統階段 大數據的 ...
  • 一. 概述 存儲過程和函數是事先經過編譯並存儲在資料庫中的一段sql語句集合,可以簡化應用開發人員的很多工作,減少數據在資料庫與應用伺服器之間的傳輸,提高數據處理效率是有好處的。存儲過程和函數的區別在於函數必須有返回值,存儲過程的參數可以使用in,out ,inout類型,而函數參數只能是in類型。 ...
  • [TOC] 8.1 集群環境搭建 【操作目的】 由於在ZooKeeper集群中,會有一個Leader伺服器負責管理和協調其他集群伺服器,因此伺服器的數量通常都是單數,例如3,5,7...等,這樣數量為2n+1的伺服器就可以允許最多n台伺服器的失效。 【操作步驟】 本例中,我們仍然使用三個節點搭建部署 ...
  • 前言 開發環境嘛, 作為.Net系Sql Server那是必備的. 聽過Sql server可以安裝在Linux上了..於是抱著試一試的心態體驗了一把.. 不試不知道, 一試嚇一跳...安裝依然是爆簡單, 居然比在Windows上面安裝還要簡單.... Just Do It!!!! 開始安裝 由於是 ...
  • [TOC] ResourceManager (RM)負責跟蹤集群中的資源,以及調度應用程式(例如,MapReduce作業)。在Hadoop 2.4之前,集群中只有一個ResourceManager,當其中一個宕機時,將影響整個集群。高可用性特性增加了冗餘的形式,即一個主動/備用的ResourceMa ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...