[HDFS Manual] CH2 HDFS Users Guide

来源:https://www.cnblogs.com/Amaranthus/archive/2018/03/14/8568521.html
-Advertisement-
Play Games

2 HDFS Users Guide 2 HDFS Users Guide. 1 2.1目的... 1 2.2.概述... 1 2.3.先決條件... 2 2.4. Web Interface. 2 2.5. Shell Command. 2 2.5.1 DFSAdmin 命令... 3 2.6 S ...


2 HDFS Users Guide

2 HDFS Users Guide. 1

2.1目的... 1

2.2.概述... 1

2.3.先決條件... 2

2.4. Web Interface. 2

2.5. Shell Command. 2

2.5.1 DFSAdmin 命令... 3

2.6 Secondary Namenode. 3

2.7 Checkpoint Node. 3

2.8 Backup node. 4

2.9 Import Checkpoint. 4

2.10 均衡器... 5

2.11 Rack Awareness. 5

2.12 Safemode. 5

2.13 fsck. 5

2.14 fetchdt. 5

2.15 Recovery Mode. 5

2.16 更新和回滾... 6

2.17 Datanode熱切換磁碟... 7

2.18 文件許可權和安全性... 7

2.19 可擴展性... 7

2.20 相關閱讀... 7

 

2.1目的

2.2.概述

HDFSHadoop應用使用的主要的分散式存儲。HDFS集群使用namenode管理文件系統元數據,datanode保存實際數據。HDFS體繫結構中有詳細的描述。用戶手冊主要解決HDFS和用戶的交互和HDFS集群的管理。HDFS體繫結構中描述了namenodedatanodeclient的相互之間的交互。Clientnamenode獲取元數據,修改元數據,在datanode中操作實際的數據。

以下是hdfs主要的特性:

·         Hadoop包含hdfshdfs是非常適用於商用的硬體上面,進行分散式存儲和分散式處理的。Hdfs有很好的容錯性,可擴展性,擴大也很簡單。Mapreduce也是極簡的適用於龐大的分散式系統。

·         HDFS是高可配置的,預設配置適用於大多數安裝。只有在極大的集群下需要調整配置。

·         Hadoop使用java開發,適用於絕大多數平臺。

·         Hadoop支持類似shell的命令行,與hdfs直接交互。

·         Namenodedatanodeweb服務,可以很簡單的查看和檢查當前集群狀態。

·         HDFS有用的特性:

o   文件許可權和人認證

o   Rack awareness:在調度任務和分配存儲是,考慮node的物理位置

o   Safemode:一個管理模式用來進行對hdfs維護。

o   Fsck:一個用來診斷文件系統是否良好的工具,發現丟失的文件和塊。

o   Fetchdt:用來獲取DelegationToken 並且保存到本地。

o   Balancer:datanode數據分佈不均勻,使用這個工具來均衡。

o   Upgraderollback:軟體更新後,因為一些無法預計的問題,可以回滾HDFS的更新

o   Secondary Namenode:定期的執行checkpoint,保證hdfs事務日誌大小。

o   Checkpoint node:在命名空間上執行checkpoint,並且最小化namenode的修改日誌大小。

o   Backup nodecheckpoint node 的擴展。除了checkpoint之外會接受到一串修改,並且維護在記憶體中。和namenode 保持同步。一個namenode只能有一個backup node

2.3.先決條件

2.4. Web Interface

Namenodedatanode每個都運行了一個內部的web server,為了顯示cluster集群的基本信息。使用預設配置,namenode 的前段網站是http://hosts:9870。列出了cluster中的datanodecluster的基本信息。Web interface可以用來瀏覽文件系統(使用 browse the file system)

2.5. Shell Command

Hadoop 包含各種類似shell的命令,直接與HDFS和其他的文件系統進行交互。可以使用hdfs dfs –help查看支持的命令。hdfs dfs -help command-name可以查看命令的詳細內容。命令支持很多和正常文件系統一樣的操作,比如複製文件,修改文件許可權等等。也支持HDFS的一些操作比如複製的文件個數。具體可以查看: File System Shell Guide.

2.5.1 DFSAdmin 命令

 hdfs dfsadmin用來支持HDFS管理操作。hdfs dfsadmin –help列出所有支持的命令,比如:

·         -report 報告HDFS的基本信息。一些信息都可以在namenode 的端頁面上可以查看

·         -safemode 可以讓用戶手動進入和退出safemode

·         -finalizeupgrade 清理最後一次cluster升級的備份。

·         -refreshnodes 更新namenode可以連接的datanode。預設namenode讀取dfs.hosts,dfs.host.exclude定義的文件中讀取。Dfs.hosts包含了只允許註冊到namenodeDfs.host.exclude是不允許的datanode。另外如果dfs.namenode.hosts.provider.classname設置為org.apache.hadoop.hdfs.server.blockmanagement.CombinedHostFileManager,所有包含和不包含的host都以json格式在dfs.hosts中。Datanode中的所有副本都放到了其他datanode,那麼datanode會被停用。停用的node會自動被關閉。

·         -printTopology 列印cluster的拓撲,顯示了namenode 可以查看到的一個b樹。

2.6 Secondary Namenode

Namenode的修改以日誌方式被保存,append的方式被加入到本地的文件系統文件中。當namenode啟動,會從fsimage讀取hdfs的狀態,然後應用editlog。然後把新的fsimage寫回到磁碟並且清空editlog。因為namenode只會在startup狀態才會合併,editlog文件在繁忙的cluster中會變的很大。這樣會是namenode啟動話很長時間。

Secondary namenode定期合併fsimageeditlog,並且限制editlog大小。通常運行在另外一個設備上,因為需要的記憶體和primary namenode一樣。

Secondary namenode上執行的checkpoint有個2參數控制:

·         Dfs.namenode.checkpoint.period 預設為1個小時,指定2checkpoint的時間間隔。

·         Dfs.namenode.checkpoint.txns 預設為100萬,沒100萬事務進行一次checkpoint

Secondary namenode在目錄中保存了最後一次checkpoint,目錄結構和primary namenode一樣。Checkpointimage會準備等待primary namenode 來讀取。

Secondary namenode 相關命令 secondarynamenode

2.7 Checkpoint Node

Namenode使用2種文件來保存元數據,fsimage,最後一次checkpoint的元數據,editlog,從最後一次checkpoint到現在的元數據修改日誌。當namenode啟動,會使用fsimageeditlog合併,提供最新的文件系統狀態。Namenode然後使用新的hdfs狀態覆蓋fsimage,並啟動新的editlog

Checkpoint node定期的創建命名空間的檢查點。會從活動的namenode下載fsimageeditlog,在本地合併,並且把新的image重新上傳到namenodeCheckpoint通常運行在不同的伺服器上,因為記憶體的需求和namenode一樣。Checkpoint node根據配置文件使用hdfs namenode –checkpoint啟動。

Checkpoint node 或者backup node可以通過配置dfs.namenode.backup.address dfs.namenode.backup.http-address設置。

checkpoint有個2參數控制:

·         Dfs.namenode.checkpoint.period 預設為1個小時,指定2checkpoint的時間間隔。

·         Dfs.namenode.checkpoint.txns 預設為100萬,沒100萬事務進行一次checkpoint

Checkpoint node在目錄中保存了最後一次checkpoint,目錄結構和namenode一樣。Checkpointimage會準備等待namenode 來讀取。

2.8 Backup node

Backup node提供和checkpoint node一樣的功能,也維護了一份記憶體的,最新的文件系統命名空間,這個是和活動namenode 保持同步狀態的。接收namenode的修改的流,然後放到本地磁碟上,backup node也只應用這些修改到自己在記憶體的命名空間中,因此創建了一個namespace的備份。

Backup node不需要去下載fsimageeditlog,來創建checkpoint,因為已經在記憶體中有了最新的狀態。Backup node checkpoint更加高效,只需要把命名空間保存到本地fsimage並且重置edit

Namenode只支持一個backup node。如果使用了backup node就無法使用checkpoint node。使用多個backup node在以後會支持。

Backup nodecheckpoint node啟動方式一樣。使用hdfs namenode –backup啟動。

本地的backup node或者checkpoint nodeweb interface通過dfs.namenode.backup.addressdfs.namenode.backup.http-address參數配置。

使用backup node提供了選項,可以讓namenode在沒有持續化存儲下運行,委托了所有的持續化到backup nodeNamenode-importcheckpoint啟動,只配置 dfs.namenode.edits.dir

對於完整的討論checkpoint node backup node 可以看 HADOOP-4539命令的使用可以看:namenode.

2.9 Import Checkpoint

最後一次checkpoint可以導入到namenode上如果所有其他的imageeditlog沒有丟失:

·         創建一個空的目錄,dfs.namenode.name.dir指向這個目錄

·         指向checkpoint數據所在目錄,dfs.namenode.checkpoint.dir

·         使用-importcheckpoint啟動namenode

Namenode會從checkpoint目錄讀取數據,然後存放到namenode目錄中。如果dfs.namenode.name.dir有文件那麼就會報錯。Namenode會檢查dfs.namenode.checkpoint.dir的一致性,但是不會修改它。

2.10 均衡器

HDFS數據並不是統一的在datanode中。一個原因就是cluster加入了一個新的datanode。當放置新的blocknamenode會在選擇datanode,考慮很多:

·         在寫入的node上保留一份

·         跨機架需要一份

·         相同機架的不通伺服器上面需要一份

·         HDFS數據統一的分配到datanode

因為很多考慮因素,因此數據不能統一的分配到所有datanodeHdfs提供了一個工具來管理分析block的位置,並且重新平衡datanode。一個簡單的均衡器管理在HADOOP-1652命令使用查看 balancer.

2.11 Rack Awareness

HDFS集群可以識別rack的拓撲。為了最優化數據容量和使用這個配置很重要。可以查看文檔:rack awareness 

2.12 Safemode

當啟動namenode的時候從去載入fsimageeditlog文件。然後等待datanode 報告他們的block信息。如果副本不夠就開始複製副本,這個時候namenode都在safemode下。Safemodehdfs集群是只讀的。如果datanode報告絕大多數block可用,那麼就會推出safemode。如果需要,HDFS可以手動進入hdfs dfsadmin –safemodeNamenode的前端網站可以看出safemode是否打開。

2.13 fsck

HDFS支持fsck命令檢查各種不一致性。Fsck被設計用來報告各種文件問題。比如,塊丟失。不想傳統的fsck工具,這個命令並不會修複發現的錯誤。Namenode會自動修複絕大多數的錯誤。Fsck不是hadoopshell命令,使用hdfs fsck啟動。具體可以查看:fsck.

2.14 fetchdt

HDFS支持fetchdt命令來獲取Delegation Token並保存在本地系統中。這個token在後面用於訪問伺服器。工具使用RPC或者HTTPS獲取tokenhdfs fetchdt 是不是hadoop shell命令。可以使用hdfs fetchdt DTfile。如果獲取了token之後運行hdfs命令就不需要Kerberos tickets。通過參數HADOOP_TOKEN_FILE_LOCATION指向token文件。Fetchdt命令具體使用: fetchdt 

2.15 Recovery Mode

通常如果配置了多個元數據存儲位置。如果一個存儲位置損壞,可以從另外一個位置上讀取。

但是如果只有一個存儲位置,那麼怎麼辦?這裡有個namenode啟動的特別模式recovery mode,可以恢復絕大多數數據。

通過namenode –recover進入recovery mode

進入recovery modenamenode會互動式提示你如何進行恢復。

如果不想要提示,可以加-force參數。會強制恢復模式總是選擇第一個選項。通常都是合理的。

因為恢復模式會導致數據丟失,最要先備份editlogfsimage

2.16 更新和回滾

Hadoop在集群上的升級,和其他軟體升級一樣,都有可能會出現新的bug或者不相容的修改影響現有的應用程式。HDFS允許管理員回退到之前的hadoop版本,並且回退cluster狀態。HDFS升級可以看 Hadoop Upgrade 。在升級前,管理員需要刪除已經有的backup使用hadoop dfsadmin –finalizeUpgrade命令。升級過程:

·         在升級前,確認是否有backup node

·         關閉集群,並且安裝新的hadoop

·         使用-upgrade命令,start-dfs.sh –upgrade

·         很多情況下,cluster工作是沒問題的,一旦新的hdfs被認為沒問題,完成升級。

·         如果需要回退到老的版本:

o   關閉集群並且安裝之前的hadoop

o   運行rollback命令hdfs namenode –rollback

o   –rollback啟動cluster start-dfs.sh –rollback

當更新到新的HDFS,需要刪除為新版本保留的路徑。如果namenode在更新的時候碰到一個保留的路徑。就會輸出錯誤:

/.reserved is a reserved path and .snapshot is a reserved path component in this version of HDFS. Please rollback and delete or rename this path, or upgrade with the -renameReserved [key-value pairs] option to automatically rename these paths during upgrade.

使用-upgrade -renameReserved [optional key-value pairs]如果出現衝突那麼會自動重命名比如,.snapshot 變為.my-snapshot 並且.reserved 變為 .my-reserved-upgrade -renameReserved .snapshot=.my-snapshot,.reserved=.my-reserved.

如果-renameReserved後面沒有kv對,namenode會自動加一個尾碼.<LAYOUT-VERSION>.UPGRADE_RENAMED, e.g. .snapshot.-51.UPGRADE_RENAMED

推薦在升級之前先運行hdfs dfsadmin –saveNamespace。如果edit log指向的文件被自動重命名那麼就會有數據一致性問題。

2.17 Datanode熱切換磁碟

Datanode支持熱切換。用戶可以增加或者替換HDFS數據捲,但是不需要關閉datanode。熱切換過程:

·         如果有新的存儲目錄,用戶可以格式化,並且mount

·         用戶更新修改datanode配置dfs.datanote.data.dir

·         運行dfsadmin -reconfig datanode HOST:PORT start重新配置。然後可以通過命令dfsadmin -reconfig datanode HOST:PORT status查看重新配置的運行狀態。

·         一旦重新配置任務完成,用戶可以安全的umount老的數據捲。

2.18 文件許可權和安全性

文件許可權設計和其他的linux平臺的文件系統類似。現在只用於限制簡單的文件許可權。啟動namenode 的用戶是HDFS的超級用戶。未來的版本HDFS會支持網路驗證協議,類似Kerberos並且加密數據傳輸。

2.19 可擴展性

Hadoop當前一個集群可能有上千個nodeHDFS每個cluster有一個namenode。當前namenode 的記憶體使用時主要的可擴展性限制。對於非常龐大的集群來說,增加平均文件的大小,可以增加cluster 的大小,但是又不會消耗太多記憶體。預設配置不使用於非常大的集群。

2.20 相關閱讀

  • Hadoop Site: The home page for the Apache Hadoop site.
  • Hadoop Wiki: The home page (FrontPage) for the Hadoop Wiki. Unlike the released documentation, which is part of Hadoop source tree, Hadoop Wiki is regularly edited by Hadoop Community.
  • FAQ: The FAQ Wiki page.
  • Hadoop JavaDoc API.
  • Hadoop User Mailing List: user[at]hadoop.apache.org.
  • Explore hdfs-default.xml. It includes brief description of most of the configuration variables available.
  • HDFS Commands Guide: HDFS commands usage.

 

 

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • keepalived使用腳本進行健康檢查時的相關配置項。例如keepalived+haproxy實現haproxy的高可用。 keepalived分為vrrp實例的心跳檢查和後端服務的健康檢查。如果要配置後端服務,則後端服務只能是LVS。但vrrp能獨立與lvs存在,例如keepalive結合hap ...
  • 虛擬記憶體 demand paging 如何判斷是否在記憶體里:valid(legal + in memory)invalid(illegal or legal + not in memory)。 如何處理illegal的情況:page fault 到內核 ; 查看internal table(PCB) ...
  • 在上一篇文章中,分析了haproxy的stick table特性和用法,其中特性之一也是很實用的特性是stick table支持在haproxy多個節點之間進行複製(replication)。 本文僅討論如何配置實現stick table的複製功能,不考慮在什麼環境下實現它,以及它的雙主模型如何配置 ...
  • CentOS 修改用戶密碼 1.普通用戶 ①獲取超級用戶root許可權 命令:su 或者 su- 或者 su -root ②輸入命令: passwd 用戶名 ③輸入新密碼 2.超級用戶 ①打開system-auth文件 命令:vim /etc/pam.d/system-auth ②修改其中一行(設置最 ...
  • 一、問題發現 今天重啟了一下虛擬機之後,出現了一個問題,那就是突然間使用Nat配置的IP地址丟失了,嘗試了重啟網路,重啟虛擬機兩種辦法,發現都沒有用,好吧,那就查看一下發生了什麼問題: 輸入命令: 然後發現瞭如下的錯誤信息: 後來,百度了一下相關的問題,但是都說是虛擬機的mac地址有問題,什麼執行i ...
  • 對於MySQL資料庫中的誤操作刪除數據的恢復問題,可以使用基於MySQL中binlog做到類似於閃回或者生成反向操作的SQL語句來實現,是MySQL中一個非常實用的功能。原理不難理解,基於MySQL的row格式的binlog中,記錄歷史的增刪改SQL信息,基於此解析出來對應的SQL語句(回滾的話就是 ...
  • 嘗試了一下MySQL 8.0的部分新特性。 如果用過MSSQL或者是Oracle中的視窗函數(Oracle中叫分析函數), 然後再使用MySQL 8.0之前的時候,就知道需要在使用視窗函數處理邏輯的痛苦了,雖然純SQL也能實現類似於視窗函數的功能,但是這種SQL在可讀性和以及使用方式上大打折扣,看起 ...
  • 1.MySQL資料庫基礎 顯示當前的伺服器版本 SELECT VERSION(); 顯示當前的日期時間 SELECT NOW(); 顯示當前用戶 SELECT USER(); 查看資料庫 SHOW DATABASES; 查看警告 SHOW WARNINGS; 2.MySQL語句的規範 (1) 關鍵字 ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...