Hadoop學習筆記(1)-Hadoop在Ubuntu的安裝和使用

来源:https://www.cnblogs.com/xiangjunhong/archive/2020/04/20/12737263.html
-Advertisement-
Play Games

由於小編在本學期有一門課程需要學習hadoop,需要在ubuntu的linux系統下搭建Hadoop環境,在這個過程中遇到一些問題,寫下這篇博客來記錄這個過程,並把分享給大家。 Hadoop的安裝方式 單機模式:Hadoop預設模式為非分散式模式(本地模式),無需 進行其他配置即可運行。非分散式即單 ...


由於小編在本學期有一門課程需要學習hadoop,需要在ubuntu的linux系統下搭建Hadoop環境,在這個過程中遇到一些問題,寫下這篇博客來記錄這個過程,並把分享給大家。

Hadoop的安裝方式

  • 單機模式:Hadoop預設模式為非分散式模式(本地模式),無需 進行其他配置即可運行。非分散式即單 Java 進程,方便進行調試
  • 偽分散式模式:Hadoop可以在單節點上以偽分散式的方式運行, Hadoop 進程以分離的 Java 進程來運行,節點既作為 NameNode 也 作為 DataNode,同時,讀取的是 HDFS 中的文件
  • 分散式模式:使用多個節點構成集群環境來運行Hadoop

創建Hadoop用戶(可選)

如果安裝 Ubuntu 的時候不是用的 “hadoop” 用戶,那麼需要增加一個名為hadoop 的用戶,首先按打開終端視窗,輸入如下命令創建新用戶 :

sudo useradd –m hadoop –s /bin/bash

上面這條命令創建了可以登陸的 hadoop 用戶,並使用 /bin/bash 作為 shell 接著使用如下命令設置密碼,可簡單設置為 hadoop,按提示輸入兩次密碼:

 sudo passwd hadoop

可為 hadoop 用戶增加管理員許可權,方便部署,避免一些對新手來說比較棘 手的許可權問題:

sudo adduser hadoop sudo

SSH登錄許可權設置

SSH是什麼?

SSH 為 Secure Shell 的縮寫,是建立在應用層和傳輸層基礎上的安全協議。 SSH 是目前較可靠、專為遠程登錄會話和其他網路服務提供安全性的協議。 利用 SSH 協議可以有效防止遠程管理過程中的信息泄露問題。SSH最初是 UNIX系統上的一個程式,後來又迅速擴展到其他操作平臺。 SSH是由客 戶端和服務端的軟體組成,服務端是一個守護進程(daemon),它在後臺運 行並響應來自客戶端的連接請求,客戶端包含ssh程式以及像scp(遠程拷 貝)、slogin(遠程登陸)、sftp(安全文件傳輸)等其他的應用程式.

配置SSH的原因

Hadoop名稱節點(NameNode)需要啟動集群中所有機器的Hadoop守護進程,這個過 程需要通過SSH登錄來實現。Hadoop並沒有提供SSH輸入密碼登錄的形式,因此,為 了能夠順利登錄每台機器,需要將所有機器配置為名稱節點可以無密碼登錄它們。

配置SSH的無密碼登錄

安裝openssh-server( 通常Linux系統會預設安裝openssh的客戶端軟體openssh-client),所以需要自己安裝一下服務端。

sudo apt-get install openssh-server

輸入 cd .ssh目錄下,如果沒有.ssh文件 輸入 ssh localhost生成。

cd ~/.ssh/

生成秘鑰

ssh-keygen -t rsa

將Master中生成的密鑰加入授權(authorized_keys)

cat id_rsa.pub                     # 查看生成的公鑰

cat id_rsa.pub >> authorized_keys    # 加入授權
chmod 600 authorized_keys    # 修改文件許可權,如果不修改文件許可權,那麼其它用戶就能查看該授權

完成後,直接鍵入“ssh localhost”,能無密碼登錄即可,

鍵入“exit”退出,到此SSH無密碼登錄配置就成功了。

安裝Java環境

scp命令傳輸Mac的文件到ubuntu

因為老師給了我們的java的jdk安裝包,想著不用去ubuntu重新下載,所以就想到了利用scp命令傳輸Mac的文件到ubuntu,利用這個命令前提是Ubuntu安裝了SSH伺服器,在之前我們已經有了這步操作。

利用ifconfig查看ubuntu伺服器的區域網IP地址

以下是利用scp命令傳輸文件的基本格式:
1. 本地文件傳輸到伺服器

從本地將文件傳輸到伺服器 從本地將文件夾傳輸到伺服器
scp[本地文件的路徑] [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] scp -r[本地文件的路徑] [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑]
scp /Users/mac/Desktop/test.txt [email protected]:/root scp -r /Users/mac/Desktop/test [email protected]:/root

2. 伺服器文件傳輸到本地

將伺服器上的文件傳輸到本地 將伺服器上的文件夾傳輸到本地
scp [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] [本地文件的路徑] scp -r [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] [本地文件的路徑]
scp [email protected]:/root/default/test.txt /Users/mac/Desktop scp -r [email protected]:/root/default/test /Users/mac/Desktop

mac客戶端執行傳輸命令

在選擇Linux伺服器端的儲存文件地址時,由於許可權原因,預設的是在/tmp有許可權,可以先把文件放到tmp文件目錄下,然後在進行mv 或者scp到其他目錄,即可。

scp /Users/xjh/Desktop/jdk-8u221-linux-x64.tar.gz [email protected]:/tmp

傳輸速度還是蠻快的,如下圖:

在Ubuntu將jdk移動到我們新建的java目錄下(沒建的新建一個就是),到此傳輸文件成功,可以開始配置Java環境了。

sudo mv /tmp/jdk-8u221-linux-x64.tar.gz usr/java

在java目錄中,使用sudo tar命令解壓jdk文件;

解壓成功後,java目錄中會有對應的目錄文件存在

配置Java環境

使用命令“sudo gedit ~/.bashrc”打開配置文件,在末尾添加以下幾行文字,註意自己的jdk版本號。

#set java env
export JAVA_HOME=/usr/lib/jdk/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre    
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib    
export PATH=${JAVA_HOME}/bin:$PATH

使用命令“source ~/.bashrc”使環境變數生效。

source ~/.bashrc

配置軟連接,軟連接相當於windows系統中的快捷鍵,部分軟體可能會從/usr/bin目錄下查找Java,因此添加該軟連接防止其他軟體查找不到的情況。

sudo update-alternatives --install /usr/bin/java  java  /usr/java/jdk1.8.0_221/bin/java 300
sudo update-alternatives --install /usr/bin/javac  javac  /usr/java/jdk1.8.0_221/bin/javac 300

測試java是否安裝成功

Hadoop單機安裝配置

將我們下載的Hadoop解壓到 /usr/local/ 中

sudo tar zxvf tmp/hadoop-3.2.1.tar.gz -C /usr/local

利用cd /usr/local/ 命令切換操作空間,將文件夾名改為hadoop

sudo mv ./hadoop-3.2.1/ ./hadoop

修改文件許可權

sudo chown -R hadoop:hadoop ./hadoop

Hadoop 解壓後,在Hadoop目錄下的etc/hadoop/hadoop-env.sh文件中添加如下的 Java環境信息。

export JAVA_HOME=/usr/java/jdk1.8.0_221

然後,保存hadoop-env.sh文件,即完成單機模式的Hadoop基本安裝。測試Hadoop是否安裝成功,如出現如下圖所示的版本信息,即可。

預設情況下,單機模式的Hadoop以Java進程的方式運行,可依次運行如下命令進行進一步測試。

sudo mkdir input
sudo cp etc/hadoop/*.xml input

執行下列命令,運行MapReduce程式,完成測試計算。

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'

執行下列命令,查看計算結果。

cat output/*

Hadoop目錄下,會有input和output兩個新建的文件,output中有上述程式 的運算結果,到此Hadoop單機安裝配置成功。

Hadoop偽分散式安裝配置

  • Hadoop可以在單節點上以偽分散式的方式運行,Hadoop進程以分 離的 Java 進程來運行,節點既作為 NameNode 也作為 DataNode, 同時,讀取的是 HDFS 中的文件
  • Hadoop的配置文件位於/usr/local/hadoop/etc/hadoop/中,偽分散式 需要修改2個配置文件 core-site.xml 和 hdfs-site.xml
  • Hadoop的配置文件是xml格式,每個配置以聲明property的name 和 value 的方式來實現
    hadoop目錄認識

hadoop下的目錄

修改配置文件之前,先看一下hadoop下的目錄:

  • bin:hadoop最基本的管理腳本和使用腳本所在目錄,這些腳本是sbin目錄下管理腳本的基礎實現,用戶可以直接使用這些腳本管理和使用hadoop
  • etc:配置文件存放的目錄,包括core-site.xml,hdfs-site.xml,mapred-site.xml等從hadoop1.x繼承而來的配置文件和yarn-site.xml等hadoop2.x新增的配置文件
  • include:對外提供的編程庫頭文件(具體動態庫和靜態庫在lib目錄中,這些頭文件軍事用c++定義的,通常用於c++程式訪問hdfs或者編寫mapreduce程式)
  • Lib:該目錄包含了hadoop對外提供的才變成動態庫和靜態庫,與include目錄中的頭文件結合使用
  • libexec:各個服務對應的shell配置文件所在目錄,可用於配置日誌輸出目錄、啟動參數等信息
  • sbin:hadoop管理腳本所在目錄,主要包含hdfs和yarn中各類服務的啟動、關閉腳本
  • share:hadoop各個模塊編譯後的jar包所在目錄。

修改配置文件 core-site.xml

 <configuration> 
   <property>
        <name>hadoop.tmp.dir</name> 
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
   </property> 
   <property>
     <name>fs.defaultFS</name>
     <value>hdfs://localhost:9000</value> 
    </property>
</configuration>
  • hadoop.tmp.dir表示存放臨時數據的目錄,即包括NameNode的數據,也包 括DataNode的數據。該路徑任意指定,只要實際存在該文件夾即可
  • name為fs.defaultFS的值,表示hdfs路徑的邏輯名稱

修改配置文件 hdfs-site.xml

<configuration> 
   <property>
       <name>dfs.replication</name>
       <value>1</value> 
   </property> 
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>file:/usr/local/hadoop/tmp/dfs/name</value> 
    </property>
   <property>
       <name>dfs.datanode.data.dir</name>         
       <value>file:/usr/local/hadoop/tmp/dfs/data</value>
   </property>
</configuration>
  • dfs.replication表示副本的數量,偽分散式要設置為1
  • dfs.namenode.name.dir表示本地磁碟目錄,是存儲fsimage文件的地方
  • dfs.datanode.data.dir表示本地磁碟目錄,HDFS數據存放block的地方
文件名稱 格式 描述
hadoop-env.sh Bash腳本 記錄配置Hadoop運行所需的環境變數,以運行 Hadoop
core-site.xml Hadoop配置XML Hadoop core的配置項,例如HDFS和MapReduce 常用的I/O設置等
hdfs-site.xml Hadoop配置XML Hadoop的守護進程的配置項,包括NameNode、 SecondaryNameNode和DataNode等
mapred-site.xml Hadoop配置XML MapReduce守護進程的配置項,包括JobTracker 和TaskTracker
masters 純文本 運行SecondaryNameNode的機器列表(每行一 個)
slaves 純文本
hadoop- metrics.properties Java屬性 控制metrics在Hadoop上如何發佈的屬性

至此,配置完畢,但是還不能啟動,要對hdfs先進行格式化。類似以前的軟盤,使用前要先格式化,執行命令:

sudo ./bin/hdfs namenode -format

看到日誌信息:即格式化成功。

在我們name目錄(這個目錄是我們自己配置的時候指定的)下也會出現映像文件(fsimage),用於將數據持久化 。

啟動Hadoop

輸入以下命令啟動Hadoop:

sbin/start-dfs.sh

安裝jps

sudo apt install openjdk-11-jdk-headless

安裝好之後jps檢查角色如果有多個角色,就啟動成功。

瀏覽器訪問localhost:9870

本次給大家分享的內容就到這裡啦,覺得還不錯的點個贊支持一下小編,你的肯定就是小編前進的動力。另外如果想瞭解更多電腦專業的知識和技巧的,獻上我的個人博客北徯,另外需要各種資料的童鞋,可以關註我的微信公眾號北徯,免費的PPT模板,各種資料等你來領。
北徯


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 學習一下CentOS8下破解root密碼,記錄下實際操作過程。 參考: https://blog.csdn.net/qq_45392321/article/details/104925955 https://blog.csdn.net/renfeigui0/article/details/10261 ...
  • "https://www.xiaoheidiannao.com/articles/Function Shortcuts For Chrome.html" ...
  • [TOC] 1.搜索鏡像 2.獲取鏡像 3.查看鏡像 4.刪除鏡像 5.導出鏡像 6.導入鏡像 ...
  • [TOC] 1.docker的介紹 1.1.docker容器是什麼? 1.2.docker的理念 1.3.docker的優點 1.4.docker的架構 1.5.docker最重要的三大組件 2.docker安裝 2.1.yum源配置 2.2.安裝docker ce 3.啟動docker 4.doc ...
  • 在安裝部署之前的服務的時候,很多小技巧都忘了,今天在這裡備份一下: apt --fix-broken install 使用,此命令可以安裝 dpkg -i 過程中出現的依賴錯誤; ...
  • 操作系統 1. 概述 什麼是操作系統? 操作系統(Operating System,OS)是控制應用程式執行和充當硬體系統和應用程式之間的界面的軟體 操作系統的是用來幹嘛的? 操作系統位於底層硬體與用戶之間,是兩者溝通的橋梁。用戶可以通過操作系統的用戶界面,輸入命令。操作系統則對命令進行解釋,驅動硬 ...
  • 最近在修改nginx的時候遇到了問題,需要重新配置nginx服務;具體流程如下: sudo apt-get purge nginx nginx-common # 卸載nginx,包括刪除配置文件。 apt install nginx 保持更新,轉載請註明出處,更多內容請關註cnblogs.com/x ...
  • 在使用VNC連接遠程ECS有時候需要用到firefox 進行下載一些資源,這時候圖形界面就很關鍵,我們需要快速建立桌面環境,以部署伺服器; 安裝過程總共分為三步: yum groupinstall "X Window System" yum groupinstall "GNOME Desktop" ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...