Hadoop學習筆記(1)-Hadoop在Ubuntu的安裝和使用

来源:https://www.cnblogs.com/xiangjunhong/archive/2020/04/20/12737263.html
-Advertisement-
Play Games

由於小編在本學期有一門課程需要學習hadoop,需要在ubuntu的linux系統下搭建Hadoop環境,在這個過程中遇到一些問題,寫下這篇博客來記錄這個過程,並把分享給大家。 Hadoop的安裝方式 單機模式:Hadoop預設模式為非分散式模式(本地模式),無需 進行其他配置即可運行。非分散式即單 ...


由於小編在本學期有一門課程需要學習hadoop,需要在ubuntu的linux系統下搭建Hadoop環境,在這個過程中遇到一些問題,寫下這篇博客來記錄這個過程,並把分享給大家。

Hadoop的安裝方式

  • 單機模式:Hadoop預設模式為非分散式模式(本地模式),無需 進行其他配置即可運行。非分散式即單 Java 進程,方便進行調試
  • 偽分散式模式:Hadoop可以在單節點上以偽分散式的方式運行, Hadoop 進程以分離的 Java 進程來運行,節點既作為 NameNode 也 作為 DataNode,同時,讀取的是 HDFS 中的文件
  • 分散式模式:使用多個節點構成集群環境來運行Hadoop

創建Hadoop用戶(可選)

如果安裝 Ubuntu 的時候不是用的 “hadoop” 用戶,那麼需要增加一個名為hadoop 的用戶,首先按打開終端視窗,輸入如下命令創建新用戶 :

sudo useradd –m hadoop –s /bin/bash

上面這條命令創建了可以登陸的 hadoop 用戶,並使用 /bin/bash 作為 shell 接著使用如下命令設置密碼,可簡單設置為 hadoop,按提示輸入兩次密碼:

 sudo passwd hadoop

可為 hadoop 用戶增加管理員許可權,方便部署,避免一些對新手來說比較棘 手的許可權問題:

sudo adduser hadoop sudo

SSH登錄許可權設置

SSH是什麼?

SSH 為 Secure Shell 的縮寫,是建立在應用層和傳輸層基礎上的安全協議。 SSH 是目前較可靠、專為遠程登錄會話和其他網路服務提供安全性的協議。 利用 SSH 協議可以有效防止遠程管理過程中的信息泄露問題。SSH最初是 UNIX系統上的一個程式,後來又迅速擴展到其他操作平臺。 SSH是由客 戶端和服務端的軟體組成,服務端是一個守護進程(daemon),它在後臺運 行並響應來自客戶端的連接請求,客戶端包含ssh程式以及像scp(遠程拷 貝)、slogin(遠程登陸)、sftp(安全文件傳輸)等其他的應用程式.

配置SSH的原因

Hadoop名稱節點(NameNode)需要啟動集群中所有機器的Hadoop守護進程,這個過 程需要通過SSH登錄來實現。Hadoop並沒有提供SSH輸入密碼登錄的形式,因此,為 了能夠順利登錄每台機器,需要將所有機器配置為名稱節點可以無密碼登錄它們。

配置SSH的無密碼登錄

安裝openssh-server( 通常Linux系統會預設安裝openssh的客戶端軟體openssh-client),所以需要自己安裝一下服務端。

sudo apt-get install openssh-server

輸入 cd .ssh目錄下,如果沒有.ssh文件 輸入 ssh localhost生成。

cd ~/.ssh/

生成秘鑰

ssh-keygen -t rsa

將Master中生成的密鑰加入授權(authorized_keys)

cat id_rsa.pub                     # 查看生成的公鑰

cat id_rsa.pub >> authorized_keys    # 加入授權
chmod 600 authorized_keys    # 修改文件許可權,如果不修改文件許可權,那麼其它用戶就能查看該授權

完成後,直接鍵入“ssh localhost”,能無密碼登錄即可,

鍵入“exit”退出,到此SSH無密碼登錄配置就成功了。

安裝Java環境

scp命令傳輸Mac的文件到ubuntu

因為老師給了我們的java的jdk安裝包,想著不用去ubuntu重新下載,所以就想到了利用scp命令傳輸Mac的文件到ubuntu,利用這個命令前提是Ubuntu安裝了SSH伺服器,在之前我們已經有了這步操作。

利用ifconfig查看ubuntu伺服器的區域網IP地址

以下是利用scp命令傳輸文件的基本格式:
1. 本地文件傳輸到伺服器

從本地將文件傳輸到伺服器 從本地將文件夾傳輸到伺服器
scp[本地文件的路徑] [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] scp -r[本地文件的路徑] [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑]
scp /Users/mac/Desktop/test.txt [email protected]:/root scp -r /Users/mac/Desktop/test [email protected]:/root

2. 伺服器文件傳輸到本地

將伺服器上的文件傳輸到本地 將伺服器上的文件夾傳輸到本地
scp [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] [本地文件的路徑] scp -r [伺服器用戶名]@[伺服器地址]:[伺服器上存放文件的路徑] [本地文件的路徑]
scp [email protected]:/root/default/test.txt /Users/mac/Desktop scp -r [email protected]:/root/default/test /Users/mac/Desktop

mac客戶端執行傳輸命令

在選擇Linux伺服器端的儲存文件地址時,由於許可權原因,預設的是在/tmp有許可權,可以先把文件放到tmp文件目錄下,然後在進行mv 或者scp到其他目錄,即可。

scp /Users/xjh/Desktop/jdk-8u221-linux-x64.tar.gz [email protected]:/tmp

傳輸速度還是蠻快的,如下圖:

在Ubuntu將jdk移動到我們新建的java目錄下(沒建的新建一個就是),到此傳輸文件成功,可以開始配置Java環境了。

sudo mv /tmp/jdk-8u221-linux-x64.tar.gz usr/java

在java目錄中,使用sudo tar命令解壓jdk文件;

解壓成功後,java目錄中會有對應的目錄文件存在

配置Java環境

使用命令“sudo gedit ~/.bashrc”打開配置文件,在末尾添加以下幾行文字,註意自己的jdk版本號。

#set java env
export JAVA_HOME=/usr/lib/jdk/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre    
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib    
export PATH=${JAVA_HOME}/bin:$PATH

使用命令“source ~/.bashrc”使環境變數生效。

source ~/.bashrc

配置軟連接,軟連接相當於windows系統中的快捷鍵,部分軟體可能會從/usr/bin目錄下查找Java,因此添加該軟連接防止其他軟體查找不到的情況。

sudo update-alternatives --install /usr/bin/java  java  /usr/java/jdk1.8.0_221/bin/java 300
sudo update-alternatives --install /usr/bin/javac  javac  /usr/java/jdk1.8.0_221/bin/javac 300

測試java是否安裝成功

Hadoop單機安裝配置

將我們下載的Hadoop解壓到 /usr/local/ 中

sudo tar zxvf tmp/hadoop-3.2.1.tar.gz -C /usr/local

利用cd /usr/local/ 命令切換操作空間,將文件夾名改為hadoop

sudo mv ./hadoop-3.2.1/ ./hadoop

修改文件許可權

sudo chown -R hadoop:hadoop ./hadoop

Hadoop 解壓後,在Hadoop目錄下的etc/hadoop/hadoop-env.sh文件中添加如下的 Java環境信息。

export JAVA_HOME=/usr/java/jdk1.8.0_221

然後,保存hadoop-env.sh文件,即完成單機模式的Hadoop基本安裝。測試Hadoop是否安裝成功,如出現如下圖所示的版本信息,即可。

預設情況下,單機模式的Hadoop以Java進程的方式運行,可依次運行如下命令進行進一步測試。

sudo mkdir input
sudo cp etc/hadoop/*.xml input

執行下列命令,運行MapReduce程式,完成測試計算。

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'

執行下列命令,查看計算結果。

cat output/*

Hadoop目錄下,會有input和output兩個新建的文件,output中有上述程式 的運算結果,到此Hadoop單機安裝配置成功。

Hadoop偽分散式安裝配置

  • Hadoop可以在單節點上以偽分散式的方式運行,Hadoop進程以分 離的 Java 進程來運行,節點既作為 NameNode 也作為 DataNode, 同時,讀取的是 HDFS 中的文件
  • Hadoop的配置文件位於/usr/local/hadoop/etc/hadoop/中,偽分散式 需要修改2個配置文件 core-site.xml 和 hdfs-site.xml
  • Hadoop的配置文件是xml格式,每個配置以聲明property的name 和 value 的方式來實現
    hadoop目錄認識

hadoop下的目錄

修改配置文件之前,先看一下hadoop下的目錄:

  • bin:hadoop最基本的管理腳本和使用腳本所在目錄,這些腳本是sbin目錄下管理腳本的基礎實現,用戶可以直接使用這些腳本管理和使用hadoop
  • etc:配置文件存放的目錄,包括core-site.xml,hdfs-site.xml,mapred-site.xml等從hadoop1.x繼承而來的配置文件和yarn-site.xml等hadoop2.x新增的配置文件
  • include:對外提供的編程庫頭文件(具體動態庫和靜態庫在lib目錄中,這些頭文件軍事用c++定義的,通常用於c++程式訪問hdfs或者編寫mapreduce程式)
  • Lib:該目錄包含了hadoop對外提供的才變成動態庫和靜態庫,與include目錄中的頭文件結合使用
  • libexec:各個服務對應的shell配置文件所在目錄,可用於配置日誌輸出目錄、啟動參數等信息
  • sbin:hadoop管理腳本所在目錄,主要包含hdfs和yarn中各類服務的啟動、關閉腳本
  • share:hadoop各個模塊編譯後的jar包所在目錄。

修改配置文件 core-site.xml

 <configuration> 
   <property>
        <name>hadoop.tmp.dir</name> 
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
   </property> 
   <property>
     <name>fs.defaultFS</name>
     <value>hdfs://localhost:9000</value> 
    </property>
</configuration>
  • hadoop.tmp.dir表示存放臨時數據的目錄,即包括NameNode的數據,也包 括DataNode的數據。該路徑任意指定,只要實際存在該文件夾即可
  • name為fs.defaultFS的值,表示hdfs路徑的邏輯名稱

修改配置文件 hdfs-site.xml

<configuration> 
   <property>
       <name>dfs.replication</name>
       <value>1</value> 
   </property> 
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>file:/usr/local/hadoop/tmp/dfs/name</value> 
    </property>
   <property>
       <name>dfs.datanode.data.dir</name>         
       <value>file:/usr/local/hadoop/tmp/dfs/data</value>
   </property>
</configuration>
  • dfs.replication表示副本的數量,偽分散式要設置為1
  • dfs.namenode.name.dir表示本地磁碟目錄,是存儲fsimage文件的地方
  • dfs.datanode.data.dir表示本地磁碟目錄,HDFS數據存放block的地方
文件名稱 格式 描述
hadoop-env.sh Bash腳本 記錄配置Hadoop運行所需的環境變數,以運行 Hadoop
core-site.xml Hadoop配置XML Hadoop core的配置項,例如HDFS和MapReduce 常用的I/O設置等
hdfs-site.xml Hadoop配置XML Hadoop的守護進程的配置項,包括NameNode、 SecondaryNameNode和DataNode等
mapred-site.xml Hadoop配置XML MapReduce守護進程的配置項,包括JobTracker 和TaskTracker
masters 純文本 運行SecondaryNameNode的機器列表(每行一 個)
slaves 純文本
hadoop- metrics.properties Java屬性 控制metrics在Hadoop上如何發佈的屬性

至此,配置完畢,但是還不能啟動,要對hdfs先進行格式化。類似以前的軟盤,使用前要先格式化,執行命令:

sudo ./bin/hdfs namenode -format

看到日誌信息:即格式化成功。

在我們name目錄(這個目錄是我們自己配置的時候指定的)下也會出現映像文件(fsimage),用於將數據持久化 。

啟動Hadoop

輸入以下命令啟動Hadoop:

sbin/start-dfs.sh

安裝jps

sudo apt install openjdk-11-jdk-headless

安裝好之後jps檢查角色如果有多個角色,就啟動成功。

瀏覽器訪問localhost:9870

本次給大家分享的內容就到這裡啦,覺得還不錯的點個贊支持一下小編,你的肯定就是小編前進的動力。另外如果想瞭解更多電腦專業的知識和技巧的,獻上我的個人博客北徯,另外需要各種資料的童鞋,可以關註我的微信公眾號北徯,免費的PPT模板,各種資料等你來領。
北徯


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 學習一下CentOS8下破解root密碼,記錄下實際操作過程。 參考: https://blog.csdn.net/qq_45392321/article/details/104925955 https://blog.csdn.net/renfeigui0/article/details/10261 ...
  • "https://www.xiaoheidiannao.com/articles/Function Shortcuts For Chrome.html" ...
  • [TOC] 1.搜索鏡像 2.獲取鏡像 3.查看鏡像 4.刪除鏡像 5.導出鏡像 6.導入鏡像 ...
  • [TOC] 1.docker的介紹 1.1.docker容器是什麼? 1.2.docker的理念 1.3.docker的優點 1.4.docker的架構 1.5.docker最重要的三大組件 2.docker安裝 2.1.yum源配置 2.2.安裝docker ce 3.啟動docker 4.doc ...
  • 在安裝部署之前的服務的時候,很多小技巧都忘了,今天在這裡備份一下: apt --fix-broken install 使用,此命令可以安裝 dpkg -i 過程中出現的依賴錯誤; ...
  • 操作系統 1. 概述 什麼是操作系統? 操作系統(Operating System,OS)是控制應用程式執行和充當硬體系統和應用程式之間的界面的軟體 操作系統的是用來幹嘛的? 操作系統位於底層硬體與用戶之間,是兩者溝通的橋梁。用戶可以通過操作系統的用戶界面,輸入命令。操作系統則對命令進行解釋,驅動硬 ...
  • 最近在修改nginx的時候遇到了問題,需要重新配置nginx服務;具體流程如下: sudo apt-get purge nginx nginx-common # 卸載nginx,包括刪除配置文件。 apt install nginx 保持更新,轉載請註明出處,更多內容請關註cnblogs.com/x ...
  • 在使用VNC連接遠程ECS有時候需要用到firefox 進行下載一些資源,這時候圖形界面就很關鍵,我們需要快速建立桌面環境,以部署伺服器; 安裝過程總共分為三步: yum groupinstall "X Window System" yum groupinstall "GNOME Desktop" ...
一周排行
    -Advertisement-
    Play Games
  • 示例項目結構 在 Visual Studio 中創建一個 WinForms 應用程式後,項目結構如下所示: MyWinFormsApp/ │ ├───Properties/ │ └───Settings.settings │ ├───bin/ │ ├───Debug/ │ └───Release/ ...
  • [STAThread] 特性用於需要與 COM 組件交互的應用程式,尤其是依賴單線程模型(如 Windows Forms 應用程式)的組件。在 STA 模式下,線程擁有自己的消息迴圈,這對於處理用戶界面和某些 COM 組件是必要的。 [STAThread] static void Main(stri ...
  • 在WinForm中使用全局異常捕獲處理 在WinForm應用程式中,全局異常捕獲是確保程式穩定性的關鍵。通過在Program類的Main方法中設置全局異常處理,可以有效地捕獲並處理未預見的異常,從而避免程式崩潰。 註冊全局異常事件 [STAThread] static void Main() { / ...
  • 前言 給大家推薦一款開源的 Winform 控制項庫,可以幫助我們開發更加美觀、漂亮的 WinForm 界面。 項目介紹 SunnyUI.NET 是一個基於 .NET Framework 4.0+、.NET 6、.NET 7 和 .NET 8 的 WinForm 開源控制項庫,同時也提供了工具類庫、擴展 ...
  • 說明 該文章是屬於OverallAuth2.0系列文章,每周更新一篇該系列文章(從0到1完成系統開發)。 該系統文章,我會儘量說的非常詳細,做到不管新手、老手都能看懂。 說明:OverallAuth2.0 是一個簡單、易懂、功能強大的許可權+可視化流程管理系統。 有興趣的朋友,請關註我吧(*^▽^*) ...
  • 一、下載安裝 1.下載git 必須先下載並安裝git,再TortoiseGit下載安裝 git安裝參考教程:https://blog.csdn.net/mukes/article/details/115693833 2.TortoiseGit下載與安裝 TortoiseGit,Git客戶端,32/6 ...
  • 前言 在項目開發過程中,理解數據結構和演算法如同掌握蓋房子的秘訣。演算法不僅能幫助我們編寫高效、優質的代碼,還能解決項目中遇到的各種難題。 給大家推薦一個支持C#的開源免費、新手友好的數據結構與演算法入門教程:Hello演算法。 項目介紹 《Hello Algo》是一本開源免費、新手友好的數據結構與演算法入門 ...
  • 1.生成單個Proto.bat內容 @rem Copyright 2016, Google Inc. @rem All rights reserved. @rem @rem Redistribution and use in source and binary forms, with or with ...
  • 一:背景 1. 講故事 前段時間有位朋友找到我,說他的窗體程式在客戶這邊出現了卡死,讓我幫忙看下怎麼回事?dump也生成了,既然有dump了那就上 windbg 分析吧。 二:WinDbg 分析 1. 為什麼會卡死 窗體程式的卡死,入口門檻很低,後續往下分析就不一定了,不管怎麼說先用 !clrsta ...
  • 前言 人工智慧時代,人臉識別技術已成為安全驗證、身份識別和用戶交互的關鍵工具。 給大家推薦一款.NET 開源提供了強大的人臉識別 API,工具不僅易於集成,還具備高效處理能力。 本文將介紹一款如何利用這些API,為我們的項目添加智能識別的亮點。 項目介紹 GitHub 上擁有 1.2k 星標的 C# ...