參考騰訊雲實驗室 Hadoop分佈環境搭建步驟: 1.軟硬體環境 CentOS 7.2 64 位 JDK- 1.8 Hadoo p- 2.7.4 2.安裝SSH sudo yum install openssh-clients openssh-server 測試: ssh localhost 測試完 ...
Hadoop分佈環境搭建步驟:
1.軟硬體環境
CentOS 7.2 64 位 JDK- 1.8 Hadoo p- 2.7.42.安裝SSH
sudo yum install openssh-clients openssh-server 測試: ssh localhost 測試完事 exit命令退出3.安裝JAVA環境
sudo yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel 配置:目錄root/下麵的bashrc文件結尾添加:export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk 使用命令 source ~/.bashrc 使文件生效 測試:java -version $JAVA_HOME/bin/java -version 若兩條命令輸出的結果一致,且都為我們前面安裝的 openjdk-1.8.0 的版本,則表明 JDK 環境已經正確安裝並配置4.安裝Hadoop:
(1). 下載 Hadoop :wget https://archive.apache.org/dist/hadoop/common/hadoop-2.7.4/hadoop-2.7.4.tar.gz (2).將 Hadoop 安裝到 /usr/local 目錄下: tar -zxf hadoop-2.7.4.tar.gz -C /usr/local (3).重命名: cd /usr/local mv ./hadoop-2.7.4/ ./hadoop (4) 檢查Hadoop是否已經正確安裝:/usr/local/hadoop/bin/hadoop version5. Hadoop 偽分散式環境配置:
(1).設置 Hadoop 的環境變數 :在 root/ 目錄下的 .bashrc,在結尾追加如下內容: export HADOOP_HOME=/usr/local/hadoop export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin (2).使Hadoop環境變數配置生效:source ~/.bashrc (3).修改 Hadoop 的配置文件Hadoop的配置文件位於安裝目錄的 /etc/hadoop 目錄下: <!-- 編輯 core-site.xml,修改<configuration></configuration>節點的內容: --> <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>location to store temporary files</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> <!-- 編輯 hdfs-site.xml,修改<configuration></configuration>節點的內容: --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration> (4).格式化 NameNode:/usr/local/hadoop/bin/hdfs namenode -format (5).啟動 NameNode 和 DataNode 進程:/usr/local/hadoop/sbin/start-dfs.sh 檢查是否成功:jps 如果NameNode和DataNode已經正常啟動,會顯示NameNode、DataNode和SecondaryNameNode的進程信息: [hadoop@VM_80_152_centos ~]$ jps 3689 SecondaryNameNode 3520 DataNode 3800 Jps 3393 NameNode6.調試:自帶單詞計數程式
Hadoop實現自帶的MapReduce單詞計數: 第一步找到examples例子: 第二步在HDFS上面建立幾個數據目錄: hadoop fs -mkdir -p /data/wordcount hadoop fs -mkdir -p /output/ 第三步建立文件存放數據:vi /usr/inputWord 新建完成,查看內容:cat /usr/inputWord 第四步:將本地文件上傳到HDFS:hadoop fs -put /usr/inputWord /data/wordcount/ 查看上傳文件情況:hadoop fs -ls /data/wordcount 第五步運行:hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar wordcount /data/wordcount /output/wordcount 第六步顯示結果:hadoop fs -text /output/wordcount/part-r-00000 參考騰訊雲實驗室