一、準備工作 安裝包鏈接: https://pan.baidu.com/s/1i6oNmOd 密碼: i6nc 環境準備 修改hostname: $ sudo vi /etc/hostname why 修改IP 地址: $ sudo vi /etc/network/interfaces auto e ...
一、準備工作
安裝包鏈接: https://pan.baidu.com/s/1i6oNmOd 密碼: i6nc
環境準備
修改hostname:
$ sudo vi /etc/hostname
why
修改IP 地址:
$ sudo vi /etc/network/interfaces
auto eth0
iface eth0 inet static
address 192.16.13.11
netmask 255.255.255.0
gateway 192.16.13.254
重啟網路服務生效:
$ sudo ifdown eth0 && sudo ifup eth0
修改ip 與主機名的對應關係:
$ sudo vi /etc/hosts
192.16.13.11 why
1.1創建hadoop用戶
$ sudo useradd -m hadoop -s /bin/bash #創建hadoop用戶,並使用/bin/bash作為shell
$ sudo passwd hadoop #為hadoop用戶設置密碼,輸入兩次
$ sudo adduser hadoop sudo #為hadoop用戶增加管理員許可權,方便部署
$ su - hadoop #將當前用戶切換到hadoop用戶
$ sudo apt-get update #更新hadoop用戶的apt,方便後續軟體安裝
1.2安裝SSH,並配置SSH無密碼登陸
$ sudo apt-get install openssh-server #ubuntu預設安裝了SSH client,此處安裝SSH server
$ ssh-keygen -t rsa
$ sudo localhost #登陸SSH,第一次登陸輸入yes
$ exit #退出登錄的ssh localhost
$ cat ./id_rsa.pub >> ./authorized_keys #加入授權
$ ssh localhost #無需密碼登陸,可看到如下界面
二、安裝jdk
$ sudo tar zxvf jdk-8u92-linux-x64.tar.gz -C /usr/lib #/ 解壓到/usr/lib/jvm目錄下
$ cd /usr/lib/jvm #進入該目錄
$ mv jdk1.8.0_92 java #重命名為java
$ vi ~/.bashrc #給JDK配置環境變數
export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
$ source ~/.bashrc #使新配置的環境變數生效
$ java -version #檢測是否安裝成功,查看java版本
安裝hadoop
$ sudo tar -zxvf hadoop-2.6.2.tar.gz -C /usr/local #解壓到/usr/local目錄下
$ cd /usr/local
$ sudo mv hadoop-2.6.2 hadoop #重命名為hadoop
$ sudo chown -R hadoop ./hadoop #修改文件許可權
$ vi ~/.bashrc
export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
$ source ~/.bashrc #使新配置的環境變數生效
Hadoop 可以在單節點上以偽分散式的方式運行,Hadoop 進程以分離的 Java 進程來運行,節點既作為 NameNode 也作為 DataNode,同時,讀取的是 HDFS 中的文件。Hadoop 的配置文件位於 /usr/local/hadoop/etc/hadoop/ 中,偽分散式需要修改2個配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每個配置以聲明 property 的 name 和 value 的方式來實現。
首先將jdk的路徑添(export JAVA_HOME=/usr/lib/jvm/java
)加到hadoop-env.sh文件
接下來修改core-site.xml文件:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
接下來修改配置文件 hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
修改 slaves ,添加節點名 why
Hadoop 的運行方式是由配置文件決定的(運行 Hadoop 時會讀取配置文件),因此如果需要從偽分散式模式切換回非分散式模式,需要刪除 core-site.xml 中的配置項。此外,偽分散式雖然只需要配置 fs.defaultFS 和 dfs.replication 就可以運行(可參考官方教程),不過若沒有配置 hadoop.tmp.dir 參數,則預設使用的臨時目錄為 /tmp/hadoo-hadoop,而這個目錄在重啟時有可能被系統清理掉,導致必須重新執行 format 才行。所以我們進行了設置,同時也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否則在接下來的步驟中可能會出錯。
配置完成後,執行 NameNode 的格式化
$ ./bin/hdfs namenode -format
啟動namenode和datanode進程,並查看啟動結果
$ ./sbin/start-dfs.sh
$ jps
啟動完成後,可以通過命令 jps 來判斷是否成功啟動,若成功啟動則會列出如下進程: “NameNode”、”DataNode” 和 “SecondaryNameNode”
五、安裝Hbase
$ sudo tar -zxf hbase-1.1.2-hadoop2-bin.tar.gz -C/usr/local #解壓到usr/local目錄下
$ cd /usr/local
$ mv ./hbase-1.1.2-hadoop2 ./hbase #重命名
$ sudo chown -R hadoop:hadoop ./hbase #修改許可權
配置命令行環境變數/etc/profile
export HBASE_HOME=/usr/local/hbase
export PATH=$HBASE_HOME/bin:$PATH
修改hbase的配置文件/conf/hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/java
export HBASE_MANAGES_ZK=true
編輯.xml配置文件 conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
<description>數據存放的位置。</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>localhost</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>指定副本個數為1,因為偽分散式。</description>
</property>
</configuration>
說明
hbase.rootdir配置在hdfs文件系統上hbase存儲的路徑
hbase.cluster.distributed配置是否是分散式的
hbase.zookeeper.quorum配置zookeeper在哪個節點上
dfs.replication配置副本個數
註意:hbase.rootdir的主機和埠號與hadoop的配置文件core-site.xml的fs.default.name的主機和埠號一致
啟動hbase,在bin目錄下執行命令start-hbase.sh
啟動hbase之前,確保hadoop是運行正常的,並且可以寫入文件*
六、安裝phoenix
$ sudo tar -zxf phoenix-4.7.0-HBase-1.1-bin.tar.gz -C/usr/local #解壓到usr/local目錄下
$ cd /usr/local
把 hbase-site.xml 考到 phoenix ./bin目錄下
把 phoenix-4.7.0-HBase-1.1-server.jar 包考到 hbase ./lib 下