前期: 準備: 1、centos6.5 /7 x86_64(後期會更改主機名稱) 2、jdk 1.6 3、hadoop 4、zookeerper-3.4.5 5、zeromq-2.1.7 6、jzmq 2.1.0 7、mdrill 0.20.9 開始:(root用戶) (-註:這裡的主機名和host ...
前期: -------------------------------------------------------- 準備: 1、centos6.5 /7 x86_64(後期會更改主機名稱) 2、jdk 1.6 3、hadoop 4、zookeerper-3.4.5 5、zeromq-2.1.7 6、jzmq 2.1.0 7、mdrill 0.20.9 ------------------------------------------------------- 開始:(root用戶)----------(-註:這裡的主機名和hosts名都為master.chinaj.com,可以修改,但儘量不要修改,為了跟後面的文件相對應,否則需要更改的配置文件太多) 1、配置主機名: nano /etc/sysconfig/network 修改為以下內容: HOSTNAME=master.chinaj.com 2、配置hosts文件 nano /etc/hosts 增加如下內容: 主機ip地址 master.chinaj.com (192.168.0.103 master.chinaj.com) ------此處為192.168.0.103 3、關閉SELINUX nano /etc/selinux/config 修改SELINUX=disabled --------------------------------------可能需要重啟 4、配置好yum(/etc/yum.repos.d) 註:非常重要,很多軟體都是基於yum安裝 5、配置本機無密碼登陸: ssh-keygen -t rsa cd /root/.ssh/ cat id_rsa.pub >>authorized_keys ------創建authorized_keys 文件 chmod 777 authorized_keys ---- 修改 authorized_keys 許可權 ssh master.chinaj.com uptime-------註:測試,建議一定要執行; 6、安裝 java jdk(jdk1.6) yum install java-1.6.0-openjdk java-1.6.0-openjdk-devel (註: 可以使用壓縮包直接添加環境變數使用,這裡直接安裝,本可以不用配置環境變數,這裡建議配置上環境變數,預防後面出錯,也可以不添加環境變數,等出錯後再 行添加,預設安裝路徑 /usr/lib/jvm/java-1.6.0-openjdk-1.6.0.36.x86_64/,直接在/root/.bashrc 同下麵要配置的環境變數一樣,直接添加即可) 如果電腦上配置多個java環境可以通過 alternatives --cofig java 命名直接切換。 7、安裝hadoop-0.20.2 解壓目錄src,進入目錄後再次解壓install.tgz,進入hadoop-0.20.2。此處不需要解壓,若需要解壓,請自行解壓。(具體應該是hadoop-0.20.2-cdh3u3.tar.gz,此處已經給出) 直接添加環境變數:這裡的目錄為(/home/centos/mdrill/src/hadoop) 編輯 /root/.bashrc文件 nano /root/.bashrc 添加: export HADOOP_HOME=/home/centos/mdrill/src/hadoop export PATH=$PATH:$HADOOP_HOME/bin--------------------------後面有其他的環境變數,可在此直接添加路徑 8、立即啟用bashrc文件 : source /root/.bashrc 9、完後驗證 直接輸入 hadoop ---------------若出現“Usage: hadoop [--config confdir] COMMAND” 證明成功! 10、配置hadoop文件,(core-site.xml , mapred-site.xml ,hdfs-site.xml。)------在install解壓後hadoop文件夾conf目錄下。給出的配置文件基本已經配置好,無需再配置--------------------註:如果您的主機名不是相對應,需要修改 大致內容如下:(按實際情況,謹慎修改)
11、啟動hadoop start-all.sh ---啟動完後查看進程 jps(如果有5個進程 JobTracker、SecondaryNameNode、NameNode、 DataNode、Jps 、TaskTracker 則啟動成功) ----------------------------註:如果hadoop中的namenode節點沒有起來的話,可以嘗試 :hadoop namenode -format 12、在瀏覽器中輸入 : http://主機IP地址:50070或者主機名加埠號,本機的話也可以localhost:50070 13、安裝依賴 yum -y install libtool------------libtool工具 yum -y install gcc-c++ ------------------gcc工具https://app.yinxiang.com/Home.action#n=50d169d6-1209-4cb7-9702-c8056eb3b2a8&ses=4&sh=2&sds=5&
yum -y install uuid-devel
yum -y install libuuid-devel--------------- 安裝uuid-devel
14、安裝 zeromq和jzmq
直接進入目錄相應的目錄後 rmp -ivh zeromq-2.1.7.rmp
rmp -ivh jzmq 2.1.0.rpm 15、 安裝zookeeper-3.4.5 直接進入目錄 在此為:/home/centos/mdrill/src/zookeeper-3.4.5 按照步驟7、8 中配置環境變數,並啟用. ZOOPKEEPER_HOME=/home/centos/mdrill/src/zookeeper-3.4.5 PATH=$PATH:$HADOOP_HOME/bin:$ZOOPKEEPER_HOME/bin 16、驗證 直接輸入zkServer.sh----------------"Usage: /home/mdrill/zookeeper-3.4.5/bin/zkServer.sh {start|start-foreground|stop|restart|status|upgrade|print-cmd}"出現這樣的提示,證明成功。 17、配置zookeeper服務 進入conf 目錄 cp zoo_sample.cfg zoo.cfg -----------------註:請仔細觀察,在給出的源碼中,此處可省略,請酌情處理,因為這是配置好的. 在這裡需要更改的為12行左右,dataDir=PATH(修改為自己的特定的路徑) 常規的話,可能需要在末尾添加server.1=主機名:2888:3888,此處已經有了,不需要再次添加。 我這裡的目錄為 dataDir=/home/centos/mdrill/src/zookeeperdata 18、新建zookeeper服務數據文件夾 mkdir /home/centos/mdrill/src/zookeeperdata nano /home/centos/mdrill/src/zookeeperdata/myid ------------------給文件myid中寫入 “1”。 19、啟動zookeeper並查看狀態 zkServer.sh start zkServer.sh status 20、啟動客戶端測試 zkCli.sh -server mdrill:2181 ---------------------------------“WATCHER::WatchedEvent state:SyncConnected type:None path:null” 21、安裝mdrill,,,配置storm.yml文件 nano /home/centos/mdrill/src/mdrill-0.20.9/conf/storm.yaml 修改內容主要是對主機地址,shards個數,worker啟動參數進行調整。 內容大體如下: &&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& ###zookeeper配置#### storm.zookeeper.servers: - "master.chinaj.com"
storm.zookeeper.port: 2181
storm.zookeeper.root: "/higo2"
####藍鯨配置####
storm.local.dir: "/home/mdrill/alimama/bluewhale/stormwork"
nimbus.host: "master.chinaj.com"
####hadoop配置####
hadoop.conf.dir: "/home/mdrill/hadoop-0.20.2-cdh3u3/conf"
hadoop.java.opts: "-Xmx128m"
####mdrill存儲目錄配置####
higo.workdir.list: "/home/mdrill/alimama/higoworkerdir"---------------------/home/centos/mdrill/src/mdrillworker
#----mdrill的表格列表在hdfs下的路徑-----
higo.table.path: "/home/mdrill/tablelist"
#----mdrill中啟動的solr使用的初始埠號-----
higo.solr.ports.begin: 51110
#----mdrill分區方式,目前支持default,day,month,single,default是將一個月分成3個區,single意味著沒有分區-----
higo.partion.type: "month"
#----創建索引生成的每個shard的並行----
higo.index.parallel: 2
#----啟動的shard的數,每個shard為一個solr實例,結合cpu個數和記憶體進行配置,10台48G記憶體配置60----
higo.shards.count: 2
#----基於冗餘的ha,設置為1表示沒有冗餘,如果設置為2,則冗餘號位0,1----
higo.shards.replication: 1
#----啟動的merger server的worker數量,建議根據機器數量設定----
higo.mergeServer.count: 1
#----mdrill同時最多載入的分區個數,取決於記憶體與數據量----
higo.cache.partions: 1
…… ------------------------------綠色顯示為要修改的地方,其他地方,請謹慎處理
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
22、新建mdrill工作目錄 我這裡是
mkdir /home/centos/mdrill/src/mdrillworkerdir-----------------------按照個人情況建立相應的目錄
23、啟動 hadoop
start-all.sh
24、啟動zookeeper
zkServer.sh start
25、啟動 nimbus
進入mdrill的bin目錄 cd /home/centos/mdrill/src/mdrill-0.20.9/bin
修改 bluewhale的許可權 chmod 777 ./bluewhale
啟動nimbus nohup ./bluewhale nimbus >nimbus.log &
26、啟動supervisor
依然在mdrill的bin目錄中 nohup ./bluewhale supervisor >supervisor.log &
27、啟動ui和jdbc介面
mkdir ./ui -----------------此過程可以省略,因為該目錄下已經存在該文件目錄
nohup ./bluewhale mdrillui 1107 ../lib/adhoc-web-0.18-beta.jar ./ui >ui.log &
啟動後,可以通過瀏覽器打開mdrill的1107埠,看是否能正常打開即可,可看到下圖:
27、查看進程 jps(應該具有以下進程)Jps
NameNode
JobTracker
Supervisor
SecondaryNameNode
MdrillUi
NimbusServer
TaskTracker
DataNode
QuorumPeerMain
------------------------------------------------------------------------------------------
後期:
測試:單機測試