將所學知識整理一下,備忘。 1. Hdfs (v 2.7.3) 1.1.啟動集群 註:這個啟動腳本是通過ssh對多個節點的namenode、datanode、journalnode以及zkfc進程進行批量啟動的。 1.2.啟動NameNode 1.3.啟動DataNode 1.4.停止集群 1.5. ...
將所學知識整理一下,備忘。
1. Hdfs (v 2.7.3)
1.1.啟動集群
sbin/start-dfs.sh
註:這個啟動腳本是通過ssh對多個節點的namenode、datanode、journalnode以及zkfc進程進行批量啟動的。
1.2.啟動NameNode
sbin/hadoop-daemon.sh start namenode
1.3.啟動DataNode
sbin/hadoop-daemon.sh start datanode
1.4.停止集群
sbin/stop-dfs.sh
1.5.停止單個進程
sbin/hadoop-daemon.sh stop zkfc sbin/hadoop-daemon.sh stop journalnode sbin/hadoop-daemon.sh stop datanode sbin/hadoop-daemon.sh stop namenode
參考:http://www.cnblogs.com/jun1019/p/6266615.html
2. Yarn (v 2.7.3)
2.1.啟動集群
sbin/start-yarn.sh
註:start-yarn.sh啟動腳本只在本地啟動一個ResourceManager進程,而3台機器上的nodemanager都是通過ssh的方式啟動的。
2.2.啟動ResouceMananger
sbin/yarn-daemon.sh start resourcemanager
2.3.啟動NodeManager
sbin/yarn-daemon.sh start nodemanager
2.3.啟動JobHistoryServer
sbin/yarn-daemon.sh start historyserver
2.4.停止集群
sbin/stop-yarn.sh
2.5.停止單個節點
sbin/yarn-daemon.sh stop resourcemanager sbin/yarn-daemon.sh stop nodemanager
參考:http://www.cnblogs.com/jun1019/p/6266615.html
3. Zookeeper (v 3.4.5)
3.1.啟動集群
bin/zkServer.sh start
3.2.啟動單個節點
bin/zkServer.sh start
3.3.啟動客戶端
bin/zkCli.sh -server master:2181
4.Kafka (v 2.10-0.10.1.1)
4.1.啟動集群
bin/kafka-server-start.sh -daemon config/server.properties
4.2.啟動單個節點
bin/kafka-server-start.sh -daemon config/server.properties
4.3.創建Topic
bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test
4.4.列出Topic
bin/kafka-topics.sh --list --zookeeper master:2181
4.5.生產數據
bin/kafka-console-producer.sh --broker-list master:9092 --topic test
4.6.讀取數據
bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning
5.Hbase (v 1.2.4)
5.1.啟動/停止集群
bin/start-hbase.sh
bin/stop-hbase.sh
5.2. 啟動/停止HMaster
bin/hbase-daemon.sh start master
bin/hbase-daemon.sh stop master
5.3. 啟動/停止HRegionServer
bin/hbase-daemon.sh start regionserver
bin/hbase-daemon.sh stop regionserver
5.2.啟動Shell
bin/hbase shell
6.Spark (v 2.1.0-bin-hadoop2.7)
6.1.啟動程式
6.1.1. 本地
bin/spark-shell --master local
6.1.2.Standalone
bin/spark-shell --master spark://master:7077
6.1.3. Yarn Client
bin/spark-shell --master yarn-client
6.1.4. Yarn Cluster
bin/spark-shell --master yarn-cluster
7. Flume
7.1啟動Agent
bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console
8.Sqoop
8.1.導入
sqoop import \ --connect jdbc:mysql://mysql.example.com/sqoop \ --username sqoop \ --password sqoop \ --table cities
8.2.導出
sqoop export \ --connect jdbc:mysql://mysql.example.com/sqoop \ --username sqoop \ --password sqoop \ --table cities \ --export-dir cities
9.Hive
9.1. 啟動Shell
hive -h <host> -p <port> beeline -u jdbc:hive2://<host>:<port>
10. Mysql
10.1.啟動Shell
mysql -u<user> -p<password>
<未完待續>