1. 確保Java已經正確安裝。 查看Java版本:java -version 2. 下載hadoop源程式並解壓到apache的官網下載某一版本的hadoop,不同版本可能會存在較大差異。本教程中使用版本為2.7.1 https://dist.apache.org/repos/dist/relea ...
1. 確保Java已經正確安裝。
查看Java版本:java -version
2. 下載hadoop源程式並解壓
到apache的官網下載某一版本的hadoop,不同版本可能會存在較大差異。本教程中使用版本為2.7.1 https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-2.7.1/, 解壓到某一文件夾位置。
3. 配置MacOS環境
打開終端,輸入 ssh localhost
如果有錯誤信息,多半是因為操作系統為了安全進行的預設設置。更改方法:系統偏好設置-共用-遠程登錄-將當前登錄用戶添加到允許訪問列表中。再次登錄就可以成功了。
4. 在啟動hadoop之前需要將下麵的配置加入到profile中,具體路徑按照各自情況決定。
export HADOOP_HOME=/Users/kaka/Documents/pilot/hadoop-2.7.1
export PATH=$PATH:$HADOOP_HOME/bin
5. 配置etc/hadoop下的hadoop-env.sh
export JAVA_HOME=${JAVA_HOME} 去掉註釋
export HADOOP_HEAPSIZE=2000 設置為2000
export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true" 去掉註釋
6. 配置core-site.xml - 指定NameNode主機名和埠
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/Users/kaka/Documents/pilot/hadoop-2.7.1/tmp/</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
7. 配置hdfs-site.xml - 配置namenode和datanode
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/Users/kaka/Documents/pilot/hadoop-2.7.1/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/Users/kaka/Documents/pilot/hadoop-2.7.1/tmp/dfs/data</value>
</property></configuration>
8. 配置mapred-site.xml - 指定了JobTracker的主機名與埠
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
</property>
<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>2</value>
</property>
<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>2</value>
</property>
</configuration>
9. 安裝hdfs
$HADOOP_HOME/bin/hdfs namenode -format
10. 啟動hadoop
$HADOOP_HOME/sbin/start-all.sh