1、若你用的Linux系統是CentOS的話,這是一個坑: 它會提示你JAVA_HOME找不到,現在去修改文件: 這是CentOS的一個大坑,手動配置JAVA_HOME環境變數。 2、啟動後無NameNode進程 如果在啟動Hadoop,start-all.sh之後一切正常。但是Jps查看進程時發現 ...
1、若你用的Linux系統是CentOS的話,這是一個坑:
它會提示你JAVA_HOME找不到,現在去修改文件:
.修改hadoop配置文件,手動指定JAVA_HOME環境變數 [${hadoop_home}/etc/hadoop/hadoop-env.sh] ... export JAVA_HOME=/soft/jdk ...
這是CentOS的一個大坑,手動配置JAVA_HOME環境變數。
2、啟動後無NameNode進程
如果在啟動Hadoop,start-all.sh之後一切正常。但是Jps查看進程時發現進程中少了一個NameNode進程,不要慌張。看看你現在的用戶是否是root用戶,因為種種原因用root用戶啟動時會出現這種情況。現在去建立hadoop專用的用戶。不要直接用root用戶了。特煩。
3、一定要設置ssh免密登陸,切記
配置SSH 1)檢查是否安裝了ssh相關軟體包(openssh-server + openssh-clients + openssh) $yum list installed | grep ssh 2)檢查是否啟動了sshd進程 $>ps -Af | grep sshd 3)在client側生成公私秘鑰對。 $>ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa 4)生成~/.ssh文件夾,裡面有id_rsa(私鑰) + id_rsa.pub(公鑰) 5)追加公鑰到~/.ssh/authorized_keys文件中(文件名、位置固定) $>cd ~/.ssh $>cat id_rsa.pub >> authorized_keys 6)修改authorized_keys的許可權為644. $>chmod 644 authorized_keys 7)測試 $>ssh localhost
4、報以下錯誤:
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
15/01/23 20:23:41 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [Java HotSpot(TM) Client VM warning: You have loaded library /hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.
It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.
hd-m1]
sed: -e expression #1, char 6: unknown option to `s'
-c: Unknown cipher type 'cd'
不要慌張,看解決方案:
主要是環境變數設置好:
在 /etc/profile 中加入
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
然後重新編譯 source /etc/profile
並把相同配置添加到hadoop-env.sh文件末尾
一般情況都能解決。
5、報以下錯誤:
mkdir: cannot create directory ‘/soft/hadoop-2.7.3/logs’: Permission denied
這是在創建logs時無許可權,原因是/soft目錄的用戶許可權為root,需要修改為hadoop用戶許可權
註意:hadoop為用戶名,/soft為安裝目錄,因人而異
解決方案:
1、先切換到root用戶 su root 2、修改/soft目錄的用戶許可權,記住要遞歸 chown -R hadoop:hadoop /soft // -R是遞歸修改 3、查看修改結果 drwxr-xr-x. 3 hadoop hadoop 4096 8月 11 06:13 hadoop drwxr-xr-x. 3 hadoop hadoop 4096 8月 11 06:20 jdk 修改成功
有幫助的話,點個推薦讓更多人看到