在hadoop開發或者使用中,可能會使用到一些插件或3方軟體,比如:Eclipse的Hadoop插件,ETL的Kettle。那麼就存在一個hdfs目錄許可權的問題。 下麵就這個許可權問題進行闡述。
閱讀目錄
本文版權歸mephisto和博客園共有,歡迎轉載,但須保留此段聲明,並給出原文鏈接,謝謝合作。
文章是哥(mephisto)寫的,SourceLink
序
在hadoop開發或者使用中,可能會使用到一些插件或3方軟體,比如:Eclipse的Hadoop插件,ETL的Kettle。那麼就存在一個hdfs目錄許可權的問題。
下麵就這個許可權問題進行闡述。
HDFS許可權
一:目錄結構
Hadoop文件系統HDFS的用戶為hdfs,預設密碼為空。HDFS根目錄下還有一個tmp目錄,這個目錄是可以任何用戶進行操作的,包括新建、刪除目錄和文件(tmp下原有的其他用戶創建的文件及文件夾則不能訪問)。
二:預設許可權
我們在這個許可權下只能操作tmp目錄,如下,其他的目錄不能操作。
右鍵tmp,新建目錄test-1,刷新。
結果如下
右鍵test-1,上傳文件test.txt到DFS
其他現有目錄就沒法向上面那樣操作成功了
三:增加環境變數
在環境變數用增加兩個環境變數:
HADOOP_HOME
D:\02.Code\hadoop-2.7.1
HADOOP_USER_NAME
hdfs
四:Eclipse插件
重啟Eclipse,然後我們可以對tmp外其他目錄進行操作,我們也可以在根目錄下新建新的目錄。
點擊根目錄,新建test-1,刷新
結果。
五:Kettle
新建一個轉換,在Hadoop clusters中新建一個集群h188
點擊測試,我們可以看到User Home Directory Access是紅叉
說明是不能訪問的。
我們設置了環境變數後。
再點測試,發現可以訪問了。
--------------------------------------------------------------------
到此,本章節的內容講述完畢。
系列索引
本文版權歸mephisto和博客園共有,歡迎轉載,但須保留此段聲明,並給出原文鏈接,謝謝合作。
文章是哥(mephisto)寫的,SourceLink