熱線電話:13121318867

登錄
首頁精彩閱讀Hadoop集群搭建
Hadoop集群搭建
2017-05-21
收藏

Hadoop集群搭建

目的

本文描述了如何安裝、配置和管理有實際意義的Hadoop集群,其規??蓮膸讉€節點的小集群到幾千個節點的超大集群。

如果你希望在單機上安裝Hadoop玩玩,從這里能找到相關細節。

先決條件

確保在你集群中的每個節點上都安裝了所有必需軟件。

獲取Hadoop軟件包。

安裝

安裝Hadoop集群通常要將安裝軟件解壓到集群內的所有機器上。

通常,集群里的一臺機器被指定為NameNode,另一臺不同的機器被指定為JobTracker。這些機器是masters。余下的機器即作為DataNode也作為TaskTracker。這些機器是slaves。

我們用HADOOP_HOME指代安裝的根路徑。通常,集群里的所有機器的HADOOP_HOME路徑相同。

配置

接下來的幾節描述了如何配置Hadoop集群。

配置文件

Hadoop的配置通過conf/目錄下的兩個重要配置文件完成:

hadoop-default.xml - 只讀的默認配置。

hadoop-site.xml- 集群特有的配置。

要了解更多關于這些配置文件如何影響Hadoop框架的細節,請看這里。

此外,通過設置conf/hadoop-env.sh中的變量為集群特有的值,你可以對bin/目錄下的Hadoop腳本進行控制。

集群配置

要配置Hadoop集群,你需要設置Hadoop守護進程的運行環境和Hadoop守護進程的運行參數。

Hadoop守護進程指NameNode/DataNode       和JobTracker/TaskTracker。

配置Hadoop守護進程的運行環境

管理員可在conf/hadoop-env.sh腳本內對Hadoop守護進程的運行環境做特別指定。

至少,你得設定JAVA_HOME使之在每一遠端節點上都被正確設置。

管理員可以通過配置選項HADOOP_*_OPTS來分別配置各個守護進程。          下表是可以配置的選項。


例如,配置Namenode時,為了使其能夠并行回收垃圾(parallelGC),          要把下面的代碼加入到hadoop-env.sh:          
         export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"          

其它可定制的常用參數還包括:

HADOOP_LOG_DIR- 守護進程日志文件的存放目錄。如果不存在會被自動創建。

HADOOP_HEAPSIZE- 最大可用的堆大小,單位為MB。比如,1000MB。              這個參數用于設置hadoop守護進程的堆大小。缺省大小是1000MB。

配置Hadoop守護進程的運行參數

這部分涉及Hadoop集群的重要參數,這些參數在conf/hadoop-site.xml中指定。

通常,上述參數被標記為                    final 以確保它們不被用戶應用更改。

現實世界的集群配置

這節羅列在大規模集群上運行sort基準測試(benchmark)時使用到的一些非缺省配置。

運行sort900的一些非缺省配置值,sort900即在900個節點的集群上對9TB的數據進行排序:

運行sort1400和sort2000時需要更新的配置,即在1400個節點上對14TB的數據進行排序和在2000個節點上對20TB的數據進行排序:

Slaves

通常,你選擇集群中的一臺機器作為NameNode,另外一臺不同的機器作為JobTracker。余下的機器即作為DataNode又作為TaskTracker,這些被稱之為slaves。

在conf/slaves文件中列出所有slave的主機名或者IP地址,一行一個。

日志

Hadoop使用Apache log4j來記錄日志,它由Apache Commons Logging框架來實現。編輯conf/log4j.properties文件可以改變Hadoop守護進程的日志配置(日志格式等)。

歷史日志

作業的歷史文件集中存放在hadoop.job.history.location,這個也可以是在分布式文件系統下的路徑,其默認值為${HADOOP_LOG_DIR}/history。jobtracker的web UI上有歷史日志的web UI鏈接。

歷史文件在用戶指定的目錄hadoop.job.history.user.location也會記錄一份,這個配置的缺省值為作業的輸出目錄。這些文件被存放在指定路徑下的“_logs/history/”目錄中。因此,默認情況下日志文件會在“mapred.output.dir/_logs/history/”下。如果將hadoop.job.history.user.location指定為值none,系統將不再記錄此日志。

用戶可使用以下命令在指定路徑下查看歷史日志匯總
           $ bin/hadoop job -history output-dir
           這條命令會顯示作業的細節信息,失敗和終止的任務細節。
           關于作業的更多細節,比如成功的任務,以及對每個任務的所做的嘗試次數等可以用下面的命令查看
           $ bin/hadoop job -history all output-dir

一但全部必要的配置完成,將這些文件分發到所有機器的HADOOP_CONF_DIR路徑下,通常是${HADOOP_HOME}/conf。

Hadoop的機架感知

HDFS和Map/Reduce的組件是能夠感知機架的。

NameNode和JobTracker通過調用管理員配置模塊中的APIresolve來獲取集群里每個slave的機架id。該API將slave的DNS名稱(或者IP地址)轉換成機架id。使用哪個模塊是通過配置項topology.node.switch.mapping.impl來指定的。模塊的默認實現會調用topology.script.file.name配置項指定的一個的腳本/命令。 如果topology.script.file.name未被設置,對于所有傳入的IP地址,模塊會返回/default-rack作為機架id。在Map/Reduce部分還有一個額外的配置項mapred.cache.task.levels,該參數決定cache的級數(在網絡拓撲中)。例如,如果默認值是2,會建立兩級的cache- 一級針對主機(主機 -> 任務的映射)另一級針對機架(機架 -> 任務的映射)。

啟動Hadoop

啟動Hadoop集群需要啟動HDFS集群和Map/Reduce集群。

格式化一個新的分布式文件系統:
       $ bin/hadoop namenode -format     

在分配的NameNode上,運行下面的命令啟動HDFS
       $ bin/start-dfs.sh     

bin/start-dfs.sh腳本會參照NameNode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動DataNode守護進程。

在分配的JobTracker上,運行下面的命令啟動Map/Reduce:
       $ bin/start-mapred.sh     

bin/start-mapred.sh腳本會參照JobTracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動TaskTracker守護進程。

停止Hadoop

在分配的NameNode上,執行下面的命令停止HDFS
       $ bin/stop-dfs.sh     

bin/stop-dfs.sh腳本會參照NameNode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止DataNode守護進程。

在分配的JobTracker上,運行下面的命令停止Map/Reduce:
       $ bin/stop-mapred.sh

bin/stop-mapred.sh腳本會參照JobTracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止TaskTracker守護進程。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢