06yarn簡介

来源:https://www.cnblogs.com/touch-fish/archive/2023/02/08/17101977.html
-Advertisement-
Play Games

摘要:在業務功能實現時,經常會用到視圖簡化查詢SQL。但有時候會因為視圖降低查詢效率,本文主要分析在業務需求滿足的情況下,將有效的過濾條件傳遞到基表,減少運算過程中資料庫需要處理的數據量,提升SQL執行效率。 本文分享自華為雲社區《GaussDB(DWS)業務視圖優化-過濾條件傳遞》,作者:衛小毛 ...


YARN簡介

一、YARN是什麼

YARN不是facebook的那個yarn,它從Hadoop 2引入,最初目的是改善MapReduce的實現,但是因為具備足夠通用性,同樣也可以支持其他的分散式計算模式。YARN全稱是Yet Another Resource Negotiator,翻譯過來是另一種資源協調者,名字聽起來有點奇怪,但是不難看出它的用途是管理和調度Hadoop中的資源,具體來說是計算資源。

YARN和DHFS一樣也是主從架構,它有兩種服務,分為resourcemanager和nodemanager。resourcemanager負責管理nodemanager和application master進程,nodemanager負責管理容器,以及監控容器使用資源。

YARN有幾個重要的概念:

  • resourcemanager:資源管理器,管理和協調集群資源
  • nodemanager:節點管理器,啟動容器運行應用,監控容器的資源使用資源,周期向資源管理器報告自己的狀態
  • container:容器,nodemanager管理的資源的最小單元
  • application master:應用的第一個進程,可以直接運行或者繼續向資源管理器申請資源

一個YARN應用的啟動流程如下,圖中每一個虛線框代表一個物理機器:

首先客戶端提交作業到resourcemanager資源管理器(圖中第1步)。resourcemanager資源管理器尋找集群中可用資源,向nodemanager節點管理器發出創建容器請求(圖中2a步驟)。隨後容器啟動並運行應用程式,也就是application master進程(圖中2b步驟),application master會運行周期的向資源管理器報告自己的狀態。應用程式可能做什麼取決於應用本身,應用可能只是簡單執行任務,或者向集群繼續申請資源運行多個子任務。例如MapReduce應用,它會把大任務拆分成小任務,然後向resourcemanager資源管理器申請資源(圖中第3步),並且運行小任務(圖中4a和4b步驟)。YARN本身並不會為應用的進程提供通信手段,應用之間的通信手段是專屬於應用本身。


二、一個MapReduce應用運行的簡單分析

下麵通過在集群運行一個簡單MapReduce應用來理解YARN應用的啟動流程

1、集群拓撲圖

筆者的集群拓撲圖如下:

Linux-1運行一個資源管理器和節點管理器,Linux-2只運行一個節點管理器,提交任務的是一臺Windows主機。Windows機器的ip是192.168.0.109

2、應用啟動

先用jps查看集群各個機器當前運行的進程:

-- Linux-1 192.168.0.200
debian@Linux-1:~$ jps
848 ResourceManager
4112 Jps
752 DataNode
1088 NodeManager
663 NameNode

-- Linux-2 192.168.0.201
debian@Linux-2:~$ jps
15893 Jps
10219 NodeManager

然後向集群提交應用,可能會看到如下輸出:

這裡提交的應用還是maxSaleMapReduce,唯一不同的是配置文件mapreduce.job.running.map.limit(map同時最大運行數量)設置成3。可以在https://github.com/xunpengliu/hello-hadoop獲取代碼,如果之前已經下載過需要拉取最新代碼後重新打包

23/02/07 17:26:27 INFO client.RMProxy: Connecting to ResourceManager at /192.168.0.200:8032
23/02/07 17:26:37 INFO input.FileInputFormat: Total input files to process : 5
23/02/07 17:26:37 INFO mapreduce.JobSubmitter: number of splits:15
23/02/07 17:26:38 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1675757920071_0004
23/02/07 17:26:38 INFO conf.Configuration: resource-types.xml not found
23/02/07 17:26:38 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'.
23/02/07 17:26:38 INFO resource.ResourceUtils: Adding resource type - name = memory-mb, units = Mi, type = COUNTABLE
23/02/07 17:26:38 INFO resource.ResourceUtils: Adding resource type - name = vcores, units = , type = COUNTABLE
23/02/07 17:26:38 INFO impl.YarnClientImpl: Submitted application application_1675757920071_0004
23/02/07 17:26:38 INFO mapreduce.Job: The url to track the job: http://192.168.0.200:8088/proxy/application_1675757920071_0004/
23/02/07 17:26:38 INFO mapreduce.Job: Running job: job_1675757920071_0004
23/02/07 17:26:43 INFO mapreduce.Job: Job job_1675757920071_0004 running in uber mode : false
23/02/07 17:26:43 INFO mapreduce.Job:  map 0% reduce 0%
23/02/07 17:26:59 INFO mapreduce.Job:  map 3% reduce 0%
23/02/07 17:27:00 INFO mapreduce.Job:  map 11% reduce 0%

可以看到當前應用id是application_1675757920071_0004,作業id是job_1675757920071_0004,從 http://192.168.0.200:8088/proxy/application_1675757920071_0004/ 可以查詢到應用運行狀態。

等一小會,再使用jps查看運行的進程,可以看到多了1個MRAppMaster和3個YarnChild和進程。查看MRAppMaster進程埠綁定情況和NodeManager的進程樹:

-- Linux-1 192.168.0.200
debian@Linux-1:~$ jps
848 ResourceManager
752 DataNode
1088 NodeManager
3649 MRAppMaster
663 NameNode
3754 YarnChild
3789 Jps
debian@Linux-1:~$ pstree -T -p 1088
java(1088)─┬─bash(3628)───bash(3648)───java(3649)
           └─bash(3795)───bash(3750)───java(3754)
debian@Linux-1:~$ lsof -i | grep 3649
java    3649 debian  262u  IPv6  88478      0t0  TCP *:43763 (LISTEN)
java    3649 debian  273u  IPv6  88485      0t0  TCP *:42565 (LISTEN)
java    3649 debian  279u  IPv6  88487      0t0  TCP *:41731 (LISTEN)
java    3649 debian  289u  IPv6  96002      0t0  TCP 192.168.0.200:50682->192.168.0.200:8030 (ESTABLISHED)
java    3649 debian  291u  IPv6  91613      0t0  TCP 192.168.0.200:43763->192.168.0.109:55029 (ESTABLISHED)
java    3649 debian  292u  IPv6  96258      0t0  TCP 192.168.0.200:41731->192.168.0.200:46720 (ESTABLISHED)
java    3649 debian  293u  IPv6  91977      0t0  TCP 192.168.0.200:41731->192.168.0.201:56746 (ESTABLISHED)
java    3649 debian  261u  IPv6  96005      0t0  TCP 192.168.0.200:41731->192.168.0.201:56744 (ESTABLISHED)

-- Linux-2 192.168.0.201
debian@Linux-2:~$ jps
10219 NodeManager
15356 Jps
15326 YarnChild
15295 YarnChild
debian@Linux-2:~$ pstree -T -p 10219
java(10219)─┬─bash(15291)───bash(15293)───java(15295)
            └─bash(15320)───bash(15323)───java(15326)

MRAppMaster也就是MapReduce應用的application master進程,它啟動後向資源管理器繼續申請資源,然後啟動3個YARNChild進程來執行子任務,3個子任務分別運行在Linux-1和Linux-2機器上。

maxSaleMapReduce的map任務和reduce任務在啟動和完成會各輸出一行日誌,日誌內容有ip、進程啟動時間、主類名稱、進程pid。日誌文件位置在userlogs/${appid}目錄中,如果你的集群像筆者一樣沒開日誌聚合也沒修改目錄,userlogs目錄在Hadoop安裝位置的logs目錄下。日誌是按容器進行分組的,例如Linux-2上的application_1675757920071_0004目錄就有下麵幾個文件夾:

debian@Linux-2:~/program/hadoop-2.10.2/logs/userlogs/application_1675757920071_0004$ ll
總用量 44
drwx--x--- 2 debian debian 4096  2月  7 17:26 container_1675757920071_0004_01_000002
drwx--x--- 2 debian debian 4096  2月  7 17:26 container_1675757920071_0004_01_000003
drwx--x--- 2 debian debian 4096  2月  7 17:27 container_1675757920071_0004_01_000007
drwx--x--- 2 debian debian 4096  2月  7 17:27 container_1675757920071_0004_01_000008
drwx--x--- 2 debian debian 4096  2月  7 17:27 container_1675757920071_0004_01_000009
drwx--x--- 2 debian debian 4096  2月  7 17:27 container_1675757920071_0004_01_000011
drwx--x--- 2 debian debian 4096  2月  7 17:27 container_1675757920071_0004_01_000012
drwx--x--- 2 debian debian 4096  2月  7 17:28 container_1675757920071_0004_01_000014
drwx--x--- 2 debian debian 4096  2月  7 17:28 container_1675757920071_0004_01_000015
drwx--x--- 2 debian debian 4096  2月  7 17:28 container_1675757920071_0004_01_000017
drwx--x--- 2 debian debian 4096  2月  7 17:28 container_1675757920071_0004_01_000018
debian@Linux-2:~/program/hadoop-2.10.2/logs/userlogs/application_1675757920071_0004$ ll container_1675757920071_0004_01_000002
總用量 32
-rw-r--r-- 1 debian debian     0  2月  7 17:26 prelaunch.err
-rw-r--r-- 1 debian debian    70  2月  7 17:26 prelaunch.out
-rw-r--r-- 1 debian debian     0  2月  7 17:26 stderr
-rw-r--r-- 1 debian debian     0  2月  7 17:26 stdout
-rw-r--r-- 1 debian debian 27051  2月  7 17:27 syslog

syslog文件有我們自定義輸出的日誌,日誌內容如下:

-- Linux-1 192.168.0.200
debian@Linux-1:~/program/hadoop-2.10.2/logs/userlogs/application_1675757920071_0004$ cat */syslog | grep mainClass
2023-02-07 17:26:44,392 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.200,startTime->2023-02-07 17:26:42,pid->3754,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000002_0, 4]
2023-02-07 17:26:56,849 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.200,pid->3754,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000002_0, 4]
2023-02-07 17:27:06,347 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.200,startTime->2023-02-07 17:27:04,pid->3839,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000003_0, 6]
2023-02-07 17:27:18,586 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.200,pid->3839,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000003_0, 6]
2023-02-07 17:27:27,675 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.200,startTime->2023-02-07 17:27:25,pid->3904,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000006_0, 10]
2023-02-07 17:27:39,979 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.200,pid->3904,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000006_0, 10]
2023-02-07 17:27:48,950 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.200,startTime->2023-02-07 17:27:47,pid->3965,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000009_0, 13]
2023-02-07 17:28:01,263 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.200,pid->3965,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000009_0, 13]
2023-02-07 17:28:10,980 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.200,startTime->2023-02-07 17:28:09,pid->4026,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000012_0, 16]
2023-02-07 17:28:15,964 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.200,pid->4026,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000012_0, 16]

-- Linux-2 192.168.0.201
debian@Linux-2:~/program/hadoop-2.10.2/logs/userlogs/application_1675757920071_0004$ cat */syslog | grep mainClass
2023-02-07 17:26:43,338 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:26:41,pid->15295,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000000_0, 2]
2023-02-07 17:26:58,315 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15295,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000000_0, 2]
2023-02-07 17:26:44,621 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:26:42,pid->15326,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000001_0, 3]
2023-02-07 17:26:59,053 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15326,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000001_0, 3]
2023-02-07 17:28:32,397 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleReducer: reducer task setup,ip->192.168.0.201,startTime->2023-02-07 17:27:05,mainClass->org.apache.hadoop.mapred.YarnChild,pid->15421
2023-02-07 17:28:44,596 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleReducer: reducer task cleanup,ip->192.168.0.201,pid->15421,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_r_000000_0, 7]
2023-02-07 17:27:09,522 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:27:07,pid->15467,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000004_0, 8]
2023-02-07 17:27:24,832 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15467,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000004_0, 8]
2023-02-07 17:27:11,552 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:27:08,pid->15500,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000005_0, 9]
2023-02-07 17:27:32,893 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15500,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000005_0, 9]
2023-02-07 17:27:36,450 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:27:34,pid->15567,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000007_0, 11]
2023-02-07 17:27:52,060 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15567,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000007_0, 11]
2023-02-07 17:27:41,647 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:27:40,pid->15617,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000008_0, 12]
2023-02-07 17:27:56,207 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15617,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000008_0, 12]
2023-02-07 17:28:01,633 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:28:00,pid->15679,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000010_0, 14]
2023-02-07 17:28:07,591 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15679,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000010_0, 14]
2023-02-07 17:28:04,827 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:28:03,pid->15725,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000011_0, 15]
2023-02-07 17:28:11,105 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15725,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000011_0, 15]
2023-02-07 17:28:16,469 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:28:14,pid->15783,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000013_0, 17]
2023-02-07 17:28:25,503 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15783,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000013_0, 17]
2023-02-07 17:28:17,918 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task setup,ip->192.168.0.201,startTime->2023-02-07 17:28:16,pid->15814,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000014_0, 18]
2023-02-07 17:28:25,095 INFO [main] org.example.helloHadoop.maxSaleMapReduce.MaxSaleMapper: mapper task cleanup,ip->192.168.0.201,pid->15814,mainClass->org.apache.hadoop.mapred.YarnChild,args->[192.168.0.200, 41731, attempt_1675757920071_0004_m_000014_0, 18]

3、應用執行分析

通過日誌可以得到map任務和reduce任務甘特圖:

紅條是進程啟動時間,綠條是任務真正開始消耗的時間

從圖中不難看出同一時間最多只有3個map任務在運行,reduce任務很早就啟動了,但是要等map任務全部完成才真正開始。這個是因為MapReduce的“慢啟動”機制,由參數mapreduce.job.reduce.slowstart.completedmaps控制,預設值0.05,相當於map任務完成5%就開始啟動reduce任務。

MRAppMaster通過網路連接獲取子任務的狀態,MRAppMaster地址和綁定的埠會通過啟動參數傳給子進程,也就是日誌輸出的192.168.0.200, 41731。同時MRAppMaster會周期性向資源管理器報告自己的狀態,也就是這條連接192.168.0.200:50682->192.168.0.200:8030

所以基本可以簡單說明:

  1. 任務啟動首先會運行application master進程
  2. 節點管理器負責啟動容器運行應用的任務
  3. application master向資源管理器報告自己狀態
  4. application master會根據需要繼續申請資源
  5. 應用通信依賴自身,而不是通過YARN來中轉

任務會被分配到不同的機器執行,那執行文件是如何共用的呢?答案是通過HDFS共用,在MRAppMaster的日誌中有這樣兩行:

The job-jar file on the remote FS is hdfs://192.168.0.200:8082/tmp/hadoop-yarn/staging/debian/.staging/job_1675757920071_0004/job.jar
The job-conf file on the remote FS is /tmp/hadoop-yarn/staging/debian/.staging/job_1675757920071_0004/job.xml

從HDFS下載文件對比可以發現,這兩個就是任務的可執行文件和使用的配置,同時當前目錄下還有一些其他文件,比如我們的自定義依賴庫就在libjars文件夾中。


三、YARN調度資源的幾種模式

1、三種調度模式

YARN有三種調度器,分別是FIFO調度器(先進先出),容量調度器和公平調度器。

FIFO調度器是最簡單的調度器,不需要任何配置,每個應用通過排隊的方式使用集群資源。容量調度器通過隊列分割資源,不同隊列配置的容量不同,應用運行在不同的隊列上。公平調度器通過動態的方式調度資源,當一個應用啟動它會占用集群所有資源,當第二個應用啟動後,它會慢慢等第一個應用釋放出的部分資源,最終達到一個動態的公平共用資源。

2、容量調度器配置

假設有這樣一個隊列層次結構

root─┬─default
     └─dev
        └─test1
        └─test2

修改etc/hadoop/capacity-scheduler.xml文件內容為如下:

更多配置可以參考 https://hadoop.apache.org/docs/r2.10.2/hadoop-yarn/hadoop-yarn-site/CapacityScheduler.html

<configuration>
  <property>
    <name>yarn.scheduler.capacity.maximum-applications</name>
    <value>10000</value>
    <description>
      最大可以運行多少個應用
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
    <value>0.1</value>
    <description>
      application master進程占用的最大資源比例
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.queues</name>
    <value>default,dev</value>
    <description>
      root隊列下的隊列
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.queues</name>
    <value>test1,test2</value>
    <description>
      dev隊列下的隊列
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.default.capacity</name>
    <value>70</value>
    <description>
      default隊列預設容量
    </description>
  </property>
  
  <property>
    <name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
    <value>90</value>
    <description>
      default隊列最大容量
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.default.acl_submit_applications</name>
    <value>*</value>
    <description>
      哪些用戶可以提交作業到default,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.default.acl_administer_queue</name>
    <value>*</value>
    <description>
      哪些用戶可以控制default隊列任務,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.default.acl_application_max_priority</name>
    <value>*</value>
    <description>
      哪些用戶可以在default隊列設置任務優先順序,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.capacity</name>
    <value>30</value>
    <description>
      dev隊列預設容量
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.maximum-capacity</name>
    <value>50</value>
    <description>
      dev隊列最大容量
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.acl_submit_applications</name>
    <value>*</value>
    <description>
      哪些用戶可以提交作業到dev,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.acl_administer_queue</name>
    <value>*</value>
    <description>
      哪些用戶可以控制dev隊列任務,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.acl_application_max_priority</name>
    <value>*</value>
    <description>
      哪些用戶可以在dev隊列設置任務優先順序,*全部
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.test1.capacity</name>
    <value>50</value>
    <description>
      test1隊列預設容量
    </description>
  </property>

  <property>
    <name>yarn.scheduler.capacity.root.dev.test2.capacity</name>
    <value>50</value>
    <description>
      test2隊列預設容量
    </description>
  </property>
</configuration>

default隊列和dev隊列分別分配到了70%和30%的資源,dev隊列又被分成了test1和test2兩個隊列,test1和test2平分dev隊列資源。可以在資源管理器的web服務看到隊列配置:

MapReduce應用通過配置mapreduce.job.queuename來指定運行隊列,預設值是default。需要註意的是應該配置的是隊列名,例如test1,而不是隊列的全局限定名root.dev.test1。

修改應用配置文件mapreduce.job.queuenametest1,再次運行maxSaleMapReduce應用,可以發現此時只會啟動1個application master和1個YarnChild進程。

啟動進程數量和集群資源相關,因為資源受限,可以發現此時應用執行時間明顯偏長

隊列狀態:

任務信息:

3、公平調度器配置

還是剛纔的隊列層次結構:

root─┬─default
     └─dev
        └─test1
        └─test2

首先要修改yarn-site.xml文件中的配置yarn.resourcemanager.scheduler.classorg.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler

然後創建fair-scheduler.xml文件,內容如下:

更多配置可以參考 https://hadoop.apache.org/docs/r2.10.2/hadoop-yarn/hadoop-yarn-site/FairScheduler.html

<?xml version="1.0"?>
<allocations>
    <!-- 隊列內預設調度策略 -->
    <defaultQueueSchedulingPolicy>fair</defaultQueueSchedulingPolicy>

    <queue name="default">
        <weight>70</weight>
        <!-- 隊列內調度策略,支持fifo,fair,drf -->
        <schedulingPolicy>fifo</schedulingPolicy>
        <!-- 允許提交的用戶 -->
        <aclSubmitApps>*</aclSubmitApps>
        <!-- 允許管理的用戶 -->
        <aclAdministerApps>*</aclAdministerApps>
    </queue>

    <queue name="dev">
        <weight>30</weight>
        <!-- 允許提交的用戶 -->
        <aclSubmitApps>*</aclSubmitApps>
        <!-- 允許管理的用戶 -->
        <aclAdministerApps>*</aclAdministerApps>
        <queue name="test1">
            <weight>50</weight>
        </queue>
        <queue name="test2">
            <weight>50</weight>
        </queue>
    </queue>

    <!-- 任務匹配隊列規則 -->
    <queuePlacementPolicy>
        <rule name="specified" />
        <rule name="default" queue="dev.test2" />
    </queuePlacementPolicy>
</allocations>

defaultQueueSchedulingPolicy配置指定隊列內預設調度模式,如果隊列自身沒有指定調度模式,則採用此配置的值。

queuePlacementPolicy配置包含一個規則,用於匹配應用放置在哪個隊列。specified表示優先採用應用指定的隊列,如果匹配失敗則繼續匹配下一條規則。如果所有規則都不匹配則命中default規則,應用會放置在test2隊列中。

重啟資源管理器,web服務顯示信息如下:

不配置mapreduce.job.queuename參數啟動應用,可以發現應用被調度到隊列test2上:

隊列狀態:

任務信息:

與容量調度器不同的是,test1雖然只設置了dev的一半的權重,但是實際使用了dev全部資源,而dev也超出了自身的30%的權重。這個是因為當前集群只有一個任務,所以這個任務可以獨占集群所有資源。

如果一個集群非常繁忙,當任務被提交後,任務不會立即啟動,任務會等待已經運行的任務釋放資源才會啟動。為了使任務從提交到執行的時間可預測,公平調度器支持“搶占”功能。

所謂搶占就是允許調度器主動終止超過權重的隊列中運行的任務,釋放的資源會被分配給低於應得權重的隊列。但是因為任務被終止,所以被終止的任務會被重新執行,相當於降低了整個集群的運行效率。

通過設置yarn.scheduler.fair.preemption為true啟動搶占功能,更詳細的參數可以參考 https://hadoop.apache.org/docs/r2.10.2/hadoop-yarn/hadoop-yarn-site/FairScheduler.html 中的Configuration內容。

4、總結

YARN提供了三種調度器,分別是FIFO調度器(先進先出),容量調度器和公平調度器。FIFO調度器規則最為簡單,任務可以獨占所有資源以便更快的完成,但是如果出現大任務的情況會阻塞後續任務的執行。容量調度器通過隊列來分割和保留集群資源,在一個繁忙的集群中可以為某些任務有效的保留可用資源,缺點是無法高效利用集群整體資源。公平調度器通過動態調度的模式調度資源,應用之間支持主動讓出和搶占分配資源。

使用哪種模式要根據集群的業務場景來決定,不存在哪種調度模式更好或更差。


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 概述 開放封閉原則是面向對象所有原則的核心。對功能擴展開放,面向修改代碼封閉。 需求改變時,在小改變軟體實體源代碼(類、介面、方法等)的前提下通過擴展功能使其滿足新的需求。 需求 描述不同需求的用戶去銀行辦理不同的業務 分析需求 1、在這段程式中 會有多少個對象2、每個對象的屬性和行為對象1: 用戶 ...
  • docker問題 1. 安裝 docker 下載依賴環境 yum -y install yum-utils device-mapper-persistent-data lvm2 指定Docker鏡像源 # 使用的是阿裡的 yum-config-manager --add-repo http://mi ...
  • 一鍵部署nfs、rsync、sersync 項目代碼: 鏈接:https://pan.baidu.com/s/13I0BBAYsdK-KmPekZ5VpdA 提取碼:u2tw --來自百度網盤超級會員V6的分享 目錄結構 [root@m01 /ansible/roles]# tree -F . ├─ ...
  • Windows server 共用的文件操作日誌預設是沒有打開的,需要手動打開,本篇文章將詳細說明如何打開。並且如何將這個日誌輸出到ELK日誌系統中。 手動打開操作日誌 1、打開你的共用審核功能 舉例:我需要監控D盤的文件讀取、寫入、刪除等操作 右鍵D盤屬性 安全 高級 審核 繼續 添加需要監視的用 ...
  • GMAC網卡相關介紹與分析 環境描述 MII 本節信息來源 MII MII共16根線,數據位寬4(tx rx各4根信號線),TX_CLK RX_CLK均是PHY提供的。 TX_ER(Transmit Error): 發送數據錯誤提示信號,同步於TX_CLK,高電平有效,表示TX_ER有效期內傳輸的數 ...
  • M1晶元 VMware安裝centOS 1.安裝 VMware VMware個人免費,可以直接在官網下載 官網地址:https://www.vmware.com/cn.html 2.安裝 1.下載鏡像 !!!這裡是一個大坑,從官網下載的鏡像,沒辦法使用,我下載了五六個arm鏡像,全是卡在安裝界面,一 ...
  • PHY的12種狀態 enum phy_state { PHY_DOWN = 0, //關閉網卡 PHY_STARTING, //PHY設備準備好了,PHY driver尚為準備好 PHY_READY, //PHY設備註冊成功 PHY_PENDING, //PHY晶元掛起 PHY_UP, //開啟網卡 ...
  • 之前一致以為索引就是簡單的在原表的數據上加了一些編號,讓查詢更加快捷。後來發現裡面還有更深的知識。 索引用於快速查找具有特定列值的行。如果沒有索引,MySQL 必須從第一行開始,然後通讀整個表以找到相關行。表數據越多,成本就越高。如果表有相關列的索引,MySQL 可以快速確定要在數據文件中間查找的位 ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...