原文來我的公眾號:Spark性能優化指南——初級篇 一. Spark作業原理 我們使用spark-submit提交一個Spark作業之後,這個作業就會啟動一個對應的Driver進程。該進程是向集群管理器(Yarn,K8s)申請運行Spark作業需要使用的資源,這裡的資源指的就是Executor進程。 ...
原文來我的公眾號:Spark性能優化指南——初級篇
一. Spark作業原理
我們使用spark-submit提交一個Spark作業之後,這個作業就會啟動一個對應的Driver進程。該進程是向集群管理器(Yarn,K8s)申請運行Spark作業需要使用的資源,這裡的資源指的就是Executor進程。 YARN集群管理器會根據我們為Spark作業設置的資源參數,在各個工作節點上,啟動一定數量的Executor進程,每個Executor進程都占有一定數量的記憶體和CPU core。 在申請到了作業執行所需的資源之後,Driver進程就會開始調度和執行我們編寫的作業代碼了。 Driver進程會將我們編寫的Spark作業代碼分拆為多個stage,每個stage執行一部分代碼片段,併為每個stage創建一批task,然後將這些task分配到各個Executor進程中執行。 task是最小的計算單元,負責執行一模一樣的計算邏輯(也就是我們自己編寫的某個代碼片段),只是每個task處理的數據不同而已。 一個stage的所有task都執行完畢之後,會在各個節點本地的磁碟文件中寫入計算中間結果,然後Driver就會調度運行下一個stage。 下一個stage的task的輸入數據就是上一個stage輸出的中間結果。如此迴圈往複,直到將我們自己編寫的代碼邏輯全部執行完,並且計算完所有的數據,得到我們想要的結果為止。 Spark是根據shuffle類運算元來進行stage的劃分。如果我們的代碼中執行了某個shuffle類運算元(比如reduceByKey、join等),那麼就會在該運算元處,劃分出一個stage界限來。 可以大致理解為,shuffle運算元執行之前的代碼會被劃分為一個stage,shuffle運算元執行以及之後的代碼會被劃分為下一個stage。 因此一個stage剛開始執行的時候,它的每個task可能都會從上一個stage的task所在的節點,去通過網路傳輸拉取需要自己處理的所有key,然後對拉取到的所有相同的key使用我們自己編寫的運算元函數執行聚合操作(比如reduceByKey()運算元接收的函數)。這個過程就是shuffle。 當我們在代碼中執行了cache/persist等持久化操作時,根據我們選擇的持久化級別的不同,每個task計算出來的數據也會保存到Executor進程的記憶體或者所在節點的磁碟文件中。 因此Executor的記憶體主要分為三塊: 第一塊是讓task執行我們自己編寫的代碼時使用,預設是占Executor總記憶體的20%; 第二塊是讓task通過shuffle過程拉取了上一個stage的task的輸出後,進行聚合等操作時使用,預設也是占Executor總記憶體的20%; 第三塊是讓RDD持久化時使用,預設占Executor總記憶體的60%。 task的執行速度是跟每個Executor進程的CPU core數量有直接關係的。一個CPU core同一時間只能執行一個線程。而每個Executor進程上分配到的多個task,都是以每個task一條線程的方式,多線程併發運行的。 如果CPU core數量比較充足,而且分配到的task數量比較合理,那麼通常來說,可以比較快速和高效地執行完這些task線程。二.核心調優參數
num-executors:
該參數用於設置Spark作業總共要用多少個Executor進程來執行。Driver在向YARN集群管理器申請資源時,YARN集群管理器會儘可能按照你的設置來在集群的各個工作節點上,啟動相應數量的Executor進程。這個參數非常之重要,如果不設置的話,預設只會給你啟動少量的Executor進程,此時你的Spark作業的運行速度是非常慢的。(建議50~100個左右的Executor進程)executor-memory:
該參數用於設置每個Executor進程的記憶體。Executor記憶體的大小,很多時候直接決定了Spark作業的性能,而且跟常見的JVM OOM異常,也有直接的關聯。(根據作業大小不同,建議設置4G~8G,num-executors乘以executor-memory,是不能超過隊列的最大記憶體量的)executor-cores:
該參數用於設置每個Executor進程的CPU core數量。這個參數決定了每個Executor進程並行執行task線程的能力。因為每個CPU core同一時間只能執行一個task線程,因此每個Executor進程的CPU core數量越多,越能夠快速地執行完分配給自己的所有task線程。(建議設置為2~4個,且num-executors * executor-cores不要超過隊列總CPU core的1/3~1/2)driver-memory:
該參數用於設置Driver進程的記憶體(建議設置512M到1G)。spark.default.parallelism:
該參數用於設置每個stage的預設task數量。這個參數極為重要,如果不設置可能會直接影響你的Spark作業性能。(建議為50~500左右,預設情況下Spark自己根據底層HDFS的block數量來設置task的數量,預設是一個HDFS block對應一個task。Spark官網建議設置該參數為num-executors * executor-cores的2~3倍較為合適)spark.storage.memoryFraction:
該參數用於設置RDD持久化數據在Executor記憶體中能占的比例,預設是0.6(原則上是儘可能保證數據能夠全部在記憶體中,但如果發現作業發生頻繁的GC,就該考慮是否調小)spark.shuffle.memoryFraction:
該參數用於設置shuffle過程中一個task拉取到上個stage的task的輸出後,進行聚合操作時能夠使用的Executor記憶體的比例,預設是0.2。也就是說,Executor預設只有20%的記憶體用來進行該操作。shuffle操作在進行聚合時,如果發現使用的記憶體超出了這個20%的限制,那麼多餘的數據就會溢寫到磁碟文件中去,此時就會極大地降低性能。(shuffle操作較多時,建議降低持久化操作的記憶體占比,提高shuffle操作的記憶體占比比例,避免shuffle過程中數據過多時記憶體不夠用,必須溢寫到磁碟上,降低了性能)微信掃描二維碼,關註我的公眾號 我的個人網站:http://www.itrensheng.com/