在上一篇文章中,介紹了cpufreq的core層,core提供了cpufreq系統的初始化,公共數據結構的建立以及對cpufreq中其它子部件提供註冊功能。core的最核心功能是對policy的管理,一個policy通過cpufreq_policy結構中的governor欄位,和某個governor ...
在上一篇文章中,介紹了cpufreq的core層,core提供了cpufreq系統的初始化,公共數據結構的建立以及對cpufreq中其它子部件提供註冊功能。core的最核心功能是對policy的管理,一個policy通過cpufreq_policy結構中的governor欄位,和某個governor相關聯,本章的內容正是要對governor進行討論。
通過前面兩篇文章的介紹,我們知道,governor的作用是:檢測系統的負載狀況,然後根據當前的負載,選擇出某個可供使用的工作頻率,然後把該工作頻率傳遞給cpufreq_driver,完成頻率的動態調節。內核預設提供了5種governor供我們使用,在之前的內核版本中,每種governor幾乎是獨立的代碼,它們各自用自己的方式實現對系統的負載進行監測,很多時候,檢測的邏輯其實是很相似的,各個governor最大的不同之處其實是根據檢測的結果,選擇合適頻率的策略。所以,為了減少代碼的重覆,在我現在分析的內核版本中(3.10.0),一些公共的邏輯代碼被單獨抽象出來,單獨用一個文件來實現:/drivers/cpufreq/cpufreq_governor.c,而各個具體的governor則分別有自己的代碼文件,如:cpufreq_ondemand.c,cpufreq_performance.c。下麵我們先從公共部分討論。
1. 數據結構
cpu_dbs_common_info 該結構把對計算cpu負載需要使用到的一些輔助變數整合在了一起,通常,每個cpu都需要一個cpu_dbs_common_info結構體,該結構體中的成員會在governor的生命周期期間進行傳遞,以用於統計當前cpu的負載,它的定義如下:
/* Per cpu structures */
struct cpu_dbs_common_info {
int cpu;
u64 prev_cpu_idle;
u64 prev_cpu_wall;
u64 prev_cpu_nice;
struct cpufreq_policy *cur_policy;
struct delayed_work work;
struct mutex timer_mutex;
ktime_t time_stamp;
};
- cpu 與該結構體相關聯的cpu編號。
- prev_cpu_idle 上一次統計時刻該cpu停留在idle狀態的總時間。
- prev_cpu_wall 上一次統計時刻對應的總工作時間。
- cur_policy 指向該cpu所使用的cpufreq_policy結構。
- work 工作隊列,該工作隊列會被定期地觸發,然後定期地進行負載的更新和統計工作。
dbs縮寫,實際是:demand based switching,通常,因為cpu_dbs_common_info只包含了經過抽象後的公共部分,所以,各個governor會自己定義的一個包含cpu_dbs_common_info的自定義結構,例如對於ondemand,他會定義:
struct od_cpu_dbs_info_s {
struct cpu_dbs_common_info cdbs;
struct cpufreq_frequency_table *freq_table;
unsigned int freq_lo;
unsigned int freq_lo_jiffies;
unsigned int freq_hi_jiffies;
unsigned int rate_mult;
unsigned int sample_type:1;
};
而對於Conservative,他的定義如下:
struct cs_cpu_dbs_info_s {
struct cpu_dbs_common_info cdbs;
unsigned int down_skip;
unsigned int requested_freq;
unsigned int enable:1;
};
把它理解為類似於C++語言的基類和子類的概念就是了。
common_dbs_data 各個獨立的governor,需要和governor的公共層交互,需要實現一套公共的介面,這個介面由common_dbs_data結構來提供:
struct common_dbs_data {
/* Common across governors */
#define GOV_ONDEMAND 0
#define GOV_CONSERVATIVE 1
int governor;
struct attribute_group *attr_group_gov_sys; /* one governor - system */
struct attribute_group *attr_group_gov_pol; /* one governor - policy */
/* Common data for platforms that don't set have_governor_per_policy */
struct dbs_data *gdbs_data;
struct cpu_dbs_common_info *(*get_cpu_cdbs)(int cpu);
void *(*get_cpu_dbs_info_s)(int cpu);
void (*gov_dbs_timer)(struct work_struct *work);
void (*gov_check_cpu)(int cpu, unsigned int load);
int (*init)(struct dbs_data *dbs_data);
void (*exit)(struct dbs_data *dbs_data);
/* Governor specific ops, see below */
void *gov_ops;
};
主要的欄位意義如下:
- governor 因為ondemand和conservative的實現部分有很多相似的地方,用該欄位做一區分,可以設置為GOV_ONDEMAND或GOV_CONSERVATIVE的其中之一。
- attr_group_gov_sys 該公共的sysfs屬性組。
- attr_group_gov_pol 各policy使用的屬性組,有時候多個policy會使用同一個governor演算法。
- gdbs_data 通常,當沒有設置have_governor_per_policy時,表示所有的policy使用了同一種governor,該欄位指向該governor的dbs_data結構。
- get_cpu_cdbs 回調函數,公共層用它取得對應cpu的cpu_dbs_common_info結構指針。
- get_cpu_dbs_info_s 回調函數,公共層用它取得對應cpu的cpu_dbs_common_info_s的派生結構指針,例如:od_cpu_dbs_info_s,cs_cpu_dbs_info_s。
- gov_dbs_timer 前面說過,cpu_dbs_common_info_s結構中有一個工作隊列,該回調通常用作工作隊列的工作函數。
- gov_check_cpu 計算cpu負載的回調函數,通常會直接調用公共層提供的dbs_check_cpu函數完成實際的計算工作。
- init 初始化回調,用於完成該governor的一些額外的初始化工作。
- exit 回調函數,governor被移除時調用。
- gov_ops 各個governor可以用該指針定義各自特有的一些操作介面。
- dbs_data 該結構體通常由governor的公共層代碼在governor的初始化階段動態創建,該結構的一個最重要的欄位就是cdata:一個common_dbs_data結構指針,另外,該結構還包含一些定義governor工作方式的一些調節參數。該結構的詳細定義如下:
struct dbs_data {
struct common_dbs_data *cdata;
unsigned int min_sampling_rate;
int usage_count;
void *tuners;
/* dbs_mutex protects dbs_enable in governor start/stop */
struct mutex mutex;
};
幾個主要的欄位:
-
cdata 一個common_dbs_data結構指針,通常由具體governor的實現部分定義好,然後作為參數,通過公共層的API:cpufreq_governor_dbs,傳遞到公共層,cpufreq_governor_dbs函數在創建好dbs_data結構後,把該指針賦值給該欄位。
-
min_sampling_rate 用於記錄統計cpu負載的採樣周期。
-
usage_count 當沒有設置have_governor_per_policy時,意味著所有的policy採用同一個governor,該欄位就是用來統計目前該governor被多少個policy引用。
-
tuners 指向governor的調節參數結構,不同的governor可以定義自己的tuner結構,公共層代碼會在governor的初始化階段調用common_dbs_data結構的init回調函數,governor的實現可以在init回調中初始化tuners欄位。
如果設置了have_governor_per_policy,每個policy擁有各自獨立的governor,也就是說,擁有獨立的dbs_data結構,它會記錄在cpufreq_policy結構的governor_data欄位中,否則,如果沒有設置have_governor_per_policy,多個policy共用一個governor,和同一個dbs_data結構關聯,此時,dbs_data被賦值在common_dbs_data結構的gdbs_data欄位中。
cpufreq_governor 這個結構在本系列文章的第一篇已經介紹過了,請參看Linux動態頻率調節系統CPUFreq之一:概述。幾個數據結構的關係如下圖所示:
下麵我們以ondemand這個系統已經實現的governor為例,說明一下如何實現一個governor。具體的代碼請參看:/drivers/cpufreq/cpufreq_ondemand.c。
2. 定義一個governor
要實現一個governor,首先要定義一個cpufreq_governor結構,對於ondeman來說,它的定義如下:
struct cpufreq_governor cpufreq_gov_ondemand = {
.name = "ondemand",
.governor = od_cpufreq_governor_dbs,
.max_transition_latency = TRANSITION_LATENCY_LIMIT,
.owner = THIS_MODULE,
};
其中,governor是這個結構的核心欄位,cpufreq_governor註冊後,cpufreq的核心層通過該欄位操縱這個governor的行為,包括:初始化、啟動、退出等工作。現在,該欄位被設置為od_cpufreq_governor_dbs,我們看看它的實現:
static int od_cpufreq_governor_dbs(struct cpufreq_policy *policy,
unsigned int event)
{
return cpufreq_governor_dbs(policy, &od_dbs_cdata, event);
}
只是簡單地調用了governor的公共層提供的API:cpufreq_governor_dbs,關於這個API,我們在後面會逐一進行展開,這裡我們註意到參數:&od_dbs_cdata,正是我們前面討論過得common_dbs_data結構,作為和governor公共層的介面,在這裡它的定義如下:
static struct common_dbs_data od_dbs_cdata = {
.governor = GOV_ONDEMAND,
.attr_group_gov_sys = &od_attr_group_gov_sys,
.attr_group_gov_pol = &od_attr_group_gov_pol,
.get_cpu_cdbs = get_cpu_cdbs,
.get_cpu_dbs_info_s = get_cpu_dbs_info_s,
.gov_dbs_timer = od_dbs_timer,
.gov_check_cpu = od_check_cpu,
.gov_ops = &od_ops,
.init = od_init,
.exit = od_exit,
};
這裡先介紹一下get_cpu_cdbs和get_cpu_dbs_info_s這兩個回調,前面介紹cpu_dbs_common_info_s結構的時候已經說過,各個governor需要定義一個cpu_dbs_common_info_s結構的派生結構,對於ondemand來說,這個派生結構是:od_cpu_dbs_info_s。兩個回調函數分別用來獲得基類和派生類這兩個結構的指針。我們先看看od_cpu_dbs_info_s是如何定義的:
static DEFINE_PER_CPU(struct od_cpu_dbs_info_s, od_cpu_dbs_info);
沒錯,它被定義為了一個per_cpu變數,也就是說,每個cpu擁有各自獨立的od_cpu_dbs_info_s,這很正常,因為每個cpu需要的實時負載是不一樣的,需要獨立的上下文變數來進行負載的統計。前面也已經列出了od_cpu_dbs_info_s的聲明,他的第一個欄位cdbs就是一個cpu_dbs_common_info_s結構。內核為我們提供了一個輔助巨集來幫助我們定義get_cpu_cdbs和get_cpu_dbs_info_s這兩個回調函數:
#define define_get_cpu_dbs_routines(_dbs_info) \
static struct cpu_dbs_common_info *get_cpu_cdbs(int cpu) \
{ \
return &per_cpu(_dbs_info, cpu).cdbs; \
} \
\
static void *get_cpu_dbs_info_s(int cpu) \
{ \
return &per_cpu(_dbs_info, cpu); \
}
所以,在cpufreq_ondemand.c中,我們只要簡單地使用上述的巨集即可定義這兩個回調:
define_get_cpu_dbs_routines(od_cpu_dbs_info);
經過上述這一系列的定義以後,governor的公共層即可通過這兩個回調獲取各個cpu所對應的cpu_dbs_common_info_s和od_cpu_dbs_info_s的結構指針,用來記錄本次統計周期的一些上下文參數(idle時間和運行時間等等)。
3. 初始化一個governor
當一個governor被policy選定後,核心層會通過__cpufreq_set_policy函數對該cpu的policy進行設定,參看 Linux動態頻率調節系統CPUFreq之二:核心(core)架構與API中的第4節和圖4.1。如果policy認為這是一個新的governor(和原來使用的舊的governor不相同),policy會通過__cpufreq_governor函數,並傳遞CPUFREQ_GOV_POLICY_INIT參數,而__cpufreq_governor函數實際上是調用cpufreq_governor結構中的governor回調函數,在第2節中我們已經知道,這個回調最後會進入governor公共API:cpufreq_governor_dbs,下麵是它收到CPUFREQ_GOV_POLICY_INIT參數時,經過簡化後的代碼片段:
case CPUFREQ_GOV_POLICY_INIT:
......
dbs_data = kzalloc(sizeof(*dbs_data), GFP_KERNEL);
......
dbs_data->cdata = cdata;
dbs_data->usage_count = 1;
rc = cdata->init(dbs_data);
......
rc = sysfs_create_group(get_governor_parent_kobj(policy),
get_sysfs_attr(dbs_data));
......
policy->governor_data = dbs_data;
......
/* Bring kernel and HW constraints together */
dbs_data->min_sampling_rate = max(dbs_data->min_sampling_rate,
MIN_LATENCY_MULTIPLIER * latency);
set_sampling_rate(dbs_data, max(dbs_data->min_sampling_rate,
latency * LATENCY_MULTIPLIER));
if ((cdata->governor == GOV_CONSERVATIVE) &&
(!policy->governor->initialized)) {
struct cs_ops *cs_ops = dbs_data->cdata->gov_ops;
cpufreq_register_notifier(cs_ops->notifier_block,
CPUFREQ_TRANSITION_NOTIFIER);
}
if (!have_governor_per_policy())
cdata->gdbs_data = dbs_data;
return 0;
首先,它會給這個policy分配一個dbs_data實例,然後把通過參數cdata傳入的common_dbs_data指針,賦值給它的cdata欄位,這樣,policy就可以通過該欄位獲得governor的操作介面(通過cdata的一系列回調函數)。然後,調用cdata的init回調函數,對這個governor做進一步的初始化工作,對於ondemand來說,init回調的實際執行函數是:od_init,主要是完成和governor相關的一些調節參數的初始化,然後把初始化好的od_dbs_tuners結構指針賦值到dbs_data的tuners欄位中,它的詳細代碼這裡就不貼出了。接著,通過sysfs_create_group函數,建立該governor在sysfs中的節點,以後我們就可以通過這些節點對該governor的演算法邏輯進行微調,ondemand在我的電腦中,建立了以下這些節點(sys/devices/system/cpu/cpufreq/ondemand):
sampling_rate;
io_is_busy;
up_threshold;
sampling_down_factor;
ignore_nice;
powersave_bias;
sampling_rate_min;
繼續,把初始化好的dbs_data結構賦值給policy的governor_data欄位,以方便以後的訪問。最後是通過set_sampling_rate設置governor的採樣周期,如果還有設置have_governor_per_policy,把dbs_data結構指針賦值給cdata結構的gdbs_data欄位,至此,governor的初始化工作完成,下麵是整個過程的序列圖:
4. 啟動一個governor
核心層會通過__cpufreq_set_policy函數,通過CPUFREQ_GOV_POLICY_INIT參數,在公共層的API:cpufreq_governor_dbs中,完成了對governor的初始化工作,緊接著,__cpufreq_set_policy會通過CPUFREQ_GOV_START參數,和初始化governor的流程一樣,最終會到達cpufreq_governor_dbs函數中,我們看看它是如何啟動一個governor的:
case CPUFREQ_GOV_START:
if (!policy->cur)
return -EINVAL;
mutex_lock(&dbs_data->mutex);
for_each_cpu(j, policy->cpus) {
struct cpu_dbs_common_info *j_cdbs =
dbs_data->cdata->get_cpu_cdbs(j);
j_cdbs->cpu = j;
j_cdbs->cur_policy = policy;
j_cdbs->prev_cpu_idle = get_cpu_idle_time(j,
&j_cdbs->prev_cpu_wall, io_busy);
if (ignore_nice)
j_cdbs->prev_cpu_nice =
kcpustat_cpu(j).cpustat[CPUTIME_NICE];
mutex_init(&j_cdbs->timer_mutex);
INIT_DEFERRABLE_WORK(&j_cdbs->work,
dbs_data->cdata->gov_dbs_timer);
}
首先,遍歷使用該policy的所有的處於online狀態的cpu,針對每一個cpu,做以下動作:
- 取出該cpu相關聯的cpu_dbs_common_info結構指針,之前已經討論過,governor定義了一個per_cpu變數來定義各個cpu所對應的cpu_dbs_common_info結構,通過common_dbs_data結構的回調函數可以獲取該結構的指針。
- 初始化cpu_dbs_common_info結構的cpu,cur_policy,prev_cpu_idle,prev_cpu_wall,prev_cpu_nice欄位,其中,prev_cpu_idle,prev_cpu_wall這兩個欄位會被以後的負載計算所使用。
- 為每個cpu初始化一個工作隊列,工作隊列的執行函數是common_dbs_data結構中的gov_dbs_timer欄位所指向的回調函數,對於ondemand來說,該函數是:od_dbs_timer。這個工作隊列會被按照設定好的採樣率定期地被喚醒,進行cpu負載的統計工作。
然後,記錄目前的時間戳,調度初始化好的工作隊列在稍後某個時間點運行:
/* Initiate timer time stamp */
cpu_cdbs->time_stamp = ktime_get();
gov_queue_work(dbs_data, policy,
delay_for_sampling_rate(sampling_rate), true);
下圖表達了啟動一個governor的過程:
工作隊列被調度執行後,會在工作隊列的執行函數中進行cpu負載的統計工作,這個我們在下一節中討論。
5. 系統負載的檢測
上一節我們提到,核心層啟動一個governor後,會在每個使用該governor的cpu上建立一個工作隊列,工作隊列的執行函數是在common_dbs_data中gov_dbs_timer欄位所指向的函數,理所當然,該函數由各個governor的具體代碼來實現,對於ondemand governor,它的實現函數是od_dbs_timer。governor的公共層代碼為我們提供了一個API:dbs_check_cpu,該API用來計算兩個統計周期期間某個cpu的負載情況,我們先分析一下dbs_check_cpu:
void dbs_check_cpu(struct dbs_data *dbs_data, int cpu)
{
struct cpu_dbs_common_info *cdbs = dbs_data->cdata->get_cpu_cdbs(cpu);
......
policy = cdbs->cur_policy;
/* Get Absolute Load (in terms of freq for ondemand gov) */
for_each_cpu(j, policy->cpus) {
struct cpu_dbs_common_info *j_cdbs;
......
j_cdbs = dbs_data->cdata->get_cpu_cdbs(j);
......
cur_idle_time = get_cpu_idle_time(j, &cur_wall_time, io_busy);
wall_time = (unsigned int)
(cur_wall_time - j_cdbs->prev_cpu_wall);
j_cdbs->prev_cpu_wall = cur_wall_time;
idle_time = (unsigned int)
(cur_idle_time - j_cdbs->prev_cpu_idle);
j_cdbs->prev_cpu_idle = cur_idle_time;
......
load = 100 * (wall_time - idle_time) / wall_time;
......
load *= cur_freq; /* 實際的代碼不是這樣,為了簡化討論,精簡為實際的計算邏輯*/
if (load > max_load)
max_load = load;
}
dbs_data->cdata->gov_check_cpu(cpu, max_load);
}
由代碼可以看出,遍歷該policy下每個online的cpu,取出該cpu對應的cpu_dbs_common_info結構,該結構中的prev_cpu_idle和prev_cpu_wall保存有上一次採樣周期時記錄的idle時間和運行時間,負載的計算其實很簡單:
- idle_time = 本次idle時間 - 上次idle時間;
- wall_time = 本次總運行時間 - 上次總運行時間;
- 負載load = 100 * (wall_time - idle_time)/ wall_time;
- 把所有cpu中,負載最大值記入max_load中,作為選擇頻率的依據;
計算出最大負載max_load後,調用具體governor實現的gov_check_cpu回調函數,對於ondemand來說,該回調函數是:od_check_cpu,我們跟進去看看:
static void od_check_cpu(int cpu, unsigned int load_freq)
{
struct od_cpu_dbs_info_s *dbs_info = &per_cpu(od_cpu_dbs_info, cpu);
struct cpufreq_policy *policy = dbs_info->cdbs.cur_policy;
struct dbs_data *dbs_data = policy->governor_data;
struct od_dbs_tuners *od_tuners = dbs_data->tuners;
dbs_info->freq_lo = 0;
/* Check for frequency increase */
if (load_freq > od_tuners->up_threshold * policy->cur) {
/* If switching to max speed, apply sampling_down_factor */
if (policy->cur < policy->max)
dbs_info->rate_mult =
od_tuners->sampling_down_factor;
dbs_freq_increase(policy, policy->max);
return;
}
當負載比預設的閥值高時(od_tuners->up_threshold,預設值是95%),立刻選擇該policy最大的工作頻率作為接下來的工作頻率。如果負載沒有達到預設的閥值,但是當前頻率已經是最低頻率了,則什麼都不做,直接返回:
if (policy->cur == policy->min)
return;
運行到這裡,cpu的頻率可能已經在上面的過程中被設置為最大頻率,實際上我們可能並不需要這麼高的頻率,所以接著判斷,當負載低於另一個預設值時,這時需要計算一個合適於該負載的新頻率:
if (load_freq < od_tuners->adj_up_threshold
* policy->cur) {
unsigned int freq_next;
freq_next = load_freq / od_tuners->adj_up_threshold;
/* No longer fully busy, reset rate_mult */
dbs_info->rate_mult = 1;
if (freq_next < policy->min)
freq_next = policy->min;
if (!od_tuners->powersave_bias) {
__cpufreq_driver_target(policy, freq_next,
CPUFREQ_RELATION_L);
return;
}
freq_next = od_ops.powersave_bias_target(policy, freq_next,
CPUFREQ_RELATION_L);
__cpufreq_driver_target(policy, freq_next, CPUFREQ_RELATION_L);
}
}
對於ondemand來說,因為傳入的負載是乘上了當前頻率後的歸一化值,所以計算新頻率時,直接用load_freq除以想要的負載即可。本來計算出來的頻率直接通過__cpufreq_driver_target函數,交給cpufreq_driver調節頻率即可,但是這裡的處理考慮了powersave_bias的設置情況,當設置了powersave_bias時,表明我們為了進一步節省電力,我們希望在計算出來的新頻率的基礎上,再乘以一個powersave_bias設定的百分比,作為真正的運行頻率,powersave_bias的值從0-1000,每一步代表0.1%。實際的情況比想象中稍微複雜一點,考慮到乘以一個powersave_bias後的新頻率可能不在cpu所支持的頻率表中,ondemand演算法會在頻率表中查找,分別找出最接近新頻率的一個區間,由高低兩個頻率組成,低的頻率記入od_cpu_dbs_info_s結構的freq_lo欄位中,高的頻率通過od_ops.powersave_bias_target回調返回。同時,od_ops.powersave_bias_target回調函數還計算出高低兩個頻率應該運行的時間,分別記入od_cpu_dbs_info_s結構的freq_hi_jiffies和freq_low_jiffies欄位中。原則是,通過兩個不同頻率的運行時間的組合,使得綜合結果接近我們想要的目標頻率。詳細的計算邏輯請參考函數:generic_powersave_bias_target。
討論完上面兩個函數,讓我們回到本節的開頭,負載的計算工作是在一個工作隊列中發起的,前面說過,ondemand對應的工作隊列的工作函數是od_dbs_timer,我們看看他的實現代碼:
static void od_dbs_timer(struct work_struct *work)
{
......
/* Common NORMAL_SAMPLE setup */
core_dbs_info->sample_type = OD_NORMAL_SAMPLE;
if (sample_type == OD_SUB_SAMPLE) {
delay = core_dbs_info->freq_lo_jiffies;
__cpufreq_driver_target(core_dbs_info->cdbs.cur_policy,
core_dbs_info->freq_lo, CPUFREQ_RELATION_H);
} else {
dbs_check_cpu(dbs_data, cpu);
if (core_dbs_info->freq_lo) {
/* Setup timer for SUB_SAMPLE */
core_dbs_info->sample_type = OD_SUB_SAMPLE;
delay = core_dbs_info->freq_hi_jiffies;
}
}
max_delay:
if (!delay)
delay = delay_for_sampling_rate(od_tuners->sampling_rate
* core_dbs_info->rate_mult);
gov_queue_work(dbs_data, dbs_info->cdbs.cur_policy, delay, modify_all);
mutex_unlock(&core_dbs_info->cdbs.timer_mutex);
}
如果sample_type是OD_SUB_SAMPLE時,表明上一次採樣時,需要用高低兩個頻率來模擬實際的目標頻率中的第二步:需要運行freq_lo,並且持續時間為freq_lo_jiffies。否則,調用公共層計算負載的API:dbs_check_cpu,開始一次新的採樣,當powersave_bias沒有設置時,該函數返回前,所需要的新的目標頻率會被設置,考慮到powersave_bias的設置情況,判斷一下如果freq_lo被設置,說明需要用高低兩個頻率來模擬實際的目標頻率,高頻率已經在dbs_check_cpu返回前被設置(實際的設置工作是在od_check_cpu中),所以把sample_type設置為OD_SUB_SAMPLE,以便下一次運行工作函數進行採樣時可以設置低頻率運行。最後,調度工作隊列在下一個採樣時刻再次運行,這樣,cpu的工作頻率實現了在每個採樣周期,根據實際的負載情況,動態地設定合適的工作頻率進行運行,既滿足了性能的需求,也降低了系統的功耗,達到了cpufreq系統的最終目的,整個流程可以參考下圖: