本文是對Datawhale的動手學數據分析課程的學習總結,記錄了整體的學習過程、答案以及個人感想,代碼較為詳細。 ...
動手學數據分析
第一章:數據載入及初步觀察
載入數據
任務一:導入numpy和pandas
import numpy as np
import pandas as pd
任務二:載入數據
train_data = pd.read_csv("train.csv")
train_data.head(5)
train_data = pd.read_table("train.csv")
train_data.head(5)
這兩個讀取方式的區別在於read_csv讀取的是預設分割符為逗號,而read_csv讀取預設分隔符為製表符。
任務三:每1000行為一個數據模塊,逐塊讀取
chunker = pd.read_csv("train.csv", chunksize = 1000)
print(type(chunker))
【思考】什麼是逐塊讀取?為什麼要逐塊讀取呢?
答:比如後續遍歷,像一個數據迭代器一樣方便讀取
【提示】大家可以chunker(數據塊)是什麼類型?用for
迴圈列印出來出處具體的樣子是什麼?
答:<class 'pandas.io.parsers.TextFileReader'>,for遍歷每次列印出來1000行
將表頭改成中文
train_data = pd.read_csv("train.csv", names=['乘客ID','是否幸存','倉位等級','姓名','性別','年齡','兄弟姐妹個數','父母子女個數','船票信息','票價','客艙','登船港口'],index_col='乘客ID', header=0)
train_data.head(5)
【思考】所謂將表頭改為中文其中一個思路是:將英文列名錶頭替換成中文。還有其他的方法嗎?
答:可以讀入後再進行修改
初步觀察
任務一:查看數據的基本信息
train_data.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 891 entries, 1 to 891
Data columns (total 11 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 是否幸存 891 non-null int64
1 倉位等級 891 non-null int64
2 姓名 891 non-null object
3 性別 891 non-null object
4 年齡 714 non-null float64
5 兄弟姐妹個數 891 non-null int64
6 父母子女個數 891 non-null int64
7 船票信息 891 non-null object
8 票價 891 non-null float64
9 客艙 204 non-null object
10 登船港口 889 non-null object
dtypes: float64(2), int64(4), object(5)
memory usage: 83.5+ KB
【提示】有多個函數可以這樣做,你可以做一下總結
- df.info(): # 列印摘要
- df.describe(): # 描述性統計信息
- df.values: # 數據
- df.to_numpy() # 數據
(推薦) - df.shape: # 形狀 (行數, 列數)
- df.columns: # 列標簽
- df.columns.values: # 列標簽
- df.index: # 行標簽
- df.index.values: # 行標簽
- df.head(n): # 前n行
- df.tail(n): # 尾n行
- pd.options.display.max_columns=n: # 最多顯示n列
- pd.options.display.max_rows=n: # 最多顯示n行
- df.memory_usage(): # 占用記憶體(位元組B)
任務二:觀察表格前10行和後15行的數據
train_data.head(10)
train_data.tail(15)
任務三:判斷數據是否為空,為空的地方返回true,否則返回false
train_data.isnull().head(10)
【思考】對於一個數據,還可以從哪些方面來觀察?找找答案,這個將對下麵的數據分析有很大的幫助
答:從分佈方面
保存數據
任務一:將你載入並做出改變的數據,在工作目錄下保存為一個新文件train_chinese.csv
# 註意:不同的操作系統保存下來可能會有亂碼。大家可以加入`encoding='GBK' 或者 ’encoding = ’utf-8‘‘`
train_data.to_csv("train_chinese.csv",encoding='GBK')
知道你的數據叫什麼
任務一:pandas中有兩個數據類型DateFrame和Series,通過查找簡單瞭解他們。然後自己寫一個關於這兩個數據類型的小例子
myself = {"name":"FavoriteStar",'age':18,"gender":"男性"}
example = pd.Series(myself)
example
myself2 = {"愛好":["打籃球",'唱歌','躺平'], "程度":[100, 90, 80]}
example2 = pd.Series(myself2)
example2
愛好 [打籃球, 唱歌, 躺平]
程度 [100, 90, 80]
dtype: object
任務二:根據上節課的方法載入"train.csv"文件
train_data = pd.read_csv("train_chinese.csv",encoding='GBK')
# 在保存的時候用了GBK,載入就也要用,否則會亂碼
任務三:查看DataFrame數據的每列的名稱
train_data.columns
Index(['乘客ID', '是否幸存', '倉位等級', '姓名', '性別', '年齡', '兄弟姐妹個數', '父母子女個數', '船票信息','票價', '客艙', '登船港口'],dtype='object')
任務四:查看"Cabin"這列的所有值
train_data['客艙'].unique()
train_data.客艙.unique()
任務五:載入文件"test_1.csv",然後對比"train.csv",看看有哪些多出的列,然後將多出的列刪除
test_data = pd.read_csv("test_1.csv")
test_data_drop = test_data.drop('a',axis = 1)
test_data.head(5)
【思考】還有其他的刪除多餘的列的方式嗎?
del test_data['a']
df.drop(columns='a')
df.drop(columns=['a'])
任務六: 將['PassengerId','Name','Age','Ticket']這幾個列元素隱藏,只觀察其他幾個列元素
test_data_drop.drop(['PassengerId','Name','Age','Ticket'],axis=1).head(3)
# 這裡隱藏後返回,並不是在原來的數據上進行修改
【思考】對比任務五和任務六,是不是使用了不一樣的方法(函數),如果使用一樣的函數如何完成上面的不同的要求呢?
【思考回答】如果想要完全的刪除你的數據結構,使用inplace=True,因為使用inplace就將原數據覆蓋了,所以這裡沒有用
篩選的邏輯
任務一: 我們以"Age"為篩選條件,顯示年齡在10歲以下的乘客信息
train_data[train_data['年齡']<10].head(10)
任務二: 以"Age"為條件,將年齡在10歲以上和50歲以下的乘客信息顯示出來,並將這個數據命名為midage
midage = train_data[(train_data["年齡"] > 10) & (train_data["年齡"]< 50)]
任務三:將midage的數據中第100行的"Pclass"和"Sex"的數據顯示出來
midage = midage.reset_index(drop=True)
# 用這個重置索引的目的是因為可能我們前面用了乘客ID作為索引,就達不到取出第100行的目的,就會取出乘客id為100的
midage.loc[[100],["倉位等級","性別"]]
任務四:使用loc方法將midage的數據中第100,105,108行的"Pclass","Name"和"Sex"的數據顯示出來
midage.loc[[100,105,108],["倉位等級","性別"]]
任務五:使用iloc方法將midage的數據中第100,105,108行的"Pclass","Name"和"Sex"的數據顯示出來
midage.iloc[[100,105,108],[2,3,4]]
【思考】對比iloc
和loc
的異同
答:iloc傳入的列的索引為真正的索引,而loc傳入的為列的名稱
瞭解你的數據嗎
任務一:利用Pandas對示例數據進行排序,要求升序
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
bj1.sort_values(by=['a'])
【問題】:大多數時候我們都是想根據列的值來排序,所以將你構建的DataFrame中的數據根據某一列,升序排列
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
obj1
obj1.sort_values(by='A',axis='columns')
【思考】通過書本你能說出Pandas對DataFrame數據的其他排序方式嗎?
答:rank可能也有用,還有sort_index
【總結】下麵將不同的排序方式做一個總結
1.讓行索引升序排序
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
obj1.sort_index(axis = 0)
2.讓列索引升序排序
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
obj1.sort_index(axis = 1)
3.讓列索引降序排序
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
obj1.sort_index(axis = 0, ascending=False)
4.讓任選兩列數據同時降序排序
obj1 = pd.DataFrame({"a":[800,400,200],"c":[900,700,400],"b":[700,500,100]},index = ['A','C','B'])
obj1.sort_values(by=['a','b'],ascending=False)
任務二:對泰坦尼克號數據(trian.csv)按票價和年齡兩列進行綜合排序(降序排列),從這個數據中你可以分析出什麼
train_data.head(5)
train_data.sort_values(by=['票價','年齡'],ascending=False).head(20)
【思考】排序後,如果我們僅僅關註年齡和票價兩列。根據常識我知道發現票價越高的應該客艙越好,所以我們會明顯看出,票價前20的乘客中存活的有14人,這是相當高的一個比例
多做幾個數據的排序
train_data.sort_values(by=['性別'],ascending=False).head(20)
按照年齡排序的話前20人只有5人存活,並且可以看到年齡最高人20人很多人的父母子女個數都為0
任務三:利用Pandas進行算術計算,計算兩個DataFrame數據相加結果
frame_a = pd.DataFrame(np.arange(9.).reshape(3, 3),
columns=['a', 'b', 'c'],
index=['one', 'two', 'three'])
frame_b = pd.DataFrame(np.arange(12.).reshape(4, 3),
columns=['a', 'e', 'c'],
index=['first', 'one', 'two', 'second'])
frame_a + frame_b
任務四:通過泰坦尼克號數據如何計算出在船上最大的家族有多少人
(train_data['兄弟姐妹個數'] + train_data['父母子女個數']).max()
max(train_data['兄弟姐妹個數'] + train_data['父母子女個數'])
答案為10
任務五:學會使用Pandas describe()函數查看數據基本統計信息
frame2 = pd.DataFrame([[1.4, np.nan],
[7.1, -4.5],
[np.nan, np.nan],
[0.75, -1.3]
], index=['a', 'b', 'c', 'd'], columns=['one', 'two'])
frame2.describe()
任務六:分別看看泰坦尼克號數據集中 票價、父母子女 這列數據的基本統計數據,你能發現什麼
train_data[['票價','父母子女個數']].describe()
數據清洗及特征清理
缺失值觀察與處理
任務一:缺失值觀察
(1) 請查看每個特征缺失值個數
(2) 請查看Age, Cabin, Embarked列的數據 以上方式都有多種方式
train_data.isnull().sum()
train_data.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 891 entries, 0 to 890
Data columns (total 12 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 PassengerId 891 non-null int64
1 Survived 891 non-null int64
2 Pclass 891 non-null int64
3 Name 891 non-null object
4 Sex 891 non-null object
5 Age 714 non-null float64
6 SibSp 891 non-null int64
7 Parch 891 non-null int64
8 Ticket 891 non-null object
9 Fare 891 non-null float64
10 Cabin 204 non-null object
11 Embarked 889 non-null object
dtypes: float64(2), int64(5), object(5)
memory usage: 83.7+ KB
train_data[['Age','Cabin','Embarked']].head(10)
任務二:對缺失值進行處理
(1)處理缺失值一般有幾種思路
(2) 請嘗試對Age列的數據的缺失值進行處理
(3) 請嘗試使用不同的方法直接對整張表的缺失值進行處理
train_data['Age'].dropna() # 丟棄
train_data['Age'].fillna(method='ffill') # 線性插值
train_data['Age'].fillna(value=20) # 全部按照20填充
【思考1】dropna和fillna有哪些參數,分別如何使用呢
- dropna()
- axis:為1或者index就刪除含有缺失值的行,為0或者columns則刪除列
- how:為all就刪除全是缺失值的,any就刪除任何含有缺失值的
- thresh=n:刪除缺失值大於等於n的
- subset:定義在哪些列中查找缺失值
- inplace:是否原地修改
- fillna()
- inplace
- method:取值為pad、ffill、backfill、bfill、None
- limit:限制填充個數
- axis:修改填充方向
【思考】檢索空缺值用np.nan
,None
以及.isnull()
哪個更好,這是為什麼?如果其中某個方式無法找到缺失值,原因又是為什麼?
數值列讀取數據後,空缺值的數據類型為float64,所以用None一般索引不到,比較的時候最好用np.nan
重覆值觀察與處理
任務一:請查看數據中的重覆值
train_data.duplicated()
這個函數就是返回某一行的數據是否已經在之前的行中出現了,如果是就是重覆數據就返回true。
任務二:對重覆值進行處理
train_data = train_data.drop_duplicates()
train_data.head(5)
任務三:將前面清洗的數據保存為csv格式
train_data.to_csv('test_clear.csv')
特征觀察與處理
任務一:對年齡進行分箱(離散化)處理
(1) 分箱操作是什麼?
(2) 將連續變數Age平均分箱成5個年齡段,並分別用類別變數12345表示
(3) 將連續變數Age劃分為[0,5) [5,15) [15,30) [30,50) [50,80)五個年齡段,並分別用類別變數12345表示
(4) 將連續變數Age按10% 30% 50% 70% 90%五個年齡段,並用分類變數12345表示
(5) 將上面的獲得的數據分別進行保存,保存為csv格式
【答】分箱操作就相當於將連續數據劃分為幾個離散值,再用離散值來替代連續數據。
train_data['newAge'] = pd.cut(train_data['Age'], 5, labels=[1,2,3,4,5])
train_data.head(5)
train_data.to_csv("test_avg.csv")
bins = [0,5,15,30,50,80]
train_data['newAge'] = pd.cut(train_data['Age'],bins, right=False, labels=[1,2,3,4,5])
train_data.head(5)
train_data.to_csv("test_cut.csv")
train_data['newAge'] = pd.qcut(train_data['Age'],[0,0.1,0.3,0.5,0.7,0.9],labels=[1,2,3,4,5])
train_data.head(5)
train_data.to_csv("test_pr.csv")
任務二:對文本變數進行轉換
(1) 查看文本變數名及種類
(2) 將文本變數Sex, Cabin ,Embarked用數值變數12345表示
(3) 將文本變數Sex, Cabin, Embarked用one-hot編碼表示
train_data['Embarked'].value_counts()
train_data['Sex'].unique()
train_data['Sex'].value_counts()
train_data['Sex_num'] = train_data['Sex'].replace(['male','female'],[1,2])
train_data.head(5)
train_data['Sex_num'] = train_data['Sex'].map({"male":1,'female':2})
train_data.head(5)
以上兩種適用於性別這樣離散值很少的,那麼如果對於另外兩種數據離散值很多就不行,用以下的方法:
from sklearn.preprocessing import LabelEncoder
for feat in ['Cabin', 'Ticket']:
lbl = LabelEncoder()
label_dict = dict(zip(train_data[feat].unique(), range(train_data[feat].nunique())))
train_data[feat + "_labelEncode"] = train_data[feat].map(label_dict)
train_data[feat + "_labelEncode"] = lbl.fit_transform(train_data[feat].astype(str))
train_data.head(5)
# 轉換為ont-hot編碼
for feat in ['Sex', 'Cabin','Embarked']:
x = pd.get_dummies(train_data[feat], prefix=feat)
# prefix就是讓生成的列的名稱為feat+取值
train_data = pd.concat([train_data,x],axis=1)
train_data.head(5)
任務三:從純文本Name特征里提取出Titles的特征(所謂的Titles就是Mr,Miss,Mrs等)
train_data['Title'] = train_data.Name.str.extract('([A-Za-z]+)\.', expand=False)
train_data.head()
train_data.to_csv('test_fin.csv')
數據的合併
任務一:將data文件夾裡面的所有數據都載入,觀察數據的之間的關係
train_left_up = pd.read_csv("data\\train-left-up.csv")
train_left_up.info()
train_left_down = pd.read_csv("data\\train-left-down.csv")
train_left_down.info()
train_right_up = pd.read_csv("data\\train-right-up.csv")
train_right_down = pd.read_csv("data\\train-right-down.csv")
任務二:使用concat方法:將數據train-left-up.csv和train-right-up.csv橫向合併為一張表,並保存這張表為result_up
result_up = pd.concat([train_left_up, train_right_up],axis = 1)
result_up.head(5)
任務三:使用concat方法:將train-left-down和train-right-down橫向合併為一張表,並保存這張表為result_down。然後將上邊的result_up和result_down縱向合併為result
result_down = pd.concat([train_left_down, train_right_down],axis = 1)
result = pd.concat([result_up, result_down], axis=0)
result.head(5)
任務四:使用DataFrame自帶的方法join方法和append:完成任務二和任務三的任務
result_up = train_left_up.join(train_right_up)
result_up.head(5)
result_down = train_left_down.join(train_right_down)
result = result_up.append(result_down)
result.head(4)
任務五:使用Panads的merge方法和DataFrame的append方法:完成任務二和任務三的任務
result_up = pd.merge(train_left_up,train_right_up,left_index=True,right_index=True)
result_up.head(5)
result_down = pd.merge(train_left_down,train_right_down,left_index=True,right_index=True)
result = result_up.append(result_down)
result.head(5)
任務六:完成的數據保存為result.csv
result.to_csv("data\\result.csv")
換一種角度看數據
任務一:將我們的數據變為Series類型的數據
train_data = pd.read_csv('result.csv')
train_data.head()
unit_result=train_data.stack().head(20)
# stack是轉置,索引不變,然後內容轉置。
unit_result.head()
unit_result.to_csv('unit_result.csv')
數據運用
任務一:通過教材《Python for Data Analysis》P303、Google or anything來學習瞭解GroupBy機制
這部分還是很推薦去看看書進行學習,很有用。
任務二:計算泰坦尼克號男性與女性的平均票價
result['Fare'].groupby(result['Sex']).mean()
Sex
female 44.479818
male 25.523893
Name: Fare, dtype: float64
任務三:統計泰坦尼克號中男女的存活人數
result['Survived'].groupby(result['Sex']).sum()
Sex
female 233
male 109
Name: Survived, dtype: int64
任務四:計算客艙不同等級的存活人數
result['Survived'].groupby(result['Pclass']).sum()
Pclass
1 136
2 87
3 119
Name: Survived, dtype: int64
【思考】從數據分析的角度,上面的統計結果可以得出那些結論
【答】女性平均票價高,生存人數高,1號客艙生存人數多
【思考】從任務二到任務三中,這些運算可以通過agg()函數來同時計算。並且可以使用rename函數修改列名。你可以按照提示寫出這個過程嗎?
result.groupby('Sex').agg({'Fare': 'mean', 'Pclass': 'count'}).rename(columns={'Fare': 'mean_fare', 'Pclass': 'count_pclass'})
任務五:統計在不同等級的票中的不同年齡的船票花費的平均值
result.groupby(['Pclass','Age'])['Fare'].mean()
Pclass Age
1 0.92 151.5500
2.00 151.5500
4.00 81.8583
11.00 120.0000
14.00 120.0000
...
3 61.00 6.2375
63.00 9.5875
65.00 7.7500
70.50 7.7500
74.00 7.7750
Name: Fare, Length: 182, dtype: float64
任務六:將任務二和任務三的數據合併,並保存到sex_fare_survived.csv
g1 = result['Fare'].groupby(result['Sex']).mean()
g2 = result['Survived'].groupby(result['Sex']).sum()
g_con = pd.concat([g1,g2],axis=1)
g_con.to_csv("data\\sex_fare_survived.csv")
任務七:得出不同年齡的總的存活人數,然後找出存活人數最多的年齡段,最後計算存活人數最高的存活率(存活人數/總人數)
survived_age = result.groupby('Age')['Survived'].sum()
Age
0.42 1
0.67 1
0.75 2
0.83 2
0.92 1
..
70.00 0
70.50 0
71.00 0
74.00 0
80.00 1
Name: Survived, Length: 88, dtype: int64
survived_age_max = survived_age[survived_age.values == survived_age.max()]
Age
24.0 15
Name: Survived, dtype: int64
survived_age_max_num = int(survived_age_max.values)
15
survived_age_max_num_rate =survived_age_max_num/ result['Survived'].sum()
0.043859649122807015
如何讓人一眼看懂你的數據
%matplotlib inline
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
result = pd.read_csv("data\\result.csv")
result.head(5)
任務一:跟著書本第九章,瞭解matplotlib,自己創建一個數據項,對其進行基本可視化
略
任務二:可視化展示泰坦尼克號數據集中男女中生存人數分佈情況(用柱狀圖試試)
sex = result.groupby('Sex')['Survived'].sum()
sex.plot.bar()
plt.title('survived_count')
【思考】計算出泰坦尼克號數據集中男女中死亡人數,並可視化展示?如何和男女生存人數可視化柱狀圖結合到一起?看到你的數據可視化,說說你的第一感受(比如:你一眼看出男生存活人數更多,那麼性別可能會影響存活率)。
sex_die = result.groupby('Sex')['Survived'].count() - result.groupby('Sex')['Survived'].sum()
sex_die.plot.bar()
任務三:可視化展示泰坦尼克號數據集中男女中生存人與死亡人數的比例圖(用柱狀圖試試)
sex_sur_rate = result.groupby(['Sex','Survived'])['Survived'].count().unstack()
sex_sur_rate.plot(kind='bar',stacked=True)
任務四:可視化展示泰坦尼克號數據集中不同票價的人生存和死亡人數分佈情況。(用折線圖試試)(橫軸是不同票價,縱軸是存活人數)
# 排序後繪折線圖
fig = plt.figure(figsize=(20, 18))
fare_sur = text.groupby(['Fare'])['Survived'].value_counts().sort_values(ascending=False)
fare_sur.plot(grid=True)
plt.legend()
plt.show()
任務五:可視化展示泰坦尼克號數據集中不同倉位等級的人生存和死亡人員的分佈情況。(用柱狀圖試試)
Pclass_sur = result.groupby(['Pclass','Survived'])['Survived'].value_counts()
import seaborn as sns
sns.countplot(x="Pclass", hue="Survived", data=result)
任務六:可視化展示泰坦尼克號數據集中不同年齡的人生存與死亡人數分佈情況。(不限表達方式)
facet = sns.FacetGrid(result, hue="Survived",aspect=3)
facet.map(sns.kdeplot,'Age',shade= True)
facet.set(xlim=(0, result['Age'].max()))
facet.add_legend()
任務七:可視化展示泰坦尼克號數據集中不同倉位等級的人年齡分佈情況。(用折線圖試試)
result.Age[result.Pclass == 1].plot(kind='kde')
result.Age[result.Pclass == 2].plot(kind='kde')
result.Age[result.Pclass == 3].plot(kind='kde')
plt.xlabel("age")
plt.legend((1,2,3),loc="best") # best就是最不礙眼的位置
第三章 模型搭建和評估--建模
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from IPython.display import Image
%matplotlib inline
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用來正常顯示中文標簽
plt.rcParams['axes.unicode_minus'] = False # 用來正常顯示負號
plt.rcParams['figure.figsize'] = (10, 6) # 設置輸出圖片大小
載入數據
clear_data = pd.read_csv("clear_data.csv")
train_data = pd.read_csv("train.csv)
模型搭建
任務一:切割訓練集和測試集
- 將數據集分為自變數和因變數
- 按比例切割訓練集和測試集(一般測試集的比例有30%、25%、20%、15%和10%)
- 使用分層抽樣
- 設置隨機種子以便結果能復現
from sklearn.model_selection import train_test_split
train_label = train_data['Survived'] # 作為標簽,訓練集就是我們的clear_data
x_train, x_test, y_train, y_test = train_test_split(clear_data, train_label, test_size=0.3, random_state=0, stratify = train_label)
x_train.shape # (623, 11)
x_test.shape # (268, 11)
【思考】什麼情況下切割數據集的時候不用進行隨機選取
【答】數據本身就是隨機的
任務二:模型創建
- 創建基於線性模型的分類模型(邏輯回歸)
- 創建基於樹的分類模型(決策樹、隨機森林)
- 分別使用這些模型進行訓練,分別的到訓練集和測試集的得分
- 查看模型的參數,並更改參數值,觀察模型變化
from sklearn.linear_model import LogisticRegression
lr_l1 = LogisticRegression(penalty="l1", C=0.5, solver="liblinear")
lr_l1.fit(x_train, y_train)
print("訓練集得分為:",lr_l1.score(x_train,y_train))
print("測試集得分為:",lr_l1.score(x_test,y_test))
訓練集得分為: 0.7897271268057785
測試集得分為: 0.8134328358208955
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier
clf = DecisionTreeClassifier(random_state=0) # 設置隨機數種子
rfc = RandomForestClassifier(random_state=0)
clf.fit(x_train, y_train)
rfc.fit(x_train, y_train)
clf_score = clf.score(x_test, y_test)
rfc_score = rfc.score(x_test, y_test)
print("決策樹訓練集得分為:",clf.score(x_train,y_train))
print("決策樹測試集得分為:",clf.score(x_test,y_test))
print("隨機森林訓練集得分為:",rfc.score(x_train,y_train))
print("隨機森林測試集得分為:",rfc.score(x_test,y_test))
# 可以看到決策樹已經過擬合
決策樹訓練集得分為: 1.0
決策樹測試集得分為: 0.7611940298507462
隨機森林訓練集得分為: 1.0
隨機森林測試集得分為: 0.8283582089552238
任務三:輸出模型預測結果
- 輸出模型預測分類標簽
- 輸出不同分類標簽的預測概率
一般監督模型在sklearn裡面有個predict
能輸出預測標簽,predict_proba
則可以輸出標簽概率
pred_result = lr_l1.predict(x_train) # 輸出為array
pred_result[:10]
array([0, 0, 0, 1, 0, 0, 0, 0, 1, 0], dtype=int64)
# 輸出概率
pred_prob = lr_l1.predict_proba(x_train)
pred_prob[:10]
array([[0.89656205, 0.10343795],
[0.85447589, 0.14552411],
[0.91449841, 0.08550159],
[0.13699148, 0.86300852],
[0.9381094 , 0.0618906 ],
[0.81157396, 0.18842604],
[0.91822815, 0.08177185],
[0.72434838, 0.27565162],
[0.47558837, 0.52441163],
[0.86624392, 0.13375608]])
【思考】預測標簽的概率對我們有什麼幫助
【答】輸出概率可以讓我們知道該預測的信息分數
模型評估
- 模型評估是為了知道模型的泛化能力。
- 交叉驗證(cross-validation)是一種評估泛化性能的統計學方法,它比單次劃分訓練集和測試集的方法更加穩定、全面。
- 在交叉驗證中,數據被多次劃分,並且需要訓練多個模型。
- 最常用的交叉驗證是 k 折交叉驗證(k-fold cross-validation),其中 k 是由用戶指定的數字,通常取 5 或 10。
- 準確率(precision)度量的是被預測為正例的樣本中有多少是真正的正例
- 召回率(recall)度量的是正類樣本中有多少被預測為正類
- f-分數是準確率與召回率的調和平均
任務一:交叉驗證
from sklearn.model_selection import cross_val_score
lr_l1 = LogisticRegression(penalty="l1", C=0.5, solver="liblinear")
lr_l1.fit(x_train, y_train)
scores = cross_val_score(lr_l1, x_train, y_train,cv = 10)
print("score:",scores)
print("score.mean():",scores.mean())
score: [0.74603175 0.76190476 0.85714286 0.75806452 0.85483871 0.79032258
0.72580645 0.83870968 0.70967742 0.80645161]
score.mean(): 0.7848950332821301
clf = DecisionTreeClassifier(random_state=0) # 設置隨機數種子
rfc = RandomForestClassifier(random_state=0)
clf.fit(x_train, y_train)
rfc.fit(x_train, y_train)
scores_clf = cross_val_score(clf, x_train, y_train,cv = 10)
scores_rfc = cross_val_score(rfc, x_train, y_train,cv = 10)
print("scores_clf.mean_10:",scores_clf.mean())
print("scores_rfc.mean_10:",scores_rfc.mean())
scores_clf = cross_val_score(clf, x_train, y_train,cv = 5)
scores_rfc = cross_val_score(rfc, x_train, y_train,cv = 5)
print("scores_clf.mean_5:",scores_clf.mean())
print("scores_rfc.mean_5:",scores_rfc.mean())
scores_clf.mean_10: 0.7397849462365592
scores_rfc.mean_10: 0.8186635944700461
scores_clf.mean_5: 0.7496129032258064
scores_rfc.mean_5: 0.8138322580645161
【思考】k折越多的情況下會帶來什麼樣的影響?
【答】擬合效果不好
任務二:混淆矩陣
- 計算二分類問題的混淆矩陣
- 計算精確率、召回率以及f-分數
【思考】什麼是二分類問題的混淆矩陣,理解這個概念,知道它主要是運算到什麼任務中的
【答】這個可以很好的應用到任務為樣本不太均衡的場景
from sklearn.metrics import confusion_matrix
from sklearn.metrics import classification_report
pred = lr_l1.predict(x_train)
confusion_matrix(y_train, pred)
array([[328, 56],
[ 75, 164]], dtype=int64)
print(classification_report(y_train, pred))
precision recall f1-score support
0 0.81 0.85 0.83 384
1 0.75 0.69 0.71 239
accuracy 0.79 623
macro avg 0.78 0.77 0.77 623
weighted avg 0.79 0.79 0.79 623
任務三:ROC曲線
【思考】什麼是ROC曲線,OCR曲線的存在是為瞭解決什麼問題?
【答】主要是用來確定一個模型的 閾值。同時在一定程度上也可以衡量這個模型的好壞
from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y_test, lr_l1.decision_function(x_test))
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel("FPR")
plt.ylabel("TPR (recall)")# 找到最接近於0的閾值
close_zero = np.argmin(np.abs(thresholds))
plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2)
plt.legend(loc=4)
【思考】對於多分類問題如何繪製ROC曲線
【答】對每一個類別畫一條ROC曲線最後取平均