演算法很簡單,取訓練樣本每種類別的平均值當做聚類中心點,待分類的樣本離哪個中心點近就歸屬於哪個聚類 。 在《白話大數據與機器學習》里使用了sklearn里的NearestCentroid來處理數據: 訓練模型 clf = NearestCentroid().fit(x, y) 預測數據 clf.pre ...
演算法很簡單,取訓練樣本每種類別的平均值當做聚類中心點,待分類的樣本離哪個中心點近就歸屬於哪個聚類 。
在《白話大數據與機器學習》里使用了sklearn里的NearestCentroid來處理數據:
訓練模型 clf = NearestCentroid().fit(x, y)
預測數據 clf.predict(x)
這裡我們來實現一下最近的質心演算法,看看該演算法具體是如果實現的。
1 準備數據
首先我們需要一些訓練數據 這裡使用鳶尾花數據 https://en.wikipedia.org/wiki/Iris_flower_data_set。
這裡x是一個(150, 4)2維數組,總共150條數據,列印其中的5條數據看一下:
[[5.1, 3.5, 1.4, 0.2],
[4.9, 3.0, 1.4, 0.2],
[4.7, 3.2, 1.3, 0.2],
[4.6, 3.1, 1.5, 0.2],
[5.0, 3.6, 1.4, 0.2],
... ...]
可以看到每條數據都有4個特征項分別是: 萼片的長度,萼片的寬度,花瓣的長度,花瓣的寬度
y是x里每條數據對應的分類:
[0, 0, 1, 1, 2, ...]
可以看到x里對應的分類總共有3種[0,1,2]。
2 訓練模型
求出了每種分類里的數據每個特性項的平均值:
{0: [[5.1, 3.5, 1.4, 0.2],
[4.9, 3.0, 1.4, 0.2],
... ...],
1: [[4.7, 3.2, 1.3, 0.2],
[4.6, 3.1, 1.5, 0,2],
... ...],
2: [[5.0, 3.6, 1.4, 0.2],
... ...]}
得到平均值結果集:
{0: [5.006, 3.418, 1.464, 0.244],
1: [5.936, 2.770, 4.260, 1.326],
2: [6.588, 2.974, 5.552, 2.026]}
3. 預測數據
求出待預測數據屬於哪種分類的概率更大,也就是離哪個聚類質心更近。
對每條記錄,計算其與每個聚類中點之間的距離並保存在一個數組裡,計算距離公式有很多,歐式距離,曼哈頓距離等:
[[8.512, 2.321, 4.576]]
可以看到待預測數據屬於分類0,1,2的距離被計算出來了。
完整代碼可以訪問github進行下載 https://github.com/azheng333/Ml_Algorithm.git。
(完)
關註大數據尖端技術發展,關註奇點大數據