摘要:本篇文章將分享圖像分類原理,並介紹基於KNN、朴素貝葉斯演算法的圖像分類案例。 本文分享自華為雲社區《[Python圖像處理] 二十六.圖像分類原理及基於KNN、朴素貝葉斯演算法的圖像分類案例丨【百變AI秀】》,作者:eastmount 。 一.圖像分類 圖像分類(Image Classifica ...
摘要:本篇文章將分享圖像分類原理,並介紹基於KNN、朴素貝葉斯演算法的圖像分類案例。
本文分享自華為雲社區《[Python圖像處理] 二十六.圖像分類原理及基於KNN、朴素貝葉斯演算法的圖像分類案例丨【百變AI秀】》,作者:eastmount 。
一.圖像分類
圖像分類(Image Classification)是對圖像內容進行分類的問題,它利用電腦對圖像進行定量分析,把圖像或圖像中的區域劃分為若幹個類別,以代替人的視覺判斷。圖像分類的傳統方法是特征描述及檢測,這類傳統方法可能對於一些簡單的圖像分類是有效的,但由於實際情況非常複雜,傳統的分類方法不堪重負。現在,廣泛使用機器學習和深度學習的方法來處理圖像分類問題,其主要任務是給定一堆輸入圖片,將其指派到一個已知的混合類別中的某個標簽。
在下圖中,圖像分類模型將獲取單個圖像,並將為4個標簽{cat,dog,hat,mug},分別對應概率{0.6, 0.3, 0.05, 0.05},其中0.6表示圖像標簽為貓的概率,其餘類比。該圖像被表示為一個三維數組。在這個例子中,貓的圖像寬度為248像素,高度為400像素,並具有紅綠藍三個顏色通道(通常稱為RGB)。因此,圖像由248×400×3個數字組成或總共297600個數字,每個數字是一個從0(黑色)到255(白色)的整數。圖像分類的任務是將這接近30萬個數字變成一個單一的標簽,如“貓(cat)”。
![](https://pic4.zhimg.com/80/v2-a0477b0b6f0022415d6cae9e7a614223_720w.webp)
那麼,如何編寫一個圖像分類的演算法呢?又怎麼從眾多圖像中識別出貓呢?這裡所採取的方法和教育小孩看圖識物類似,給出很多圖像數據,讓模型不斷去學習每個類的特征。在訓練之前,首先需要對訓練集的圖像進行分類標註,如圖所示,包括cat、dog、mug和hat四類。在實際工程中,可能有成千上萬類別的物體,每個類別都會有上百萬張圖像。
![](https://pic3.zhimg.com/80/v2-b70dd677970b479e0d367aeeb4fb484e_720w.webp)
圖像分類是輸入一堆圖像的像素值數組,然後給它分配一個分類標簽,通過訓練學習來建立演算法模型,接著使用該模型進行圖像分類預測,具體流程如下:
- 輸入: 輸入包含N個圖像的集合,每個圖像的標簽是K種分類標簽中的一種,這個集合稱為訓練集。
- 學習: 第二步任務是使用訓練集來學習每個類的特征,構建訓練分類器或者分類模型。
- 評價: 通過分類器來預測新輸入圖像的分類標簽,並以此來評價分類器的質量。通過分類器預測的標簽和圖像真正的分類標簽對比,從而評價分類演算法的好壞。如果分類器預測的分類標簽和圖像真正的分類標簽一致,表示預測正確,否則預測錯誤。
二.常見分類演算法
常見的分類演算法包括朴素貝葉斯分類器、決策樹、K最近鄰分類演算法、支持向量機、神經網路和基於規則的分類演算法等,同時還有用於組合單一類方法的集成學習演算法,如Bagging和Boosting等。
1.朴素貝葉斯分類演算法
朴素貝葉斯分類(Naive Bayes Classifier)發源於古典數學理論,利用Bayes定理來預測一個未知類別的樣本屬於各個類別的可能性,選擇其中可能性最大的一個類別作為該樣本的最終類別。在朴素貝葉斯分類模型中,它將為每一個類別的特征向量建立服從正態分佈的函數,給定訓練數據,演算法將會估計每一個類別的向量均值和方差矩陣,然後根據這些進行預測。
朴素貝葉斯分類模型的正式定義如下:
![](https://pic4.zhimg.com/80/v2-397fe111f737f03d630d02850cf05a7f_720w.webp)
該演算法的特點為:如果沒有很多數據,該模型會比很多複雜的模型獲得更好的性能,因為複雜的模型用了太多假設,以致產生欠擬合。
2.KNN分類演算法
K最近鄰分類(K-Nearest Neighbor Classifier)演算法是一種基於實例的分類方法,是數據挖掘分類技術中最簡單常用的方法之一。該演算法的核心思想如下:一個樣本x與樣本集中的k個最相鄰的樣本中的大多數屬於某一個類別yLabel,那麼該樣本x也屬於類別yLabel,並具有這個類別樣本的特性。
簡而言之,一個樣本與數據集中的k個最相鄰樣本中的大多數的類別相同。由其思想可以看出,KNN是通過測量不同特征值之間的距離進行分類,而且在決策樣本類別時,只參考樣本周圍k個“鄰居”樣本的所屬類別。因此比較適合處理樣本集存在較多重疊的場景,主要用於預測分析、文本分類、降維等處理。
該演算法在建立訓練集時,就要確定訓練數據及其對應的類別標簽;然後把待分類的測試數據與訓練集數據依次進行特征比較,從訓練集中挑選出最相近的k個數據,這k個數據中投票最多的分類,即為新樣本的類別。KNN分類演算法的流程描述為如下圖所示。
![](https://pic2.zhimg.com/80/v2-27d36313ffbdf4acbe7d0532731081c5_720w.webp)
該演算法的特點為:簡單有效,但因為需要存儲所有的訓練集,占用很大記憶體,速度相對較慢,使用該方法前通常訓練集需要進行降維處理。
3.SVM分類演算法
支持向量機(Support Vector Machine)是數學家Vapnik等人根據統計學習理論提出的一種新的學習方法,其基本模型定義為特征空間上間隔最大的線性分類器,其學習策略是間隔最大化,最終轉換為一個凸二次規劃問題的求解。SVM分類演算法基於核函數把特征向量映射到高維空間,建立一個線性判別函數,解最優在某種意義上是兩類中距離分割面最近的特征向量和分割面的距離最大化。離分割面最近的特征向量被稱為“支持向量”,即其它向量不影響分割面。圖像分類中的SVM如下圖所示,將圖像劃分為不同類別。
![](https://pic1.zhimg.com/80/v2-56e6d397eddff3dd835c2df11ab6d4b8_720w.webp)
下麵的例子可以讓讀者對SVM快速建立一個認知。給定訓練樣本,支持向量機建立一個超平面作為決策曲面,使得正例和反例的隔離邊界最大化。決策曲面的構建過程如下所示:
- 在下圖中,想象紅球和藍球為球臺上的撞球,首先需要找到一條曲線將藍球和紅球分開,於是得到一條黑色的曲線。
![](https://pic2.zhimg.com/80/v2-baa541f03c6d846d997cf6b777c8ef09_720w.webp)
- 為了使黑色曲線離任意的藍球和紅球距離最大化,我們需要找到一條最優的曲線,如下圖所示。
![](https://pic4.zhimg.com/80/v2-5e20b8e0dd5e52857fb9658e10246f37_720w.webp)
- 假設這些球不是在球桌上,而是拋在空中,但仍然需要將紅球和藍球分開,這時就需要一個曲面,而且該曲面仍然滿足所有任意紅球和藍球的間距最大化,如圖16-7所示。離這個曲面最近的紅色球和藍色球就被稱為“支持向量(Support Vector)”。
![](https://pic1.zhimg.com/80/v2-10fe2e77b627ba45dc2bc33732da31e0_720w.webp)
該演算法的特點為:當數據集比較小的時候,支持向量機的效果非常好。同時,SVM分類演算法較好地解決了非線性、高維數、局部極小點等問題,維數大於樣本數時仍然有效。
4.隨機森林分類演算法
隨機森林(Random Forest)是用隨機的方式建立一個森林,在森林里有很多決策樹的組成,並且每一棵決策樹之間是沒有關聯的。當有一個新樣本出現的時候,通過森林中的每一棵決策樹分別進行判斷,看看這個樣本屬於哪一類,然後用投票的方式,決定哪一類被選擇的多,並作為最終的分類結果。
隨機森林中的每一個決策樹“種植”和“生長”主要包括以下四個步驟:
- 假設訓練集中的樣本個數為N,通過有重置的重覆多次抽樣獲取這N個樣本,抽樣結果將作為生成決策樹的訓練集;
- 如果有M個輸入變數,每個節點都將隨機選擇m(m<M)個特定的變數,然後運用這m個變數來確定最佳的分裂點。在決策樹的生成過程中,m值是保持不變的;
- 每棵決策樹都最大可能地進行生長而不進行剪枝;
- 通過對所有的決策樹進行加來預測新的數據(在分類時採用多數投票,在回歸時採用平均)。
該演算法的特點為:在分類和回歸分析中都表現良好;對高維數據的處理能力強,可以處理成千上萬的輸入變數,也是一個非常不錯的降維方法;能夠輸出特征的重要程度,能有效地處理預設值。
5.神經網路分類演算法
神經網路(Neural Network)是對非線性可分數據的分類方法,通常包括輸入層、隱藏層和輸出層。其中,與輸入直接相連的稱為隱藏層(Hidden Layer),與輸出直接相連的稱為輸出層(Output Layer)。神經網路演算法的特點是有比較多的局部最優值,可通過多次隨機設定初始值並運行梯度下降演算法獲得最優值。圖像分類中使用最廣泛的是BP神經網路和CNN神經網路。
BP神經網路
BP神經網路是一種多層的前饋神經網路,其主要的特點為:信號是前向傳播的,而誤差是反向傳播的。BP神經網路的過程主要分為兩個階段,第一階段是信號的前向傳播,從輸入層經過隱含層,最後到達輸出層;第二階段是誤差的反向傳播,從輸出層到隱含層,最後到輸入層,依次調節隱含層到輸出層的權重和偏置,輸入層到隱含層的權重和偏置,具體結構如下圖所示。
![](https://pic2.zhimg.com/80/v2-7d8253499aada52dbc2809d4a7f10fcd_720w.webp)
神經網路的基本組成單元是神經元。神經元的通用模型如圖所示,其中常用的激活函數有閾值函數、Sigmoid函數和雙曲正切函數等。
![](https://pic3.zhimg.com/80/v2-795bb3c6e5648735f1f15feb3c1e2b82_720w.webp)
CNN捲積神經網路
捲積神經網路(Convolutional Neural Networks)是一類包含捲積計算且具有深度結構的前饋神經網路,是深度學習的代表演算法之一。捲積神經網路的研究始於二十世紀80至90年代,時間延遲網路和LeNet-5是最早出現的捲積神經網路。在二十一世紀後,隨著深度學習理論的提出和數值計算設備的改進,捲積神經網路得到了快速發展,並被大量應用於電腦視覺、自然語言處理等領域。
三.基於KNN演算法的圖像分類
1.KNN演算法
K最近鄰分類(K-Nearest Neighbor Classifier)演算法是一種基於實例的分類方法,是數據挖掘分類技術中最簡單常用的方法之一。該演算法的核心思想是從訓練樣本中尋找所有訓練樣本X中與測試樣本距離(歐氏距離)最近的前K個樣本(作為相似度),再選擇與待分類樣本距離最小的K個樣本作為X的K個最鄰近,並檢測這K個樣本大部分屬於哪一類樣本,則認為這個測試樣本類別屬於這一類樣本。
假設現在需要判斷下圖中的圓形圖案屬於三角形還是正方形類別,採用KNN演算法分析如下:
![](https://pic4.zhimg.com/80/v2-3b98693043d73114dbfc2869752262a3_720w.webp)
- 當K=3時,圖中第一個圈包含了三個圖形,其中三角形2個,正方形一個,該圓的則分類結果為三角形。
- 當K=5時,第二個圈中包含了5個圖形,三角形2個,正方形3個,則以3:2的投票結果預測圓為正方形類標。設置不同的K值,可能預測得到不同的結果。
簡而言之,一個樣本與數據集中的k個最相鄰樣本中的大多數的類別相同。由其思想可以看出,KNN是通過測量不同特征值之間的距離進行分類,而且在決策樣本類別時,只參考樣本周圍k個“鄰居”樣本的所屬類別。因此比較適合處理樣本集存在較多重疊的場景,主要用於預測分析、文本分類、降維等處理。
KNN在Sklearn機器學習包中,實現的類是neighbors.KNeighborsClassifier,簡稱KNN演算法。構造方法為:
KNeighborsClassifier(algorithm='ball_tree', leaf_size=30, metric='minkowski', metric_params=None, n_jobs=1, n_neighbors=3, p=2, weights='uniform')
KNeighborsClassifier可以設置3種演算法:brute、kd_tree、ball_tree,設置K值參數為n_neighbors=3。調用方法如下:
- from sklearn.neighbors import KNeighborsClassifier
- knn = KNeighborsClassifier(n_neighbors=3, algorithm=“ball_tree”)
它包括兩個步驟:
- 訓練:nbrs.fit(data, target)
- 預測:pre = clf.predict(data)
2.數據集
該部分主要使用Scikit-Learn包進行Python圖像分類處理。Scikit-Learn擴展包是用於Python數據挖掘和數據分析的經典、實用擴展包,通常縮寫為Sklearn。Scikit-Learn中的機器學習模型是非常豐富的,包括線性回歸、決策樹、SVM、KMeans、KNN、PCA等等,用戶可以根據具體分析問題的類型選擇該擴展包的合適模型,從而進行數據分析,其安裝過程主要通過“pip install scikit-learn”實現。
實驗所採用的數據集為Sort_1000pics數據集,該數據集包含了1000張圖片,總共分為10大類,分別是人(第0類)、沙灘(第1類)、建築(第2類)、大卡車(第3類)、恐龍(第4類)、大象(第5類)、花朵(第6類)、馬(第7類)、山峰(第8類)和食品(第9類),每類100張。如圖所示。
![](https://pic3.zhimg.com/80/v2-22db6c392ca9835ddf347908548384f2_720w.webp)
接著將所有各類圖像按照對應的類標劃分至“0”至“9”命名的文件夾中,如圖所示,每個文件夾中均包含了100張圖像,對應同一類別。
![](https://pic4.zhimg.com/80/v2-a49e66f2407475870bbac054f693a817_720w.webp)
比如,文件夾名稱為“6”中包含了100張花的圖像,如下圖所示。
![](https://pic2.zhimg.com/80/v2-fe3aa24f7e088a855ec595e01f57efd9_720w.webp)
3.KNN圖像分類
下麵是調用KNN演算法進行圖像分類的完整代碼,它將1000張圖像按照訓練集為70%,測試集為30%的比例隨機劃分,再獲取每張圖像的像素直方圖,根據像素的特征分佈情況進行圖像分類分析。KNeighborsClassifier()核心代碼如下:
- from sklearn.neighbors import KNeighborsClassifier
- clf = KNeighborsClassifier(n_neighbors=11).fit(XX_train, y_train)
- predictions_labels = clf.predict(XX_test)
完整代碼及註釋如下:
# -*- coding: utf-8 -*- import os import cv2 import numpy as np from sklearn.cross_validation import train_test_split from sklearn.metrics import confusion_matrix, classification_report #---------------------------------------------------------------------------------- # 第一步 切分訓練集和測試集 #---------------------------------------------------------------------------------- X = [] #定義圖像名稱 Y = [] #定義圖像分類類標 Z = [] #定義圖像像素 for i in range(0, 10): #遍歷文件夾,讀取圖片 for f in os.listdir("photo/%s" % i): #獲取圖像名稱 X.append("photo//" +str(i) + "//" + str(f)) #獲取圖像類標即為文件夾名稱 Y.append(i) X = np.array(X) Y = np.array(Y) #隨機率為100% 選取其中的30%作為測試集 X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.3, random_state=1) print len(X_train), len(X_test), len(y_train), len(y_test) #---------------------------------------------------------------------------------- # 第二步 圖像讀取及轉換為像素直方圖 #---------------------------------------------------------------------------------- #訓練集 XX_train = [] for i in X_train: #讀取圖像 #print i image = cv2.imread(i) #圖像像素大小一致 img = cv2.resize(image, (256,256), interpolation=cv2.INTER_CUBIC) #計算圖像直方圖並存儲至X數組 hist = cv2.calcHist([img], [0,1], None, [256,256], [0.0,255.0,0.0,255.0]) XX_train.append(((hist/255).flatten())) #測試集 XX_test = [] for i in X_test: #讀取圖像 #print i image = cv2.imread(i) #圖像像素大小一致 img = cv2.resize(image, (256,256), interpolation=cv2.INTER_CUBIC) #計算圖像直方圖並存儲至X數組 hist = cv2.calcHist([img], [0,1], None, [256,256], [0.0,255.0,0.0,255.0]) XX_test.append(((hist/255).flatten())) #---------------------------------------------------------------------------------- # 第三步 基於KNN的圖像分類處理 #---------------------------------------------------------------------------------- from sklearn.neighbors import KNeighborsClassifier clf = KNeighborsClassifier(n_neighbors=11).fit(XX_train, y_train) predictions_labels = clf.predict(XX_test) print u'預測結果:' print predictions_labels print u'演算法評價:' print (classification_report(y_test, predictions_labels)) #輸出前10張圖片及預測結果 k = 0 while k<10: #讀取圖像 print X_test[k] image = cv2.imread(X_test[k]) print predictions_labels[k] #顯示圖像 cv2.imshow("img", image) cv2.waitKey(0) cv2.destroyAllWindows() k = k + 1
代碼中對預測集的前十張圖像進行了顯示,其中“818.jpg”圖像如圖所示,其分類預測的類標結果為“8”,表示第8類山峰,預測結果正確。
![](https://pic3.zhimg.com/80/v2-6bcdeb5571da855df1493f612efbf11e_720w.webp)
下圖展示了“452.jpg”圖像,其分類預測的類標結果為“4”,表示第4類恐龍,預測結果正確。
![](https://pic3.zhimg.com/80/v2-8840b2dee76e79f3834cb4d72dd20f32_720w.webp)
下圖展示了“507.jpg”圖像,其分類預測的類標結果為“7”,錯誤地預測為第7類恐龍,其真實結果應該是第5類大象。
![](https://pic1.zhimg.com/80/v2-603bed9181053ef36839226de6174a50_720w.webp)
使用KNN演算法進行圖像分類實驗,最後演算法評價的準確率(Precision)、召回率(Recall)和F值(F1-score)如圖所示,其中平均準確率為0.64,平均召回率為0.55,平均F值為0.50,其結果不是非常理想。那麼,如果採用CNN捲積神經網路進行分類,通過不斷學習細節是否能提高準確度呢?
![](https://pic4.zhimg.com/80/v2-19d1c0bf7dee43d642883d265973444b_720w.webp)
四.基於朴素貝葉斯演算法的圖像分類
下麵是調用朴素貝葉斯演算法進行圖像分類的完整代碼,調用sklearn.naive_bayes中的BernoulliNB()函數進行實驗。它將1000張圖像按照訓練集為70%,測試集為30%的比例隨機劃分,再獲取每張圖像的像素直方圖,根據像素的特征分佈情況進行圖像分類分析。
# -*- coding: utf-8 -*- import os import cv2 import numpy as np from sklearn.cross_validation import train_test_split from sklearn.metrics import confusion_matrix, classification_report #---------------------------------------------------------------------------------- # 第一步 切分訓練集和測試集 #---------------------------------------------------------------------------------- X = [] #定義圖像名稱 Y = [] #定義圖像分類類標 Z = [] #定義圖像像素 for i in range(0, 10): #遍歷文件夾,讀取圖片 for f in os.listdir("photo/%s" % i): #獲取圖像名稱 X.append("photo//" +str(i) + "//" + str(f)) #獲取圖像類標即為文件夾名稱 Y.append(i) X = np.array(X) Y = np.array(Y) #隨機率為100% 選取其中的30%作為測試集 X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.3, random_state=1) print len(X_train), len(X_test), len(y_train), len(y_test) #---------------------------------------------------------------------------------- # 第二步 圖像讀取及轉換為像素直方圖 #---------------------------------------------------------------------------------- #訓練集 XX_train = [] for i in X_train: #讀取圖像 #print i image = cv2.imread(i) #圖像像素大小一致 img = cv2.resize(image, (256,256), interpolation=cv2.INTER_CUBIC) #計算圖像直方圖並存儲至X數組 hist = cv2.calcHist([img], [0,1], None, [256,256], [0.0,255.0,0.0,255.0]) XX_train.append(((hist/255).flatten())) #測試集 XX_test = [] for i in X_test: #讀取圖像 #print i image = cv2.imread(i) #圖像像素大小一致 img = cv2.resize(image, (256,256), interpolation=cv2.INTER_CUBIC) #計算圖像直方圖並存儲至X數組 hist = cv2.calcHist([img], [0,1], None, [256,256], [0.0,255.0,0.0,255.0]) XX_test.append(((hist/255).flatten())) #---------------------------------------------------------------------------------- # 第三步 基於朴素貝葉斯的圖像分類處理 #---------------------------------------------------------------------------------- from sklearn.naive_bayes import BernoulliNB clf = BernoulliNB().fit(XX_train, y_train) predictions_labels = clf.predict(XX_test) print u'預測結果:' print predictions_labels print u'演算法評價:' print (classification_report(y_test, predictions_labels)) #輸出前10張圖片及預測結果 k = 0 while k<10: #讀取圖像 print X_test[k] image = cv2.imread(X_test[k]) print predictions_labels[k] #顯示圖像 cv2.imshow("img", image) cv2.waitKey(0) cv2.destroyAllWindows() k = k + 1
代碼中對預測集的前十張圖像進行了顯示,其中“368.jpg”圖像如下圖所示,其分類預測的類標結果為“3”,表示第3類大卡車,預測結果正確。
![](https://pic4.zhimg.com/80/v2-adc4d3a0409f703f0c5ffbb72e04bfef_720w.webp)
下圖展示了“452.jpg”圖像,其分類預測的類標結果為“4”,表示第4類恐龍,預測結果正確。
![](https://pic2.zhimg.com/80/v2-57a0a82735847c94f235cdc25496c62d_720w.webp)
使用朴素貝葉斯演算法進行圖像分類實驗,最後預測的結果及演算法評價準確率(Precision)、召回率(Recall)和F值(F1-score)如圖所示。
![](https://pic4.zhimg.com/80/v2-7515afda942e6e4ee6e20cc5aa0d40e3_720w.webp)
五.總結
本篇文章主要講解Python環境下的圖像分類演算法,首先普及了常見的分類演算法,包括朴素貝葉斯、KNN、SVM、隨機森林、神經網路等,接著通過朴素貝葉斯和KNN分別實現了1000張圖像的圖像分類實驗,希望對讀者有一定幫助,也希望這些知識點為讀者從事Python圖像處理相關項目實踐或科學研究提供一定基礎。
參考文獻:
[1]岡薩雷斯著. 數字圖像處理(第3版)[M]. 北京:電子工業出版社,2013.
[2]楊秀璋, 顏娜. Python網路數據爬取及分析從入門到精通(分析篇)[M]. 北京:北京航天航空大學出版社, 2018.
[3]gzq0723. 乾貨——圖像分類(上)[EB/OL]. (2018-08-28). https://blog.csdn.net/gzq0723/
[4]article/details/82185832.
[5]sinat_34430765. OpenCV分類器學習心得[EB/OL]. (2016-08-03). https://blog.csdn.net/sinat_34430765/article/details/52103189.
[6]baidu_28342107. 機器學習之貝葉斯演算法圖像分類[EB/OL]. (2018-10-10). https://blog.csdn.net/baidu_28342107/article/details/82999249.
[7]baidu_28342107. 機器學習之KNN演算法實現圖像分類[EB/OL]. (2018-09-28). https://blog.csdn.net/baidu_28342107/article/details/82870436.
[8]normol. svm實現圖片分類(python)[EB/OL]. (2018-11-19). https://blog.csdn.net/normol/article/details/84230890.
[9]wfjiang. SVM-支持向量機原理詳解與實踐[EB/OL]. (2017-03-14). https://www.cnblogs.com/spoorer/p/6551220.html.
[10]快樂的小飛熊. 隨機森林原理[EB/OL]. (2017-03-05). https://www.jianshu.com/p/57e862d695f2.
[11]燁楓_邱. 深入理解BP神經網路[EB/OL]. (2018-06-01). https://www.jianshu.com/p/6ab6f53874f7.
[12]smilejiasmile. 捲積神經網路(CNN)及其實踐[EB/OL]. (2018-06-20). https://blog.csdn.net/smilejiasmile/article/details/80752889.
[13] 誓天斷發. 機器學習之BP神經網路演算法實現圖像分類[EB/OL]. (2018-10-23). https://blog.csdn.net/baidu_28342107/article/details/83307633.
[14] 楊秀璋. [Python人工智慧] 十.Tensorflow+Opencv實現CNN自定義圖像分類案例及與機器學習KNN圖像分類演算法對比[EB/OL]. https://blog.csdn.net/Eastmount/article/details/103757386.