在這章節,我們使用Python實作一多層感知器(Multilayer Perceptron,MLP)來做手寫數字辨識功能。使用MNIST的數據集及反向傳遞演算法(Backpropagation)做模型訓練及測試。並將訓練好的權重存成檔案,以便對新的數據直接作預測,不須每次都重新訓練模型。最後練習使用windows內建的"小畫家"自己手畫數字進行辨識。結果如下圖所示:
<圖一>第1、3列為使用windows小畫家手繪出的手寫數字,第2,4列為相對應的預測結果。
有關反向傳遞演算法(Backpropagation)的公式推導,可以參閱底下連結:
該連結範例為有帶值的手解計算,作者:Matt Mazur已解釋的非常清楚了,
建議大家可以跟著做一次。
https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/
補充:對於啟動函數sigmoid 的求導推導有疑慮的,可以參考我下面手寫證明的方式:
多層感知器(Multilayer Perceptron,MLP),如下圖所示。
因為我們使用來作MNIST的手寫辨識,MNIST 數據集為原本28x28 pixel的灰階數字圖,我們會把它展平成28x28=784個pixel單行向量當作是特徵輸入,因此輸入層Xn的n為784的特徵數量。
至於中間的隱藏層,在程式中可以自訂感知器數量m,m在程式裡預設為n_hidden=100。
模型皆使用sigmoid啟動函數,至於輸出層l個數為10個,分別代表數字0-9的輸出機率。
也就是每一個樣本有784個特徵值輸入,經過隱含層到輸出層後,會使用sigmoid函數算出10個可能機率,該機率最大者便是代表該預測的數字。
MNIST 數據集可以從下面網址下載原始資料:http://yann.lecun.com/exdb/mnist/
train-images-idx3-ubyte.gz: training set images (9912422 bytes)
train-labels-idx1-ubyte.gz: training set labels (28881 bytes)
t10k-images-idx3-ubyte.gz: test set images (1648877 bytes)
t10k-labels-idx1-ubyte.gz: test set labels (4542 bytes)
解壓縮後分別代表訓練樣本train-image 有60000筆,train-label為訓練樣本對應的正確標籤。
測試樣本t10k-image 有10000筆,t10k-label為測試樣本對應的正確標籤。
故在程式裡我們使用二維矩陣訓練樣本(60000,784),測試樣本(10000,784)當輸入。
下圖為前100筆訓練樣本train-image還原成28x28 pixel的圖片樣式:
該sample code可以從我的Github 連結下載:
https://github.com/Ashing00/Load_MNIST/blob/master/mnist_load.py
底下介紹範例程式裡的參數設定,及我自行增加的程式:
有關NeuralNetMLP 模型的原始程式可以參閱底下作者Sebastian Raschka github:
https://github.com/rasbt/python-machine-learning-book
NeuralNetMLP 模型的使用參數:
nn = NeuralNetMLP(n_output=10, #輸出層個數,分別代表數字0-9的機率
n_features=X_train.shape[1], #輸入層樣本的的feature個數應為784
n_hidden=100, #隱藏層個數可以自訂
l2=0.5, #使用L2 正規化項,設0等於不使用
l1=0.0, #使用L1 正規化項,設0等於不使用
epochs=1000, #預設跑1000輪,
eta=0.002, #學習率
alpha=0.001, # Momentum
decrease_const=0.00001, #根據epochs調整學習率
minibatches=100, #使用mini batches
shuffle=True, #SGD 隨機洗牌
random_state=1) #隨機值
底下是我自行增加的儲存權重及重新載入權重的程式,當訓練完畢後,我們可以儲存權重,這樣當有新的樣本要做預測時便可重新載入該訓練好的權重直接進行預測,而不需重新訓練模型在進預測。因為該模型進行一次訓練可能需花10~30分鐘。我的筆電使用i7-6700CPU約15分鐘完成一次訓練。
在程式裡我使用了train_flag 設定是否需要訓練模型或是直接載入權重進行預測
預設 train_flag=True
底下是該MNIST 訓練的平均成本收斂情形,約在800輪時可收斂
底下是訓練樣本預測準確率為99.34%,而測試樣本為96.87% ,有些過度適合現象(Overfitting),不過還可以接受。經實驗發現提高隱藏層個數容易發生過度適合現象(Overfitting)。可自行試看看。
接著底下程式片段便是我利用OPENCV載入,自行用小畫家繪製的數字圖進行預測。
結果便是底下圖片所示:
儘管在訓練及測試樣本都有很高的準確度,但在實際應用上還是略差一些。
<多層感知器(Multilayer Perceptron,MLP)完整範例程式>
https://github.com/Ashing00/Multilayer-Perceptron/blob/master/MLP.py
<參考資料>書名:Python機器學習,作者:Sebastian Raschka
https://www.facebook.com/arbu00/
<其他相關文章>
人工神經網路(1)--使用Python實作perceptron(感知器)
人工神經網路(2)--使用Python實作後向傳遞神經網路演算法(Backprogation artificial neature network)
深度學習(1)-如何在windows安裝Theano +Keras +Tensorflow並使用GPU加速訓練神經網路
機器學習(1)--使用OPENCV KNN實作手寫辨識
機器學習(2)--使用OPENCV SVM實作手寫辨識
演算法(1)--蒙地卡羅法求圓周率及橢圓面積(Monte carlo)
機器學習(3)--適應線性神經元與梯度下降法(Adaline neuron and Gradient descent)
機器學習(4)--資料標準常態化與隨機梯度下降法( standardization & Stochastic Gradient descent)
機器學習(5)--邏輯斯迴歸,過度適合與正規化( Logistic regression,overfitting and regularization)
機器學習(6)--主成分分析(Principal component analysis,PCA)
機器學習(7)--利用核主成分分析(Kernel PCA)處理非線性對應