從今天起,我會在這裡記錄一下學習深度學習所留下的足跡,目的也很簡單,手頭有近3w個已經標記好正確值得驗證碼,想要從頭訓練出一個可以使用的模型, 雖然我也知道網上的相關模型和demo很多,但是還是非常希望自己可以親手搞一個能用的出來,學習書籍主要是:李金洪老師的《深度學習之Tensorflow 入門、 ...
從今天起,我會在這裡記錄一下學習深度學習所留下的足跡,目的也很簡單,手頭有近3w個已經標記好正確值得驗證碼,想要從頭訓練出一個可以使用的模型,
雖然我也知道網上的相關模型和demo很多,但是還是非常希望自己可以親手搞一個能用的出來,學習書籍主要是:李金洪老師的《深度學習之Tensorflow 入門、原理與進階實戰》。
另外,在我將驗證碼識別模型訓練出來後也會將源代碼、模型,以及近3w個驗證碼完全開源出來。共勉之。
1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # @Time : 2019/9/23 21:27 4 # @Author : SongSa 5 # @Desc : 6 # @File : 擬合二維數據.py 7 # @Software: PyCharm 8 9 import tensorflow as tf 10 import numpy as np 11 import matplotlib.pyplot as plt 12 13 """ 14 深度學習分為4個步驟: 15 準備數據 16 搭建模型 17 迭代訓練 18 使用模型 19 """ 20 21 ########準備數據######## 22 train_X = np.linspace(-1, 1, 100) 23 train_Y = 2 * train_X + np.random.randn(100) * 0.3 # y = 2x 但是加入了雜訊 24 plt.plot(train_X, train_Y, 'ro', label='original data') # 顯示模擬的數據點 25 plt.legend() # 擁有顯示圖例label 26 plt.show() 27 28 29 plotdata = {"batchsize":[], "loss":[]} 30 def moving_average(a, w=10): 31 if len(a) < w: 32 return a[:] 33 return [val if idx < w else sum(a[(idx-w):idx])/w for idx, val in enumerate(a)] 34 35 36 ########搭建模型######## 37 # 模型分為兩個方向:正向和反向 38 # 創建模型 39 X = tf.placeholder("float") # 占位符 40 Y = tf.placeholder("float") 41 # 模型參數 42 W = tf.Variable(tf.random_normal([1]), name="weight") # W被初始化為[-1, 1]的隨機數,形狀為一維的數字 43 b = tf.Variable(tf.zeros([1]), name="bias") # b的初始化為0 44 # 前向結構 45 z = tf.multiply(X, W) + b # tf.multiply()是相乘的函數 z = X * W + b 46 47 # 反向搭建模型 48 # 神經網路在訓練時數據流向有兩個方向,先通過正向生成一個值,然後觀察其與真實值的差距,再通過反向過程將裡邊的參數進行調整, 49 # 接著在生成正向預測值來與真實值進行比對,如此迴圈,知道將參數調整為合適值為止,反向傳播會引入一些演算法來實現對參數的正確調整。 50 cost = tf.reduce_mean(tf.square(Y - z)) # cost等於生成值與真實值的平方差 51 # tf.reduce_mean() 用於計算張量沿著指定軸的平均值 52 # tf.square() 用於計算Y-z的平方 53 learning_rate = 0.01 # 學習率 (值越大表明調整的速度越大,但不精準,反之亦然) 54 optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost) # 封裝好的梯度下降演算法 55 56 57 ########迭代訓練######## 58 # Tensorflow中的任務是通過session來進行的 59 init = tf.global_variables_initializer() # 初始化所有變數 60 #定義參數 61 training_epochs = 20 62 display_stop = 2 63 # 啟動session 64 with tf.Session() as sess: 65 sess.run(init) 66 plotdata = {"batchsize":[], "loss":[]} # 存放批次值和損失值 67 for epoch in range(training_epochs): 68 for (x, y) in zip(train_X, train_Y): 69 sess.run(optimizer, feed_dict={X:x, Y:y}) 70 71 # 顯示訓練中的詳細信息 72 if epoch % display_stop == 0: 73 loss = sess.run(cost, feed_dict={X:train_X, Y:train_Y}) 74 print("Epoch:", epoch+1, "cost=", loss, "W=", sess.run(W), "b=", sess.run(b)) 75 if not (loss == "NA"): 76 plotdata['batchsize'].append(epoch) 77 plotdata["loss"].append(loss) 78 79 print("Finished!") 80 print("cost=", sess.run(cost, feed_dict={X:train_X, Y:train_Y}), "W=", sess.run(W), "b=", sess.run(b)) 81 82 # 訓練模型可視化 83 plt.plot(train_X, train_Y, 'ro', label="Original data") 84 plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label="Fittedline") 85 plt.legend() 86 plt.show() 87 88 plotdata['avgloss'] = moving_average(plotdata["loss"]) 89 plt.figure(1) 90 plt.subplot(211) 91 plt.plot(plotdata["batchsize"], plotdata['avgloss'], 'b--') 92 plt.ylabel("Loss") 93 plt.title("Minibatch run vs. Training loss") 94 plt.show() 95 96 97 ########使用模型######## 98 print('使用模型:\n\n') 99 print("x=0.2, z=", sess.run(z, feed_dict={X:0.2}))
最後,打個廣告: 想瞭解更多Python關於爬蟲、數據分析的內容,獲取大量爬蟲爬取到的源數據,歡迎大家關註我的微信公眾號:悟道Python