學習筆記TF025:自編碼器

来源:http://www.cnblogs.com/libinggen/archive/2017/07/09/7143677.html
-Advertisement-
Play Games

傳統機器學習依賴良好的特征工程。深度學習解決有效特征難人工提取問題。無監督學習,不需要標註數據,學習數據內容組織形式,提取頻繁出現特征,逐層抽象,從簡單到複雜,從微觀到巨集觀。 稀疏編碼(Sparse Coding),基本結構組合。自編碼器(AutoEncoder),用自身高階特征編碼自己。期望輸入/ ...


傳統機器學習依賴良好的特征工程。深度學習解決有效特征難人工提取問題。無監督學習,不需要標註數據,學習數據內容組織形式,提取頻繁出現特征,逐層抽象,從簡單到複雜,從微觀到巨集觀。

稀疏編碼(Sparse Coding),基本結構組合。自編碼器(AutoEncoder),用自身高階特征編碼自己。期望輸入/輸出一致,使用高階特征重構自己。

Hinton教授在Science發表文章《Reducing the dimensionality of data with neural networks》,講解自編碼器降維數據。基於深度信念網路(Deep Belief Networks,DBN,多層 RBN堆疊),無監督逐層訓練貪心演算法,逐層提取特征,極深網路權重初始化到較好位置,輔助監督訓練。

1、限制中間隱含層節點數量,降維。中間隱含層權重加L1正則,根據懲罰繫數控制隱含節點稀疏程度,懲罰繫數越大,學到特征組合越稀疏,實際使用(非零權重)特征數量越少。
2、數據加入雜訊,Denoising AutoEncoder(去噪自編碼器),從雜訊學習數據特征。學習數據頻繁出現模式結構,略去無規律雜訊。加性高斯雜訊(Additive Gaussian Noise,AGN)。Nasking Noise,隨機遮擋雜訊,部分圖像像素置0,從其他像素結構推測被遮擋像素。

一隱含層自動編碼器類似主成分分析(PCA)。Hinton DBN 多個隱含層,每個隱含層是限制性玻爾茲曼機 RBM(Restricted Bltzman Machine,特殊連接分佈神經網路)。先對每兩層無監督預訓練(pre-training),多層自編碼器,網路權重初始化到理想分佈。通過反向傳播演算法調整模型權重,使用經過標註信息做監督分類訓練。解決梯度彌散(Gradient vanishment)。

去噪自編碼器使用範圍最廣最通用。無雜訊自編碼器,去掉雜訊,保證隱含層節點小於輸入層節點。Masking Noise自編碼器,高斯雜訊改為隨機遮擋雜訊。Variational AutoEncoder(VAE),對中間節點分佈強假設,有額外損失項,用特殊SGVB(Stochastic Gradient Variational Bayes)算
法訓練。

先導入常用庫NumPy,Scikit-lean preprocessing模塊(數據預處理、標準化)。MNIST數據載入模塊。

Xavier initialization 參數初始化方法,根據網路輸入、輸出節點數量自動調整最合適分佈。Xaiver Glorot和Yoshua Bengio提出,深度學習模型權重初始化太小,信號在每層傳遞逐漸縮小,失效;初始化太大,逐漸放大,發散、失效。Xavier初始化器,權重滿足0均值,方法為2/(nin+nout),分佈用均勻分佈或高斯分佈。tf.random_uniform創建均勻分佈,fan_in輸入節點數量,fan_out輸出節點數量。

去噪自編碼類,初始化函數__init__()。輸入,n_input(輸入變數數),n_hidden(隱含層節點數),transfer_function(隱含層激活函數,預設softplus),optimizer(優化器,預設Adam),scale(高斯雜訊繫數,預設0.1)。

網路結構,輸入x創建維度n_input placeholder。建立提取特征隱含層,輸入x加雜訊self.x+scale*tf.random_normal((n_input,)),tf.matmul相乘雜訊輸入和隱含層權重,tf.add加隱含偏置,self.transfer結果激活函數。輸出層數據複原、重建,建立reconstruction層,隱含層輸出self.hidden乘輸出層權重,加輸出層偏置。

自編碼器損失函數,平方誤差(Squared Error)作cost,tf.subtract計算輸出(self.reconstruction)與輸入(self.x)差,tf.pow求差平方,tf.reduce_sum求和。優化器self.optimizer優化損失self.cost。創建Session,初始化自編碼器全部模型參數。

參數初始化函數_initialize_weights,創建all_weights字典dict,權重、偏置存入,返回all_weights。隱含層權重用xavier_init函數初始化,傳入輸入節點數、隱含層節點數,xavier返回適合softplus激活函數權重初始分佈。隱含層偏置用tf.zeros全部置0。輸出層self.reconstruction,權重、偏置都置為0。

函數partial_fit用batch數據訓練返回當前損失cost。Session執行損失cost、訓練過程optimizer計算圖節點,輸入feed_dict包括輸入數據x,雜訊繫數scale。

求損失cost函數calc_total_cost,Session執行計算圖節點self.cost,傳入輸入數據x,雜訊繫數scale,在測試集評測模型性能。

Transform函數,返回自編碼器隱含層輸出結果。提供獲取抽象特征,自編碼器隱含層最主要功能是學習出數據高階特征。

Generate函數,隱含層輸出結果為輸入,複原重建層提取高階特征為原始數據。

Reconstruct函數,整體運行複原過程,提取高階特征,再複原數據,transform和generate,輸入原始數據,輸出複原數據。

GetWeights函數獲取隱含層權重。

GetBiases函數獲取隱含層偏置繫數。

TensorFlow讀取示例數據函數輸入MNIST數據集。

定義訓練、測試數據標準化處理函數。標準化,數據變成0均值且標準差1的分佈。先減去均值,再除以標準差。sklearn.preprossing StandardScaler 類,訓練集上fit,在訓練數據和測試數據上必須用相同的Scaler。

獲取隨機block數據函數,取從0到len(data)-batch_size隨機整數,作為block起始位置,順序取batch size數據,不放回抽樣。

用standard_scale函數標準化交換訓練集和測試集。

定義總訓練樣本數,最大訓練輪數(epoch)20,batch_size 128,每隔一輪(epoch)顯示一次損失cost。

創建AGN自編碼器實例,定義模型輸入節點數n_input 784,自編碼器隱含節點數n_hidden 200,隱含層激活函數transfer_function softplus,優化器optimizer Adam,學習速率 0.001,雜訊繫數scale 0.001。

每一輪迴圈開始,平均損失avg_cost設0,計算總共需要batch數(樣本總數除batch大小),不放回抽樣,不能保證每個樣本都被抽到參與訓練。每個batch迴圈,用get_random_block_from_data函數隨機抽取block數據,用partial_fit訓練batch數據,計算當前cost,整合到avg_cost。每輪迭代顯示當前迭代數和本輪平均cost。

性能測試,用cal_total_cost測試測試集X_test,評價指標平方誤差。

    import numpy as np
    import sklearn.preprocessing as prep
    import tensorflow as tf
    from tensorflow.examples.tutorials.mnist import input_data
    def xavier_init(fan_in, fan_out, constant = 1):
        low = -constant * np.sqrt(6.0 / (fan_in + fan_out))
        high = constant * np.sqrt(6.0 / (fan_in + fan_out))
        return tf.random_uniform((fan_in, fan_out),
                             minval = low, maxval = high,
                             dtype = tf.float32)
    class AdditiveGaussianNoiseAutoencoder(object):
        def __init__(self, n_input, n_hidden, transfer_function = tf.nn.softplus, optimizer = tf.train.AdamOptimizer(),
                 scale = 0.1):
            self.n_input = n_input
            self.n_hidden = n_hidden
            self.transfer = transfer_function
            self.scale = tf.placeholder(tf.float32)
            self.training_scale = scale
            network_weights = self._initialize_weights()
            self.weights = network_weights
            # model
            self.x = tf.placeholder(tf.float32, [None, self.n_input])
            self.hidden = self.transfer(tf.add(tf.matmul(self.x + scale * tf.random_normal((n_input,)),
                self.weights['w1']),
                self.weights['b1']))
            self.reconstruction = tf.add(tf.matmul(self.hidden, self.weights['w2']), self.weights['b2'])
            # cost
            self.cost = 0.5 * tf.reduce_sum(tf.pow(tf.subtract(self.reconstruction, self.x), 2.0))
            self.optimizer = optimizer.minimize(self.cost)
            init = tf.global_variables_initializer()
            self.sess = tf.Session()
            self.sess.run(init)
        def _initialize_weights(self):
            all_weights = dict()
            all_weights['w1'] = tf.Variable(xavier_init(self.n_input, self.n_hidden))
            all_weights['b1'] = tf.Variable(tf.zeros([self.n_hidden], dtype = tf.float32))
            all_weights['w2'] = tf.Variable(tf.zeros([self.n_hidden, self.n_input], dtype = tf.float32))
            all_weights['b2'] = tf.Variable(tf.zeros([self.n_input], dtype = tf.float32))
            return all_weights
        def partial_fit(self, X):
            cost, opt = self.sess.run((self.cost, self.optimizer), feed_dict = {self.x: X,
                                                                            self.scale: self.training_scale
                                                                            })
            return cost
        def calc_total_cost(self, X):
            return self.sess.run(self.cost, feed_dict = {self.x: X,
                                                     self.scale: self.training_scale
                                                     })
        def transform(self, X):
            return self.sess.run(self.hidden, feed_dict = {self.x: X,
                                                       self.scale: self.training_scale
                                                       })
        def generate(self, hidden = None):
            if hidden is None:
                hidden = np.random.normal(size = self.weights["b1"])
            return self.sess.run(self.reconstruction, feed_dict = {self.hidden: hidden})
        def reconstruct(self, X):
            return self.sess.run(self.reconstruction, feed_dict = {self.x: X,
                                                               self.scale: self.training_scale
                                                               })
        def getWeights(self):
            return self.sess.run(self.weights['w1'])
        def getBiases(self):
            return self.sess.run(self.weights['b1'])
         
    mnist = input_data.read_data_sets('MNIST_data', one_hot = True)
    def standard_scale(X_train, X_test):
        preprocessor = prep.StandardScaler().fit(X_train)
        X_train = preprocessor.transform(X_train)
        X_test = preprocessor.transform(X_test)
        return X_train, X_test
    def get_random_block_from_data(data, batch_size):
        start_index = np.random.randint(0, len(data) - batch_size)
        return data[start_index:(start_index + batch_size)]
    X_train, X_test = standard_scale(mnist.train.images, mnist.test.images)
    n_samples = int(mnist.train.num_examples)
    training_epochs = 20
    batch_size = 128
    display_step = 1
    autoencoder = AdditiveGaussianNoiseAutoencoder(n_input = 784,
                                               n_hidden = 200,
                                               transfer_function = tf.nn.softplus,
                                               optimizer = tf.train.AdamOptimizer(learning_rate = 0.001),
                                               scale = 0.01)
    for epoch in range(training_epochs):
        avg_cost = 0.
        total_batch = int(n_samples / batch_size)
        # Loop over all batches
        for i in range(total_batch):
            batch_xs = get_random_block_from_data(X_train, batch_size)
            # Fit training using batch data
            cost = autoencoder.partial_fit(batch_xs)
            # Compute average loss
            avg_cost += cost / n_samples * batch_size
        # Display logs per epoch step
        if epoch % display_step == 0:
            print("Epoch:", '%04d' % (epoch + 1), "cost=", "{:.9f}".format(avg_cost))
    print("Total cost: " + str(autoencoder.calc_total_cost(X_test)))

 

參考資料:
《TensorFlow實踐》

歡迎付費咨詢(150元每小時),我的微信:qingxingfengzi


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 在做項目中,例如b2b的由商城跳往賣家中心的後臺,當他既有會員賬號又是賣家的時候,讓他登錄了商城,就不需要賣家登錄的時候,處理過程中可以用到form表單自動登錄。 實現簡單思路:可以再普通會員登錄的地方,登錄成功可以將登錄名和密碼,用戶id存起來,為了安全可以aes加密(前面一篇文章有詳細介紹),存 ...
  • let和const let 用來聲明變數,但是所聲明的變數只在let命令所在的代碼塊內有效 let不像var那樣會發生變數提升,所以一定要先聲明後使用。 let不允許在相同作用域內重覆聲明同一個變數。 let a=12; let a=5;//報錯 console.log(a) const const ...
  • 最開始聽說模態是上個月寶哥電話面試我時,問我有無瞭解前端的模態。對於我個新名詞我一臉懵比,讓寶哥提示一下,提示我說是界面的彈出框。what ? 那用alter不就好了?? 上周主要在看前端的代碼,寫得真是醜阿,註釋也沒寫多少……這是不好的……能不能多寫點註釋,求你了…… 今天基本瞭解了模態。 什麼是 ...
  • 前 言 前端 AngularJS是為了剋服HTML在構建應用上的不足而設計的。(引用百度百科) AngularJS使用了不同的方法,它嘗試去補足HTML本身在構建應用方面的缺陷。AngularJS通過使用我們稱為指令(directives)的結構,讓瀏覽器能夠識別新的語法。(引用百度百科) 例如: ...
  • 這個vue實現備忘錄的功能demo是K在github上找到的,K覺得這是一個用來對vue.js入門的一個非常簡單的demo,所以拿在這裡共用一下。 (尊重他人勞動成果,從小事做起~ demo原github地址:https://github.com/vuejs/vue) 一、實現效果 二、代碼展示 ...
  • 今天編程時,JavaScript 程式報了這樣的錯誤:Cannot use 'in' operator to search for...,具體錯誤信息如下: 坦白說,這樣的錯誤最難調試。因為它並不指向你所寫的具體代碼,而是泛泛指向了 lib.js 文件(該文件通常是第三方的打包壓縮庫),你幾乎無法依 ...
  • 一、http方法 二、http常用狀態碼 1. 100~199信息狀態碼 2. 200~299成功狀態碼 3. 300 ~ 399重定向狀態碼 4. 400~499錯誤狀態碼 5. 500~599狀態碼 ...
  • 剛開始做NDK 開發的時候,Android Studio 還沒提供了 native C/C++ 設置斷點 調試,我們都是通過輸出 日誌來調試,這樣費時耗力。Android Studio 應該是在 2.2 版本才提供的設置斷點 debug 功能,同時在該版本也提供了 cmake 編譯。 我目前在做 N ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...