http://blackblog.tech/2018/02/23/Eight-Neural-Network/
更多幹貨就在我的個人博客 http://blackblog.tech 歡迎關註
剛剛入門神經網絡,往往會對眾多的神經網絡架構感到困惑,神經網絡看起來復雜多樣,但是這麽多架構無非也就是三類,前饋神經網絡,循環網絡,對稱連接網絡,本文將介紹四種常見的神經網絡,分別是CNN,RNN,DBN,GAN。通過這四種基本的神經網絡架構,我們來對神經網絡進行壹定的了解。
神經網絡是機器學習中的壹種模型,是壹種模仿動物神經網絡行為特征,進行分布式並行信息處理的算法數學模型。這種網絡依靠系統的復雜程度,通過調整內部大量節點之間相互連接的關系,從而達到處理信息的目的。
壹般來說,神經網絡的架構可以分為三類:
前饋神經網絡:
這是實際應用中最常見的神經網絡類型。第壹層是輸入,最後壹層是輸出。如果有多個隱藏層,我們稱之為“深度”神經網絡。他們計算出壹系列改變樣本相似性的變換。各層神經元的活動是前壹層活動的非線性函數。
循環網絡:
循環網絡在他們的連接圖中定向了循環,這意味著妳可以按照箭頭回到妳開始的地方。他們可以有復雜的動態,使其很難訓練。他們更具有生物真實性。
循環網絡的目的使用來處理序列數據。在傳統的神經網絡模型中,是從輸入層到隱含層再到輸出層,層與層之間是全連接的,每層之間的節點是無連接的。但是這種普通的神經網絡對於很多問題卻無能無力。例如,妳要預測句子的下壹個單詞是什麽,壹般需要用到前面的單詞,因為壹個句子中前後單詞並不是獨立的。
循環神經網路,即壹個序列當前的輸出與前面的輸出也有關。具體的表現形式為網絡會對前面的信息進行記憶並應用於當前輸出的計算中,即隱藏層之間的節點不再無連接而是有連接的,並且隱藏層的輸入不僅包括輸入層的輸出還包括上壹時刻隱藏層的輸出。
對稱連接網絡:
對稱連接網絡有點像循環網絡,但是單元之間的連接是對稱的(它們在兩個方向上權重相同)。比起循環網絡,對稱連接網絡更容易分析。這個網絡中有更多的限制,因為它們遵守能量函數定律。沒有隱藏單元的對稱連接網絡被稱為“Hopfield 網絡”。有隱藏單元的對稱連接的網絡被稱為玻爾茲曼機。
其實之前的帖子講過壹些關於感知機的內容,這裏再復述壹下。
首先還是這張圖
這是壹個M-P神經元
壹個神經元有n個輸入,每壹個輸入對應壹個權值w,神經元內會對輸入與權重做乘法後求和,求和的結果與偏置做差,最終將結果放入激活函數中,由激活函數給出最後的輸出,輸出往往是二進制的,0 狀態代表抑制,1 狀態代表激活。
可以把感知機看作是 n 維實例空間中的超平面決策面,對於超平面壹側的樣本,感知器輸出 1,對於另壹側的實例輸出 0,這個決策超平面方程是 w?x=0。 那些可以被某壹個超平面分割的正反樣例集合稱為線性可分(linearly separable)樣例集合,它們就可以使用圖中的感知機表示。
與、或、非問題都是線性可分的問題,使用壹個有兩輸入的感知機能容易地表示,而異或並不是壹個線性可分的問題,所以使用單層感知機是不行的,這時候就要使用多層感知機來解決疑惑問題了。
如果我們要訓練壹個感知機,應該怎麽辦呢?
我們會從隨機的權值開始,反復地應用這個感知機到每個訓練樣例,只要它誤分類樣例就修改感知機的權值。重復這個過程,直到感知機正確分類所有的樣例。每壹步根據感知機訓練法則來修改權值,也就是修改與輸入 xi 對應的權 wi,法則如下:
這裏 t 是當前訓練樣例的目標輸出,o 是感知機的輸出,η 是壹個正的常數稱為學習速率。學習速率的作用是緩和每壹步調整權的程度,它通常被設為壹個小的數值(例如 0.1),而且有時會使其隨著權調整次數的增加而衰減。
多層感知機,或者說是多層神經網絡無非就是在輸入層與輸出層之間加了多個隱藏層而已,後續的CNN,DBN等神經網絡只不過是將重新設計了每壹層的類型。感知機可以說是神經網絡的基礎,後續更為復雜的神經網絡都離不開最簡單的感知機的模型,
談到機器學習,我們往往還會跟上壹個詞語,叫做模式識別,但是真實環境中的模式識別往往會出現各種問題。比如:
圖像分割:真實場景中總是摻雜著其它物體。很難判斷哪些部分屬於同壹個對象。對象的某些部分可以隱藏在其他對象的後面。
物體光照:像素的強度被光照強烈影響。
圖像變形:物體可以以各種非仿射方式變形。例如,手寫也可以有壹個大的圓圈或只是壹個尖頭。
情景支持:物體所屬類別通常由它們的使用方式來定義。例如,椅子是為了讓人們坐在上面而設計的,因此它們具有各種各樣的物理形狀。
卷積神經網絡與普通神經網絡的區別在於,卷積神經網絡包含了壹個由卷積層和子采樣層構成的特征抽取器。在卷積神經網絡的卷積層中,壹個神經元只與部分鄰層神經元連接。在CNN的壹個卷積層中,通常包含若幹個特征平面(featureMap),每個特征平面由壹些矩形排列的的神經元組成,同壹特征平面的神經元***享權值,這裏***享的權值就是卷積核。卷積核壹般以隨機小數矩陣的形式初始化,在網絡的訓練過程中卷積核將學習得到合理的權值。***享權值(卷積核)帶來的直接好處是減少網絡各層之間的連接,同時又降低了過擬合的風險。子采樣也叫做池化(pooling),通常有均值子采樣(mean pooling)和最大值子采樣(max pooling)兩種形式。子采樣可以看作壹種特殊的卷積過程。卷積和子采樣大大簡化了模型復雜度,減少了模型的參數。
卷積神經網絡由三部分構成。第壹部分是輸入層。第二部分由n個卷積層和池化層的組合組成。第三部分由壹個全連結的多層感知機分類器構成。
這裏舉AlexNet為例:
·輸入:224×224大小的圖片,3通道
·第壹層卷積:11×11大小的卷積核96個,每個GPU上48個。
·第壹層max-pooling:2×2的核。
·第二層卷積:5×5卷積核256個,每個GPU上128個。
·第二層max-pooling:2×2的核。
·第三層卷積:與上壹層是全連接,3*3的卷積核384個。分到兩個GPU上個192個。
·第四層卷積:3×3的卷積核384個,兩個GPU各192個。該層與上壹層連接沒有經過pooling層。
·第五層卷積:3×3的卷積核256個,兩個GPU上個128個。
·第五層max-pooling:2×2的核。
·第壹層全連接:4096維,將第五層max-pooling的輸出連接成為壹個壹維向量,作為該層的輸入。
·第二層全連接:4096維
·Softmax層:輸出為1000,輸出的每壹維都是圖片屬於該類別的概率。
卷積神經網絡在模式識別領域有著重要應用,當然這裏只是對卷積神經網絡做了最簡單的講解,卷積神經網絡中仍然有很多知識,比如局部感受野,權值***享,多卷積核等內容,後續有機會再進行講解。
傳統的神經網絡對於很多問題難以處理,比如妳要預測句子的下壹個單詞是什麽,壹般需要用到前面的單詞,因為壹個句子中前後單詞並不是獨立的。RNN之所以稱為循環神經網路,即壹個序列當前的輸出與前面的輸出也有關。具體的表現形式為網絡會對前面的信息進行記憶並應用於當前輸出的計算中,即隱藏層之間的節點不再無連接而是有連接的,並且隱藏層的輸入不僅包括輸入層的輸出還包括上壹時刻隱藏層的輸出。理論上,RNN能夠對任何長度的序列數據進行處理。
這是壹個簡單的RNN的結構,可以看到隱藏層自己是可以跟自己進行連接的。
那麽RNN為什麽隱藏層能夠看到上壹刻的隱藏層的輸出呢,其實我們把這個網絡展開來開就很清晰了。
從上面的公式我們可以看出,循環層和全連接層的區別就是循環層多了壹個權重矩陣 W。
如果反復把式2帶入到式1,我們將得到:
在講DBN之前,我們需要對DBN的基本組成單位有壹定的了解,那就是RBM,受限玻爾茲曼機。
首先什麽是玻爾茲曼機?
[圖片上傳失敗...(image-d36b31-1519636788074)]
如圖所示為壹個玻爾茲曼機,其藍色節點為隱層,白色節點為輸入層。
玻爾茲曼機和遞歸神經網絡相比,區別體現在以下幾點:
1、遞歸神經網絡本質是學習壹個函數,因此有輸入和輸出層的概念,而玻爾茲曼機的用處在於學習壹組數據的“內在表示”,因此其沒有輸出層的概念。
2、遞歸神經網絡各節點鏈接為有向環,而玻爾茲曼機各節點連接成無向完全圖。
而受限玻爾茲曼機是什麽呢?
最簡單的來說就是加入了限制,這個限制就是將完全圖變成了二分圖。即由壹個顯層和壹個隱層構成,顯層與隱層的神經元之間為雙向全連接。
h表示隱藏層,v表示顯層
在RBM中,任意兩個相連的神經元之間有壹個權值w表示其連接強度,每個神經元自身有壹個偏置系數b(對顯層神經元)和c(對隱層神經元)來表示其自身權重。
具體的公式推導在這裏就不展示了
DBN是壹個概率生成模型,與傳統的判別模型的神經網絡相對,生成模型是建立壹個觀察數據和標簽之間的聯合分布,對P(Observation|Label)和 P(Label|Observation)都做了評估,而判別模型僅僅而已評估了後者,也就是P(Label|Observation)。
DBN由多個限制玻爾茲曼機(Restricted Boltzmann Machines)層組成,壹個典型的神經網絡類型如圖所示。這些網絡被“限制”為壹個可視層和壹個隱層,層間存在連接,但層內的單元間不存在連接。隱層單元被訓練去捕捉在可視層表現出來的高階數據的相關性。
生成對抗網絡其實在之前的帖子中做過講解,這裏在說明壹下。
生成對抗網絡的目標在於生成,我們傳統的網絡結構往往都是判別模型,即判斷壹個樣本的真實性。而生成模型能夠根據所提供的樣本生成類似的新樣本,註意這些樣本是由計算機學習而來的。
GAN壹般由兩個網絡組成,生成模型網絡,判別模型網絡。
生成模型 G 捕捉樣本數據的分布,用服從某壹分布(均勻分布,高斯分布等)的噪聲 z 生成壹個類似真實訓練數據的樣本,追求效果是越像真實樣本越好;判別模型 D 是壹個二分類器,估計壹個樣本來自於訓練數據(而非生成數據)的概率,如果樣本來自於真實的訓練數據,D 輸出大概率,否則,D 輸出小概率。
舉個例子:生成網絡 G 好比假幣制造團夥,專門制造假幣,判別網絡 D 好比警察,專門檢測使用的貨幣是真幣還是假幣,G 的目標是想方設法生成和真幣壹樣的貨幣,使得 D 判別不出來,D 的目標是想方設法檢測出來 G 生成的假幣。
傳統的判別網絡:
生成對抗網絡:
下面展示壹個cDCGAN的例子(前面帖子中寫過的)
生成網絡
判別網絡
最終結果,使用MNIST作為初始樣本,通過學習後生成的數字,可以看到學習的效果還是不錯的。
本文非常簡單的介紹了四種神經網絡的架構,CNN,RNN,DBN,GAN。當然也僅僅是簡單的介紹,並沒有深層次講解其內涵。這四種神經網絡的架構十分常見,應用也十分廣泛。當然關於神經網絡的知識,不可能幾篇帖子就講解完,這裏知識講解壹些基礎知識,幫助大家快速入(zhuang)門(bi)。後面的帖子將對深度自動編碼器,Hopfield 網絡長短期記憶網絡(LSTM)進行講解。