最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

過來看!27個深度學習中的神經網(wǎng)絡工作原理及其應用

2021-07-09 19:06 作者:深度之眼官方賬號  | 我要投稿


27個深度學習中的神經網(wǎng)絡,這些神經網(wǎng)絡拓撲結構應用于不同的場合,達到不同的目的,今天主要介紹每個神經網(wǎng)絡的應用及其工作原理。


01?感知器(P)


感知器模型也稱為單層神經網(wǎng)絡,這個神經網(wǎng)絡只包含兩層:


  • 輸入層

  • 輸出層


在這種類型的神經網(wǎng)絡中,沒有隱藏層。它接受一個輸入并計算每個節(jié)點的加權輸入。之后,它使用激活函數(shù)(主要是sigmoid函數(shù))進行分類。



應用:

  • 分類

  • 編碼數(shù)據(jù)庫(多層感知器)

  • 監(jiān)控訪問數(shù)據(jù)(多層感知器)


02?前饋神經網(wǎng)絡(FF)



前饋神經網(wǎng)絡是一種人工神經網(wǎng)絡,其中節(jié)點不會形成循環(huán)。在這個神經網(wǎng)絡中,所有的感知器都是分層排列,輸入層接收輸入,輸出層產生輸出。


隱藏層與外部世界沒有聯(lián)系;這就是為什么它們被稱為隱藏層。在前饋神經網(wǎng)絡中,一層中的每個感知器都與下一層中的每個節(jié)點相連,因此,所有節(jié)點都是全連接的。另外需要注意的是,同一層中的節(jié)點之間沒有可見或不可見的連接。


前饋網(wǎng)絡中沒有回環(huán),因此,為了最小化預測中的誤差,通常使用反向傳播算法來更新權重值。



應用:

  • 數(shù)據(jù)壓縮

  • 模式識別

  • 計算機視覺

  • 聲納目標識別

  • 語音識別

  • 手寫字符識別


03?徑向基函數(shù)網(wǎng)絡(RBN)



徑向基函數(shù)網(wǎng)絡通常用于函數(shù)逼近問題,它們具有更快的學習速度和通用逼近性,可區(qū)別于其他神經網(wǎng)絡。


徑向基網(wǎng)絡和前饋網(wǎng)絡之間的主要區(qū)別在于RBN使用徑向基函數(shù)作為激活函數(shù)。邏輯函數(shù)(sigmoid函數(shù))給出0到1之間的輸出,以確定答案是肯定的還是否定的。


但是請注意,如果有連續(xù)值,則不能使用RBN。


RBIs決定生成的輸出與目標輸出的距離,這些在連續(xù)值的情況下非常有用??傊?,RBIs表現(xiàn)是使用不同激活函數(shù)的FF網(wǎng)絡。



應用:

  • 函數(shù)逼近

  • 時間序列預測

  • 分類

  • 系統(tǒng)控制


04?深度前饋 (DFF)



深度前饋網(wǎng)絡是使用多個隱藏層的前饋網(wǎng)絡,僅使用一個隱藏層的主要問題是過度擬合,通過添加更多隱藏層,可以(并非在所有情況下)減少過度擬合并改進泛化能力。



應用

  • 數(shù)據(jù)壓縮

  • 模式識別

  • 計算機視覺

  • 心電圖噪聲過濾

  • 財務預測


05?循環(huán)神經網(wǎng)絡(RNN)



循環(huán)神經網(wǎng)絡(RNN)是前饋(FF)網(wǎng)絡的變體,在這種類型中,隱藏層中的每個神經元都會接收具有特定時間延遲的輸入。在需要訪問當前迭代中的先前信息的時候使用這種類型的神經網(wǎng)絡。


例如,當我們試圖預測一個句子中的下一個單詞時,我們需要先知道之前使用過的單詞,RNN 可以處理輸入并跨時間共享任何長度和權重,模型大小不會隨著輸入的大小而增加,并且該模型中的計算考慮了歷史信息。


然而,這個神經網(wǎng)絡的問題是計算速度慢,還有,它不能考慮當前狀態(tài)的任何未來輸入,因為它無法記住很久以前的信息。


應用:


  • 機器翻譯

  • 機器人控制

  • 時間序列預測

  • 語音識別

  • 語音合成

  • 時間序列異常檢測

  • 節(jié)奏學習

  • 音樂創(chuàng)作


06?長/短期記憶網(wǎng)絡(LSTM)



LSTM網(wǎng)絡引入了一個記憶單元,可以處理具有內存缺口的數(shù)據(jù)。上面,我們可以注意到我們要考慮RNNs中的時間延遲,在使用RNN時有大量相關數(shù)據(jù)失敗時,還想從中找出相關數(shù)據(jù),那么LSTMs是首要操作。與LSTM相比,RNN無法記住很久以前的數(shù)據(jù)。



應用:

  • 語音識別

  • 寫作識別


07?門控循環(huán)單元(GRU)



門控循環(huán)單元是LSTM的一種變體,二者都具有相似的設計,大多時候產生同樣好的結果。GRU只有三個門,它們不維護內部小組狀態(tài)。


A.更新門:確定將多少過去的知識傳遞給未來。


b.重置門:確定要忘記多少過去的知識。


C.當前記憶門:重置命運的子部分。



應用:

  • 和弦音樂建模

  • 語音信號建模

  • 自然語言處理


08?自動編碼器(AE)



自編碼器神經網(wǎng)絡是一種無監(jiān)督的機器學習算法。在自動編碼器中,隱藏單元的數(shù)量小于輸入單元的數(shù)量;自編碼器中輸入單元的數(shù)量等于輸出單元的數(shù)量。


在AE網(wǎng)絡上,我們訓練它顯示與fed輸入一樣接近的輸出,迫使AEs找到共同的模式并概括數(shù)據(jù)。對于較小的輸入表示,可使用自動編碼器。我們可以從壓縮數(shù)據(jù)重建原始數(shù)據(jù),該算法相對簡單,因為AE要求輸出與輸入相同。


  • 編碼器:以較低維度轉換輸入數(shù)據(jù)。

  • 解碼器:重建壓縮數(shù)據(jù)。



應用:

  • 分類

  • 聚類

  • 特征壓縮


09?變分自編碼器(VAE)



變分自編碼器(VAE)使用概率方法來描述觀察結果,它顯示了特征集中每個屬性的概率分布。



應用:


  • 在句子之間插入

  • 自動圖像生成


10?去噪自編碼器(DAE)


在這個自動編碼器中,網(wǎng)絡不能簡單地將輸入復制到輸出,因為輸入還包含隨機噪聲。在 DAE上,我們創(chuàng)作它是為了減少噪音并生成有意義的數(shù)據(jù)。這種情況下,算法會強制隱藏層學習更強大的特征,使輸出是噪聲輸入的更精細版本。



應用:

  • 特征提取

  • 降維


11?稀疏自編碼器(SAE)



在稀疏自編碼器網(wǎng)絡上,通過懲罰隱藏層的激活來構造損失函數(shù),這樣當將單個樣本輸入網(wǎng)絡時,只有少數(shù)節(jié)點被激活。


這種方法背后的原理是:


例如,如果一個人聲稱自己是A、B、C和D領域的專家,那么這個人可能更像是這些領域的全能人才。但是,如果此人僅聲稱致力于主題D,則會期望從此人對D主題的知識中獲得見解。



應用:


  • 特征提取

  • 手寫數(shù)字識別


12?馬爾可夫鏈(MC)



馬爾可夫鏈是一個數(shù)學系統(tǒng),它根據(jù)一些概率規(guī)則,經歷從一種狀態(tài)到另一種狀態(tài)的轉換。轉換到任何特定狀態(tài)的概率僅取決于當前狀態(tài)和經過的時間。


例如,一些可能的狀態(tài)集可以是:


  • 信件

  • 數(shù)字

  • 天氣狀況

  • 棒球比分

  • 股票表現(xiàn)



應用:


  • 語音識別

  • 信息和通信系統(tǒng)

  • 排隊論

  • 統(tǒng)計數(shù)據(jù)


13?HOPFIELD網(wǎng)絡(HN)



在Hopfield神經網(wǎng)絡中,每個神經元都與其他神經元直接相連。在這個網(wǎng)絡中,一個神經元要么是開要么是關。神經元的狀態(tài)可以通過接收來自其他神經元的輸入而改變。


我們通常使用Hopfield網(wǎng)絡(HN)來存儲模式和記憶。當在一組模式上訓練一個神經網(wǎng)絡時,即使模式有點失真或不完整,它也能識別出來。當向它提供不完整的輸入時,它可以識別出完整的模式,從而返回最佳猜測。



應用:

  • 優(yōu)化問題

  • 圖像檢測和識別

  • 醫(yī)學圖像識別

  • 增強X射線圖像


14?玻爾茲曼機網(wǎng)絡(BM)



Boltzmann機網(wǎng)絡涉及從原始數(shù)據(jù)集學習概率分布,并使用它來推斷未知數(shù)據(jù)。


在BMs中,有輸入節(jié)點和隱藏節(jié)點,在所有的隱藏節(jié)點改變狀態(tài)時,輸入節(jié)點就會轉變?yōu)檩敵龉?jié)點。


例如:


假設我們在核電站工作,安全必須是第一要務。我們的工作是確保動力裝置中的所有組件都可以安全使用,每個組件都有相關的狀態(tài),為簡單起見使用布爾值,1 表示可用,0 表示不可用。但是,也會有一些組件我們無法定期測量狀態(tài)。此外,如果隱藏組件停止運行,我們沒有數(shù)據(jù)告訴我們發(fā)電廠何時會爆炸。


因此,在這種情況下,我們構建了一個模型,該模型會在組件更改其狀態(tài)時進行通知。因此,當它發(fā)生時,會接到通知檢查該組件并確保動力裝置的安全。



應用:

  • 降維

  • 分類

  • 回歸

  • 協(xié)同過濾

  • 特征學習


15?受限玻爾茲曼機(RBM)



RBM是BM的變體。在這個模型中,輸入層和隱藏層的神經元之間存在對稱連接,但是他們每一層內部沒有內部連接。Boltzmann機在隱藏層有內部連接。BM中的這些限制允許對模型進行有效的訓練。



應用:

  • 過濾

  • 特征學習

  • 分類

  • 風險檢測

  • 商業(yè)和經濟分析


16?深度信念網(wǎng)絡(DBN)



深度信念網(wǎng)絡包含許多隱藏層,可以使用無監(jiān)督算法調用DBNs,因為它第一次學習時沒有任何監(jiān)督。DBN中的層充當特征檢測器,在無監(jiān)督訓練之后,再用監(jiān)督方法訓練模型來執(zhí)行分類。


我們可以將DBN表示為受限玻爾茲曼機(RBM)和自動編碼器 (AE)的組合,最后dbn使用概率方法來處理結果。



應用:

  • 檢索文件/圖像

  • 非線性降維


17?深度卷積網(wǎng)絡(DCN)



卷積神經網(wǎng)絡是主要用于圖像分類、圖像聚類和對象識別的神經網(wǎng)絡。DNN支持無監(jiān)督構建分層圖像表示。DNN用于為其添加更復雜的特征,以便它能夠以更高的精度執(zhí)行任務。



應用:

  • 識別面孔、路標、腫瘤

  • 圖像識別

  • 視頻分析

  • 自然語言處理(NLP)

  • 異常檢測

  • 藥物發(fā)現(xiàn)

  • 跳棋游戲

  • 時間序列預測


18?反卷積神經網(wǎng)絡 (DN)



反卷積網(wǎng)絡是一種反向工作的卷積神經網(wǎng)絡(CNN)。盡管DN在工作性質上類似于CNN,但它在AI中的應用卻大不相同。


反卷積網(wǎng)絡有助于在以前認為有用的網(wǎng)絡中找到丟失的特征或信號。DN可能會因為與其他信號卷積而丟失信號。反卷積網(wǎng)絡可以獲取一個向量并制作出一張圖片。



應用:

  • 圖像超分辨率

  • 圖像的表面深度估計

  • 光流估計


19?深度卷積逆圖形網(wǎng)絡(DC-IGN)



深度卷積逆圖形網(wǎng)絡(DC-IGN)旨在將圖形表示與圖像相關聯(lián)。它使用諸如照明、對象位置、紋理和圖像設計的其他方面的元素來進行非常復雜的圖像處理。


它使用不同層來處理輸入和輸出。深度卷積逆圖形網(wǎng)絡使用初始層通過各種卷積進行編碼,利用最大池化,然后使用后續(xù)層進行解碼。



應用:

  • 人臉的處理


20?生成對抗網(wǎng)絡(GAN)


給定訓練數(shù)據(jù),GANs學會生成與訓練具有相同統(tǒng)計數(shù)據(jù)的新數(shù)據(jù)。


例如,如果我們在照片上訓練我們的GAN模型,那么經過訓練的模型將能夠生成人眼看起來真實的新照片。GAN的目標是區(qū)分真實結果和合成結果,以便生成更真實的結果。



應用:

  • 生成新的人體姿勢

  • 照片到表情符號

  • 面部老化

  • 超分辨率

  • 服裝翻譯

  • 視頻預測


21?液體狀態(tài)機(LSM)


液態(tài)狀態(tài)機 (LSM)是一種特殊的神經網(wǎng)絡結構,LSM由大量神經元組成。在這里,每個節(jié)點接收來自外部源和其他節(jié)點的輸入,這些輸入可能隨時間而變化。


請注意,LSM上的節(jié)點相互隨機連接。在LSMs中,激活函數(shù)被閾值水平取代。只有當LSM達到閾值水平時,特定神經元才會發(fā)出輸出。



應用:

  • 語音識別

  • 計算機視覺


22?極限學習機(ELM)


對于更大規(guī)模的數(shù)據(jù)集傳統(tǒng)系統(tǒng)的主要缺點是:


基于梯度算法的學習速度慢。

迭代地調整所有參數(shù)。


ELM隨機選擇隱藏節(jié)點,然后分析確定輸出權重。因此,這些算法比一般的神經網(wǎng)絡算法工作得更快。此外,在極限學習機網(wǎng)絡上,隨機分配的權重通常不會更新,ELMs只需一步即可學習輸出權重。



應用:

  • 分類

  • 回歸

  • 聚類

  • 稀疏近似

  • 特征學習


23?回聲狀態(tài)網(wǎng)絡(ESN)


回聲狀態(tài)網(wǎng)絡(ESN)是循環(huán)神經網(wǎng)絡的一個子類型,每個輸入節(jié)點接收一個非線性信號。在ESN中,隱藏節(jié)點是稀疏連接的,隱藏節(jié)點的連通性和權重是隨機分配的。在ESN上,最終輸出權重是可訓練的并且可以更新。



應用:

  • 時間序列預測

  • 數(shù)據(jù)挖掘


24?深度殘差網(wǎng)絡(DRN)


具有多層的深度神經網(wǎng)絡可能難以訓練,并且在訓練階段需要花費大量時間,也可能導致結果的退化。深度殘差網(wǎng)絡(DRN)可以防止結果退化,即使它們有很多層。有了DRNs,它的輸入的一些部分會傳遞到下一層。因此,這些網(wǎng)絡可能相當深(可能包含大約300層)。



應用:

  • 圖像分類

  • 對象檢測

  • 語義分割

  • 語音識別

  • 語言識別


25?Kohonen網(wǎng)絡(KN)


Kohonen網(wǎng)絡是一種無監(jiān)督算法。Kohonen Network也稱為自組織圖,當數(shù)據(jù)分散在多個維度上,而我們又只希望它在一維或二維中時非常有用,可以看作是一種降維的方法。我們使用Kohonen網(wǎng)絡來可視化高維數(shù)據(jù),它使用競爭學習而不是糾錯學習。


各種拓撲:


  • 矩形網(wǎng)格拓撲

  • 六邊形網(wǎng)格拓撲



應用:

  • 降維

  • 水質評估和預測

  • 沿海水資源管理


26?支持向量機(SVM)


支持向量機神經網(wǎng)絡是支持向量機和神經網(wǎng)絡的混合算法。對于一組新的例子,它總是嘗試將它們分為兩類是或否(1或0)。SVM通常用于二元分類,這些通常不被視為神經網(wǎng)絡。



應用:

  • 人臉檢測

  • 文本分類

  • 分類

  • 生物信息學

  • 手寫識別


27?神經圖靈機(NTM)


  • 神經網(wǎng)絡控制器

  • 記憶庫


在這個神經網(wǎng)絡中,控制器通過輸入和輸出向量與外部世界交互。還通過與存儲器矩陣交互來執(zhí)行選擇性讀取和寫入R/W操作。


據(jù)說圖靈機在計算上等同于現(xiàn)代計算機。因此,NTMs通過與外部存儲器交互來擴展標準神經網(wǎng)絡的功能。



應用:

  • 機器人

  • 構建一個人造人腦



參考文檔:

https://pub.towardsai.net/main-types-of-neural-networks-and-its-applications-tutorial-734480d7ec8e


碼字不易給學姐一個鼓勵的贊吧!



過來看!27個深度學習中的神經網(wǎng)絡工作原理及其應用的評論 (共 條)

分享到微博請遵守國家法律
江永县| 苍梧县| 当涂县| 建阳市| 澄迈县| 叙永县| 克拉玛依市| 富顺县| 蕉岭县| 英山县| 渝北区| 安塞县| 河北省| 石阡县| 满城县| 拜城县| 庆阳市| 固阳县| 大埔区| 遵义市| 乌鲁木齐市| 泸西县| 凉城县| 湘阴县| 嘉善县| 宁城县| 宁海县| 延边| 三门县| 平舆县| 库尔勒市| 洪泽县| 东辽县| 遂宁市| 金山区| 南城县| 巴林左旗| 博白县| 蕉岭县| 鹤庆县| 阜新市|