1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        神經網絡RNN圖解!

        共 1579字,需瀏覽 4分鐘

         ·

        2021-11-14 21:30

        點擊下方卡片,關注“新機器視覺”公眾號

        視覺/圖像重磅干貨,第一時間送達

        作者:zhenguo

        來源:Python與算法社區(qū)

        轉自:機器學習實驗室


        神經網絡是深度學習的載體,而神經網絡模型中,最經典非RNN模型所屬,盡管它不完美,但它具有學習歷史信息的能力。后面不管是encode-decode 框架,還是注意力模型,以及自注意力模型,以及更加強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。


        這篇文章,闡述了RNN的方方面面,包括模型結構,優(yōu)缺點,RNN模型的幾種應用,RNN常使用的激活函數,RNN的缺陷,以及GRU,LSTM是如何試圖解決這些問題,RNN變體等。


        這篇文章最大特點是圖解版本,其次語言簡練,總結全面。

        概述

        傳統RNN的體系結構。Recurrent neural networks,也稱為RNNs,是一類允許先前的輸出用作輸入,同時具有隱藏狀態(tài)的神經網絡。它們通常如下所示:

        對于每一時步 , 激活函數   ,輸出  被表達為:

        這里  是時間維度網絡的共享權重系數

         是激活函數


        下表總結了典型RNN架構的優(yōu)缺點:

        優(yōu)點缺點
        處理任意長度的輸入計算速度慢
        模型形狀不隨輸入長度增加難以獲取很久以前的信息
        計算考慮了歷史信息無法考慮當前狀態(tài)的任何未來輸入
        權重隨時間共享

        RNNs應用

        RNN模型主要應用于自然語言處理和語音識別領域。下表總結了不同的應用:

        RNN 類型圖解例子
        1對1 

        傳統神經網絡
        1對多

        音樂生成
        多對1

        情感分類
        多對多

        命名實體識別
        多對多

        機器翻譯

        損失函數

        對于RNN網絡,所有時間步的損失函數  是根據每個時間步的損失定義的,如下所示:

        時間反向傳播

        在每個時間點進行反向傳播。在時間步,損失相對于權重矩陣的偏導數表示如下:

        處理長短依賴

        常用激活函數

        RNN模塊中最常用的激活函數描述如下:

        SigmoidTanhRELU



        梯度消失/爆炸

        在RNN中經常遇到梯度消失和爆炸現象。之所以會發(fā)生這種情況,是因為很難捕捉到長期的依賴關系,因為乘法梯度可以隨著層的數量呈指數遞減/遞增。

        梯度修剪

        梯度修剪是一種技術,用于執(zhí)行反向傳播時,有時遇到的梯度爆炸問題。通過限制梯度的最大值,這種現象在實踐中得以控制。


        門的類型

        為了解決消失梯度問題,在某些類型的RNN中使用特定的門,并且通常有明確的目的。它們通常標注為,等于:

        其中,是特定于門的系數,是sigmoid函數。主要內容總結如下表:

        門的種類作用應用
        更新門 過去對現在有多重要?GRU, LSTM
        關聯門 丟棄過去信息?GRU, LSTM
        遺忘門 是不是擦除一個單元?LSTM
        輸出門 暴露一個門的多少?LSTM

        GRU/LSTM

        Gated Recurrent Unit(GRU)和長-短期記憶單元(LSTM)處理傳統RNNs遇到的消失梯度問題,LSTM是GRU的推廣。下表總結了每種結構的特征方程:


        注:符號表示兩個向量之間按元素相乘。

        RNN的變體

        下表總結了其他常用的RNN模型:

        Bidirectional (BRNN)Deep (DRNN)


        參考文獻:


        https://stanford.edu/~shervine/teaching/cs-230/cheatsheet-recurrent-neural-networks

        —版權聲明—

        僅用于學術分享,版權屬于原作者。

        若有侵權,請聯系微信號:yiyang-sy 刪除或修改!


        —THE END—
        瀏覽 53
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            逼逼大片| 四川女人高潮毛片 | 麻豆一区 | 粉嫩99久久久国产精品免费 | 91人妻无码成人精品一区二区三区 | 小情侣出租屋激烈啪啪 | 日本无码成人片在线观看波多 | 一边亲一边摸进内裤里面 | 在线一区观看 | 亚洲视频免费视频在线视频免费视频 |