1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        【圖解】循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

        共 1690字,需瀏覽 4分鐘

         ·

        2021-12-14 13:24


        點(diǎn)擊上方藍(lán)字,選擇加"星標(biāo)"或“置頂

        重磅干貨,第一時(shí)間送達(dá)

        作者:zhenguo,深度學(xué)習(xí)研究院


        神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學(xué)習(xí)歷史信息的能力。后面不管是Encoder-Decoder 框架,還是注意力模型,以及自注意力模型,以及更加強(qiáng)大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強(qiáng)的。

        這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點(diǎn),RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),RNN的缺陷,以及GRU,LSTM是如何試圖解決這些問題,RNN變體等。

        這篇文章最大特點(diǎn)是圖解版本,其次語言簡(jiǎn)練,總結(jié)全面。


        概述

        傳統(tǒng)RNN的體系結(jié)構(gòu)。Recurrent neural networks,也稱為RNNs,是一類允許先前的輸出用作輸入,同時(shí)具有隱藏狀態(tài)的神經(jīng)網(wǎng)絡(luò)。它們通常如下所示:

        對(duì)于每一時(shí)步 , 激活函數(shù) ? ,輸出 被表達(dá)為:

        這里 是時(shí)間維度網(wǎng)絡(luò)的共享權(quán)重系數(shù)

        是激活函數(shù)

        下表總結(jié)了典型RNN架構(gòu)的優(yōu)缺點(diǎn):

        優(yōu)點(diǎn)缺點(diǎn)
        處理任意長度的輸入計(jì)算速度慢
        模型形狀不隨輸入長度增加難以獲取很久以前的信息
        計(jì)算考慮了歷史信息無法考慮當(dāng)前狀態(tài)的任何未來輸入
        權(quán)重隨時(shí)間共享


        RNNs應(yīng)用


        RNN模型主要應(yīng)用于自然語言處理和語音識(shí)別領(lǐng)域。下表總結(jié)了不同的應(yīng)用:

        RNN 類型圖解例子
        1對(duì)1

        傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
        1對(duì)多

        音樂生成
        多對(duì)1

        情感分類
        多對(duì)多

        命名實(shí)體識(shí)別
        多對(duì)多

        機(jī)器翻譯

        損失函數(shù)

        對(duì)于RNN網(wǎng)絡(luò),所有時(shí)間步的損失函數(shù) 是根據(jù)每個(gè)時(shí)間步的損失定義的,如下所示:

        時(shí)間反向傳播

        在每個(gè)時(shí)間點(diǎn)進(jìn)行反向傳播。在時(shí)間步,損失相對(duì)于權(quán)重矩陣的偏導(dǎo)數(shù)表示如下:


        處理長短依賴

        常用激活函數(shù)

        RNN模塊中最常用的激活函數(shù)描述如下:

        SigmoidTanhRELU



        梯度消失/爆炸

        在RNN中經(jīng)常遇到梯度消失和爆炸現(xiàn)象。之所以會(huì)發(fā)生這種情況,是因?yàn)楹茈y捕捉到長期的依賴關(guān)系,因?yàn)槌朔ㄌ荻瓤梢噪S著層的數(shù)量呈指數(shù)遞減/遞增。

        梯度修剪

        梯度修剪是一種技術(shù),用于執(zhí)行反向傳播時(shí),有時(shí)遇到的梯度爆炸問題。通過限制梯度的最大值,這種現(xiàn)象在實(shí)踐中得以控制。


        門的類型

        為了解決消失梯度問題,在某些類型的RNN中使用特定的門,并且通常有明確的目的。它們通常標(biāo)注為,等于:

        其中,是特定于門的系數(shù),是sigmoid函數(shù)。主要內(nèi)容總結(jié)如下表:

        門的種類作用應(yīng)用
        更新門 過去對(duì)現(xiàn)在有多重要?GRU, LSTM
        關(guān)聯(lián)門 丟棄過去信息?GRU, LSTM
        遺忘門 是不是擦除一個(gè)單元?LSTM
        輸出門 暴露一個(gè)門的多少?LSTM

        GRU/LSTM

        Gated Recurrent Unit(GRU)和長-短期記憶單元(LSTM)處理傳統(tǒng)RNNs遇到的消失梯度問題,LSTM是GRU的推廣。下表總結(jié)了每種結(jié)構(gòu)的特征方程:


        注:符號(hào)表示兩個(gè)向量之間按元素相乘。

        RNN的變體

        下表總結(jié)了其他常用的RNN模型:

        Bidirectional (BRNN)Deep (DRNN)


        參考文獻(xiàn)
        https://stanford.edu/~shervine/teaching/cs-230/cheatsheet-recurrent-neural-networks


        下載1:Pytoch常用函數(shù)手冊(cè)
        在「深度學(xué)習(xí)愛好者」公眾號(hào)后臺(tái)回復(fù):Pytorch常用函數(shù)手冊(cè),即可下載全網(wǎng)第一份Pytorch常用函數(shù)手冊(cè),涵蓋Tensors介紹、基礎(chǔ)函數(shù)介紹、數(shù)據(jù)處理函數(shù)、優(yōu)化函數(shù)、CUDA編程、多線程處理等十四章章內(nèi)容。


        END

        聲明:部分內(nèi)容來源于網(wǎng)絡(luò),僅供讀者學(xué)術(shù)交流之目的。文章版權(quán)歸原作者所有。如有不妥,請(qǐng)聯(lián)系刪除。

        推薦閱讀

        1. 決策樹可視化,被驚艷到了!
        2. 開發(fā)機(jī)器學(xué)習(xí)APP,太簡(jiǎn)單了
        3. 周志華教授:關(guān)于深度學(xué)習(xí)的一點(diǎn)思考
        4. 200 道經(jīng)典機(jī)器學(xué)習(xí)面試題總結(jié)
        5. 卷積神經(jīng)網(wǎng)絡(luò)(CNN)數(shù)學(xué)原理解析


        如有收獲,歡迎三連??

        瀏覽 138
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            亚洲操逼xxxx | 电影《囗交》无删减版 | 91自啪区 | 国产乱一区二区三区夜爽 | 国产AV一区二区三区四区五区六区 | 国产aaa大片 | 开心深爱激情网 | 色久婷婷综合在线亚洲 | 噗嗤啪啪h爽爆了H | 亚洲成人AV一区 |