1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        (附論文)綜述 | 少樣本學(xué)習(xí)

        共 2697字,需瀏覽 6分鐘

         ·

        2021-08-07 17:32

        點擊左上方藍字關(guān)注我們



        一個專注于目標檢測與深度學(xué)習(xí)知識分享的公眾號

        編者薦語
        文章將少樣本學(xué)習(xí)的方法分為三類:基于數(shù)據(jù)、基于模型和基于算法。其中,基于數(shù)據(jù)的方法包括對訓(xùn)練集進行變換和對其他數(shù)據(jù)集進行變換;基于模型的主要思想是通過先驗知識限制假設(shè)空間的大小,使模型只需要較少樣本便能訓(xùn)練最優(yōu)分類器;基于算法的思想主要是通過學(xué)習(xí)最優(yōu)參數(shù)的優(yōu)化步驟或者以較優(yōu)參數(shù)為起點。

        轉(zhuǎn)載自 | Jy的煉丹爐@知乎

        鏈接 | https://zhuanlan.zhihu.com/p/389689066


        論文地址:https://arxiv.org/abs/1904.05046



        下面對上述的方法進行詳細介紹。


        01


        基于數(shù)據(jù)
        1.1 變換訓(xùn)練集
        該策略通過將每個樣本轉(zhuǎn)換為幾個有一定變化的樣本來增廣訓(xùn)練集的樣本數(shù)。但是,目前為止變換訓(xùn)練集的方法只適用于圖像。
        人工規(guī)則(Handcrafted Rule):在圖像識別任務(wù)中,使用手工制作的規(guī)則變換原始樣本作為預(yù)處理程序,例如、翻轉(zhuǎn)、剪切、縮放、反射、裁剪和旋轉(zhuǎn)。
        學(xué)習(xí)規(guī)則(Learned Transformation):該策略通過將原始的樣本復(fù)制到幾個樣本中,然后通過學(xué)習(xí)到的轉(zhuǎn)換規(guī)則進行修改來增廣訓(xùn)練集。
        討論:因為少樣本并沒有很好地體現(xiàn)出數(shù)據(jù)的分布,因此基于簡單地進行人工規(guī)則進行數(shù)據(jù)增廣而不考慮任務(wù)或者需要的數(shù)據(jù)分布可能只能提供很少的額外監(jiān)督信息。
        1.2 變換其他數(shù)據(jù)集
        該策略將來自其他數(shù)據(jù)集的樣本進行變換,達到增廣數(shù)據(jù)得到目的。
        弱標記或無標記數(shù)據(jù)集(Weakly Labeled or Unlabeled Data Set):該策略使用了一個大規(guī)模的弱標記或未標記的相同數(shù)據(jù)集


        舉個栗子:在視頻手勢識別中,有研究團隊使用一個大但弱標記的手勢庫。通過訓(xùn)練集訓(xùn)練的分類器,來從若標記手勢庫中選擇與訓(xùn)練集相同的手勢樣本,然后使用這些選擇的示例構(gòu)建最后的手勢分類器。


        類似的數(shù)據(jù)集(Similar Data Set):這種策略通過聚合來自其他類似但更大的數(shù)據(jù)集的樣本對來增廣訓(xùn)練集??梢酝ㄟ^聚合從類似數(shù)據(jù)集的樣本來生成新的樣本,其中聚合權(quán)重通常是從其他信息源提取的相似度量。


        新奇的思路:老虎數(shù)據(jù)集類似于貓數(shù)據(jù)集,因此可以使用生成對抗網(wǎng)絡(luò)(GAN),從老虎數(shù)據(jù)集中合成貓的新樣本。


        討論:1.2中這兩種方法實際成本是比較高的:弱標記數(shù)據(jù)集質(zhì)量可能很低,從更大數(shù)據(jù)集選擇相似樣本也需要足夠的的監(jiān)督信息。

        02
        基于模型
        對于使用普通的機器學(xué)習(xí)模型來處理少樣本訓(xùn)練,則必須選擇一個小的假設(shè)空間H。一個小的假設(shè)空間僅需要訓(xùn)練更少的樣本就可以得到最優(yōu)假設(shè)。
        因此,基于模型的策略利用先驗知識來影響假設(shè)空間的選擇,例如:對假設(shè)空間進行約束,這樣僅用較少訓(xùn)練樣本就能實現(xiàn)最優(yōu)擬合。
        2.1 多任務(wù)學(xué)習(xí)(Multitask learning)
        多任務(wù)學(xué)習(xí)方法自發(fā)地學(xué)習(xí)多個學(xué)習(xí)任務(wù),利用跨任務(wù)共享的通用信息和每個任務(wù)的特定學(xué)習(xí)信息來實現(xiàn)權(quán)重共享,從而進一步約束假設(shè)空間H。
        其中參數(shù)共享分為硬參數(shù)共享和軟參數(shù)共享,如下圖所示
        硬參數(shù)共享:任務(wù)之間明確共享參數(shù),可以只共享部分參數(shù),例如可以通過多個任務(wù)共享幾個網(wǎng)絡(luò)的前幾層來學(xué)習(xí)通用信息,最后一層來處理每個任務(wù)的不同輸出。其他任務(wù)只能更新其特定于任務(wù)的層,而源任務(wù)可以更新共享層和特定層。
        軟參數(shù)共享:此策略不會在各個任務(wù)中顯式地共享參數(shù)。相反,每個任務(wù)都有自己的假設(shè)空間和參數(shù)。它只鼓勵不同任務(wù)的參數(shù)相似,從而導(dǎo)致類似的假設(shè)空間。
        2.2 嵌入學(xué)習(xí)(embedding learning)—— 一般用于分類
        嵌入學(xué)習(xí)將樣本映射到低維嵌入空間,在那里可以很容易地識別相似和不同的樣本,因此H收到約束。將樣本特征和測試數(shù)據(jù)特征embedding到低維空間Z,通過相似性度量,將測試數(shù)據(jù)預(yù)測為最相似的訓(xùn)練樣本的類。
        2.3 外部記憶學(xué)習(xí)(Learning with External Memory):用外部記憶學(xué)習(xí)將所需的知識直接記憶在外部記憶中,以供檢索或更新,通過一些相似性度量。然后,它使用相似性來確定從內(nèi)存中提取哪些知識,使得之后的x能夠通過外部記憶獲取相關(guān)圖像進行比對來實現(xiàn)更好的預(yù)測。
        2.4 生成式模型(Generative Modeling)
        這個方法是基于概率分布的方法,利用先驗知識和數(shù)據(jù)來獲得估計的分布,來限制假設(shè)空間H的形狀

        03
        基于算法
        基于算法是學(xué)習(xí)在假設(shè)空間H中搜索最佳假設(shè)h?的參數(shù)θ的策略。
        3.1 改善現(xiàn)有的參數(shù):從其他任務(wù)中獲得初始參數(shù)用于初始化搜索,然后在新的訓(xùn)練集上進行優(yōu)化。(例如;遷移學(xué)習(xí))
        Fine-tune θ0 with Regularization(使用正則化微調(diào)θ0(之前訓(xùn)練好的參數(shù))) 當(dāng)初始化參數(shù)遇到新問題時,只需少量的樣本進行幾步梯度下降就可以取得較好的效果。防止overfitting:正則化、凍結(jié)部分層的參數(shù)、先聚類后分組反向傳播微調(diào)
        聚合一組θ0從多個網(wǎng)絡(luò)的訓(xùn)練好的θ0中選取相關(guān)的值,并將它們聚合到適合Dtrain調(diào)整的初始化中。
        新參數(shù)微調(diào)θ0:預(yù)先訓(xùn)練的θ0可能不適合新FSL任務(wù)的結(jié)構(gòu)。具體來說,該策略在學(xué)習(xí)δ的同時微調(diào)θ0,使要學(xué)習(xí)的模型參數(shù)變?yōu)棣?= {θ0,δ},其中δ為額外的新參數(shù)。
        3.2 Refine Meta-learned θ :Model-Agnostic Meta-Learning (MAML)(模型無關(guān)自適應(yīng))
        該策略是與模型無關(guān)的meta-learning的方法,其核心思想是學(xué)習(xí)模型的初始化參數(shù)使得在一步或幾步迭代后在新任務(wù)上的精度最大化。它學(xué)的不是模型參數(shù)的更新函數(shù)或是規(guī)則,它不局限于參數(shù)的規(guī)模和模型架構(gòu)(比如用RNN或siamese)。本質(zhì)上也是學(xué)習(xí)一個好的特征使得可以適合很多任務(wù)(包括分類、回歸、增強學(xué)習(xí)),并通過fine-tune來獲得好的效果。
        3.3 學(xué)習(xí)搜索步驟(優(yōu)化器學(xué)習(xí)):使用元學(xué)習(xí)提供的搜索步驟/更新參數(shù)的規(guī)則(最佳的梯度下降方向 or 步長)。最終學(xué)會如何在新的分類任務(wù)上,對分類器網(wǎng)絡(luò)(learner)進行初始化和參數(shù)更新。這個優(yōu)化算法同時考慮一個任務(wù)的短時知識和跨多個任務(wù)的長時知識。






        END



        雙一流大學(xué)研究生團隊創(chuàng)建,專注于目標檢測與深度學(xué)習(xí),希望可以將分享變成一種習(xí)慣!

        整理不易,點贊三連↓

        瀏覽 85
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            俺要操逼 | 国产高潮好爽受不了了夜色 | 菠萝内射视频在线 | 操久久精品 | 美国十次AV | 日本三级全黄少妇三2019 | 日韩一级片网址 | 成人影视av| 原神美女强行被羞羞网站 | 国产精品秘 一区二区三区高潮 |