1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        淺談分辨率對(duì)模型影響以及訓(xùn)練方法

        共 2869字,需瀏覽 6分鐘

         ·

        2022-01-23 23:11


        ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺(tái)

        作者 | FlyEgle
        來源 | GiantPandaCV?
        編輯 | 極市平臺(tái)

        極市導(dǎo)讀

        ?

        最近幾個(gè)人在討論模型訓(xùn)練的時(shí)候,提到了一個(gè)尺度對(duì)于模型的影響以及訓(xùn)練方法的收益,因此花了點(diǎn)時(shí)間,簡單做了幾組實(shí)驗(yàn),整理一下結(jié)論。>>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺的最前沿

        1 基礎(chǔ)配置

        本文的實(shí)驗(yàn)均是采用固定的配置結(jié)構(gòu)以及同一套code實(shí)現(xiàn),每次實(shí)驗(yàn)只改變分辨率等變量因素,保證實(shí)驗(yàn)合理性。

        代碼實(shí)現(xiàn)可以參考我的這個(gè)【git repo】— ?https://github.com/FlyEgle/imageclassification

        模型:ResNet50

        數(shù)據(jù)集:ImageNet1k-128w

        數(shù)據(jù)增強(qiáng):RandomResizeCrop+RandomFlip

        優(yōu)化器:SGD+momentum

        學(xué)習(xí)率

        學(xué)習(xí)率衰減:cosineLr

        混合精度: yes

        2 實(shí)驗(yàn)

        本次實(shí)驗(yàn)分成Pretrain和Finetune兩大部分,實(shí)驗(yàn)過程和結(jié)果如下:

        2.1 Pretrain

        pretrain這里分成兩組實(shí)驗(yàn)來做,第一組無任何pretrain,第二組用不同的方法load pretrain。

        2.1.1 Training from Sketch

        第一組實(shí)驗(yàn),總計(jì)4次對(duì)比實(shí)驗(yàn),分別實(shí)驗(yàn)在不同的分辨率的情況下R50的表現(xiàn),訓(xùn)練周期均為90個(gè)epoch, warmup 5個(gè)epoch,訓(xùn)練配置保持一致,結(jié)果如下:

        模型分辨率batchsizeacc@top1
        R50224102476.548%
        R50320102477.698%
        R50416102478.026%
        R50448102477.826%

        可以看到,隨著分辨率的增加,模型精度隨之上升,但是在448分辨率的情況下,訓(xùn)練的精度反而沒有416高,說明不加載pretrain的情況下,想要按原始的訓(xùn)練配置來提升精度,在更高的分辨率下收益不會(huì)有太大提升。

        2.1.2 Training from Progressive

        第二組實(shí)驗(yàn),總計(jì)3次對(duì)比實(shí)驗(yàn),分別是更大的分辨率先load小分辨率的權(quán)重后在按相同配置進(jìn)行訓(xùn)練,由于batchsize在1k,所以我沒有舍棄warmup,3.2的配置和3.1的配置是保持一致的,結(jié)果如下:

        模型分辨率batchsizeacc@top1
        R50224->320102478.052%
        R50320->416102478.678%
        R50416->448102478.542%

        可以看到相比第一組實(shí)驗(yàn),相同分辨率下的精度均有提升,而且在448的時(shí)候,沒有顯著的下降。

        為了驗(yàn)證load精度稍微差一點(diǎn)的pretrain是否有提升,做了如下的實(shí)驗(yàn),不同的分辨率訓(xùn)練,但是固定load的pretrain都是224的權(quán)重,結(jié)果如下:

        模型分辨率batchsizeacc@top1
        R50224->320102478.052%
        R50224->416102478.572%
        R50224->448102478.722%

        很驚奇的發(fā)現(xiàn),在448的分辨率下,精度達(dá)到了最高。

        2.2 Finetune

        這里設(shè)計(jì)了兩大組實(shí)驗(yàn),分別考慮了學(xué)習(xí)率縮放和凍結(jié)block。

        2.2.1 Finetune with LR

        前面的實(shí)驗(yàn)因?yàn)槎际亲鰌retrain和from sketch,所以固定了所有的配置,包括LR。這里對(duì)LR縮放做實(shí)驗(yàn),探究finetune對(duì)模型精度的影響??s放原始LR為0.1和0.01倍,去掉warmup,只訓(xùn)練40個(gè)epoch,結(jié)果如下:

        模型分辨率batchsizeLRacc@top1
        R50224->4481024LR*0.178.924%
        R50224->4481024LR*0.0178.736%

        可以看到,不固定任何參數(shù)的時(shí)候,縮放LR,finetune相比pretrain,會(huì)有較大幅度的提升。

        2.2.2 Finetune with Freeze layer

        上一組實(shí)驗(yàn)得到了LR*0.1的時(shí)候效果最好,但是沒有凍結(jié)模型的任何參數(shù),這組實(shí)驗(yàn)做一下上面實(shí)驗(yàn)的補(bǔ)充,R50總計(jì)有4個(gè)layer,以及conv stem和FC。FC是不會(huì)被凍結(jié)的,不然訓(xùn)練個(gè)寂寞了,所以調(diào)整的就是不同的layer的凍結(jié),結(jié)果如下:

        模型分辨率batchsizeLRlayeracc@top1
        R50224->4481024LR*0.1conv stem+layer178.796%
        R50224->4481024LR*0.01conv stem+layer1-278.822%
        R50224->4481024LR*0.01conv stem+layer1-378.05%
        R50224->4481024LR*0.01conv stem+layer1-474.432%

        可以看到,當(dāng)凍結(jié)前兩個(gè)layer的時(shí)候,模型的性能還ok,但是當(dāng)開始凍結(jié)第三個(gè)layer的時(shí)候有明顯的下降,全部凍結(jié)下降的更明顯。

        3 結(jié)論

        • 如果同域數(shù)據(jù),不希望提升模型的參數(shù)量的情況下,想要提升精度,可以考慮pretrain的方法。Finetune的方法雖然精度可以上來,但是bad case有時(shí)候會(huì)跟著權(quán)重繼承過來。

        • 數(shù)據(jù)量多,時(shí)間不夠的情況下可以適當(dāng)freeze前面幾層layer進(jìn)行finetune,淺層特征一般是共性特征,影響精度的還是底層的抽象特征。

        • imagnet的數(shù)據(jù)集是屬于目標(biāo)性的,就是物體很明確的在圖像中表示出來,如果你的任務(wù)是理解性質(zhì)的或者需要隱表征的,那么最好從頭訓(xùn)練(經(jīng)驗(yàn)之談)

        以上實(shí)驗(yàn)結(jié)論僅供參考,不能保證不同數(shù)據(jù)集結(jié)論一致,歡迎交流討論。

        如果覺得有用,就請(qǐng)分享到朋友圈吧!

        △點(diǎn)擊卡片關(guān)注極市平臺(tái),獲取最新CV干貨

        公眾號(hào)后臺(tái)回復(fù)“transformer”獲取最新Transformer綜述論文下載~


        極市干貨
        課程/比賽:珠港澳人工智能算法大賽保姆級(jí)零基礎(chǔ)人工智能教程
        算法trick目標(biāo)檢測比賽中的tricks集錦從39個(gè)kaggle競賽中總結(jié)出來的圖像分割的Tips和Tricks
        技術(shù)綜述:一文弄懂各種loss function工業(yè)圖像異常檢測最新研究總結(jié)(2019-2020)


        #?CV技術(shù)社群邀請(qǐng)函?#

        △長按添加極市小助手
        添加極市小助手微信(ID : cvmart4)

        備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳)


        即可申請(qǐng)加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群


        每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動(dòng)交流~


        覺得有用麻煩給個(gè)在看啦~??


        瀏覽 78
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            无遮挡打光屁屁打屁股视频 | 国产网站在线 | 日韩成人电影在线观看 | 北条麻妃在线一区二区 | 中文字幕Va一区二区三区 | 艹逼电影 | 久久久久久久av麻豆果冻 | 天堂男人在线 | 午夜成人视屏 | 插比视频 |