1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        Label Smoothing分析

        共 2446字,需瀏覽 5分鐘

         ·

        2020-12-07 18:27

        ↑ 點擊藍字?關(guān)注極市平臺

        作者丨王峰@知乎
        來源丨h(huán)ttps://zhuanlan.zhihu.com/p/302843504
        編輯丨極市平臺

        極市導(dǎo)讀

        ?

        Label Smoothing在圖像識別中能穩(wěn)定漲點,但在人臉的loss里加上Label Smoothing卻是掉點的,本文作者詳細分析了該方法的問題,Label Smoothing起到的作用實際上是抑制了feature norm,此時只能控制角度,起到反向優(yōu)化的作用,因此在人臉loss上加Label Smoothing效果會變差。?>>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

        有挺多人問過我一個問題:Label Smoothing在圖像識別中能穩(wěn)定漲點,在人臉的loss里加上Label Smoothing是否有用呢?


        我挺早之前就注意到了這件事,當(dāng)時也做了實驗,發(fā)現(xiàn)直接應(yīng)用在人臉相關(guān)的loss上,是掉點的。其實DL發(fā)展到現(xiàn)在,可以說如果你想到了一個非常簡單的排列組合式idea,而經(jīng)過survey沒見過別人這么做,那大概率這個方法是不work的...


        但這事到這當(dāng)然不算完,我們得分析一下它為啥不work。


        要引出Label Smoothing,首先我們要知道,Softmax Cross Entropy不僅可以做分類任務(wù)(目標(biāo)為one-hot label),還可以做回歸任務(wù)(目標(biāo)為soft label)。設(shè)網(wǎng)絡(luò)輸出的softmax prob為p,soft label為q,那Softmax Cross Entropy定義為:


        而Label Smoothing雖然仍是做分類任務(wù),但其目標(biāo)q從one-hot label變?yōu)閟oft label了,原來是1的位置變?yōu)??,其他的原來是0的位置變?yōu)??,??通常取0.1。


        假設(shè)一個6分類任務(wù),之前的??就變成了??,直觀上看,這個目標(biāo)還是很奇怪的,如果一個樣本網(wǎng)絡(luò)非常確認其類別,給了個0.99的置信度,難道經(jīng)過Label Smoothing,還要反向優(yōu)化不成?


        這個問題其實在概率層面上是沒法解釋的,從概率上看,確實會有發(fā)生反向優(yōu)化的情況,但為什么這樣可以漲點呢?


        看看Hinton組對Label Smoothing的分析文章[1],里面有一張圖比較有意思:



        熟悉人臉識別loss的人會發(fā)現(xiàn),這個Label Smoothing得到的特征分布,怎么跟人臉loss的效果這么像?竟然都可以起到讓每個類別的樣本聚攏的效果。


        而少數(shù)細心的朋友可能會發(fā)現(xiàn)這里的玄機:不做Label Smoothing(標(biāo)注為w/o LS)的feature norm,普遍比做了LS(標(biāo)注為w/ LS)的要大很多!w/o LS時最大可以達到1.6,而w/ LS時只有0.4。


        回顧之前的文章,減小feature norm實際上等效于降低s,較低的s會使softmax prob的最大值降低,如下圖所示(來自于zhuanlan.zhihu.com/p/52?):

        可以看到,在較低的s的作用下,任何一個點,都不可能達到0.9以上的概率。也就是說,我們之前所擔(dān)心的反向優(yōu)化問題,實際上根本不會發(fā)生!即使優(yōu)化到最好,也只能接近0.9,而到不了1。

        但同時要注意到,Label Smoothing也并不要求p優(yōu)化到1,而是優(yōu)化到0.9即可。Softmax Cross Entropy 的loss曲線其實跟sigmoid類似,越靠近1的時候,loss曲線會越平緩:

        sigmoid曲線

        而在設(shè)置了??后,我們只會用到sigmoid曲線上中間的一段,平緩的區(qū)域基本上不存在了,樣本的移動幾乎永不終止,因此特征會比不加LS更加聚攏。

        但是在人臉識別的loss里,s通常是固定住的,而且會固定在一個比較大的值上(例如32、64),這樣Label Smoothing就無法讓s降低來使最大概率降低,于是反向優(yōu)化在人臉的loss上就成了真的會發(fā)生的事情:p>0.9后,loss會把特征往回拉,直至落在p=0.9附近震蕩。理論上特征會在類中心周圍形成一個環(huán)形的分布(我懶得做實驗了,有興趣的朋友可以做一個看看)。

        總結(jié)一下,Label Smoothing起到的作用實際上是抑制了feature norm,此時softmax prob永遠無法達到設(shè)定的??,loss曲面上不再存在平緩區(qū)域,處處都有較大的梯度指向各個類中心,所以特征會更加聚攏。而之所以人臉上不work,是因為我們通常會使用固定的s,此時Label Smoothing無法控制feature norm,只能控制角度,就會起到反向優(yōu)化的作用,因此在人臉loss上加Label Smoothing效果會變差。

        參考

        When Does Label Smoothing Help??https://arxiv.org/pdf/1906.02629.pdf


        推薦閱讀




          添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳),即可申請加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動駕駛/超分辨率/姿態(tài)估計/ReID/GAN/圖像增強/OCR/視頻理解等技術(shù)交流群:每月大咖直播分享、真實項目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動交流~

          △長按添加極市小助手

          △長按關(guān)注極市平臺,獲取最新CV干貨

          覺得有用麻煩給個在看啦~??
          瀏覽 53
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          1. <strong id="7actg"></strong>
          2. <table id="7actg"></table>

          3. <address id="7actg"></address>
            <address id="7actg"></address>
            1. <object id="7actg"><tt id="7actg"></tt></object>
              久久精品天堂 | 擦逼视频| 亚洲视频无码字幕在线看 | 绯色av一区二区三区在线观看 | 国产美女精品精品喷水免费观看 | 美女羞羞视频在线观看 | 啊灬啊灬啊灬快灬深用力游戏 | 人人爽人人好逼网 | 蜜乳网站 | 国产视频一区二区 |