1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        Label Smoothing分析

        共 2179字,需瀏覽 5分鐘

         ·

        2020-12-11 23:50

        作者丨王峰@知乎
        來源丨h(huán)ttps://zhuanlan.zhihu.com/p/302843504
        編輯丨極市平臺
        轉(zhuǎn)自 | 極市平臺

        導(dǎo)讀

        ?

        Label Smoothing在圖像識別中能穩(wěn)定漲點,但在人臉的loss里加上Label Smoothing卻是掉點的,本文作者詳細分析了該方法的問題,Label Smoothing起到的作用實際上是抑制了feature norm,此時只能控制角度,起到反向優(yōu)化的作用,因此在人臉loss上加Label Smoothing效果會變差。?

        有挺多人問過我一個問題:Label Smoothing在圖像識別中能穩(wěn)定漲點,在人臉的loss里加上Label Smoothing是否有用呢?


        我挺早之前就注意到了這件事,當時也做了實驗,發(fā)現(xiàn)直接應(yīng)用在人臉相關(guān)的loss上,是掉點的。其實DL發(fā)展到現(xiàn)在,可以說如果你想到了一個非常簡單的排列組合式idea,而經(jīng)過survey沒見過別人這么做,那大概率這個方法是不work的...


        但這事到這當然不算完,我們得分析一下它為啥不work。


        要引出Label Smoothing,首先我們要知道,Softmax Cross Entropy不僅可以做分類任務(wù)(目標為one-hot label),還可以做回歸任務(wù)(目標為soft label)。設(shè)網(wǎng)絡(luò)輸出的softmax prob為p,soft label為q,那Softmax Cross Entropy定義為:


        而Label Smoothing雖然仍是做分類任務(wù),但其目標q從one-hot label變?yōu)閟oft label了,原來是1的位置變?yōu)??,其他的原來是0的位置變?yōu)??,??通常取0.1。


        假設(shè)一個6分類任務(wù),之前的??就變成了??,直觀上看,這個目標還是很奇怪的,如果一個樣本網(wǎng)絡(luò)非常確認其類別,給了個0.99的置信度,難道經(jīng)過Label Smoothing,還要反向優(yōu)化不成?


        這個問題其實在概率層面上是沒法解釋的,從概率上看,確實會有發(fā)生反向優(yōu)化的情況,但為什么這樣可以漲點呢?


        看看Hinton組對Label Smoothing的分析文章[1],里面有一張圖比較有意思:



        熟悉人臉識別loss的人會發(fā)現(xiàn),這個Label Smoothing得到的特征分布,怎么跟人臉loss的效果這么像?竟然都可以起到讓每個類別的樣本聚攏的效果。


        而少數(shù)細心的朋友可能會發(fā)現(xiàn)這里的玄機:不做Label Smoothing(標注為w/o LS)的feature norm,普遍比做了LS(標注為w/ LS)的要大很多!w/o LS時最大可以達到1.6,而w/ LS時只有0.4。


        回顧之前的文章,減小feature norm實際上等效于降低s,較低的s會使softmax prob的最大值降低,如下圖所示(來自于zhuanlan.zhihu.com/p/52?):

        可以看到,在較低的s的作用下,任何一個點,都不可能達到0.9以上的概率。也就是說,我們之前所擔(dān)心的反向優(yōu)化問題,實際上根本不會發(fā)生!即使優(yōu)化到最好,也只能接近0.9,而到不了1。

        但同時要注意到,Label Smoothing也并不要求p優(yōu)化到1,而是優(yōu)化到0.9即可。Softmax Cross Entropy 的loss曲線其實跟sigmoid類似,越靠近1的時候,loss曲線會越平緩:

        sigmoid曲線

        而在設(shè)置了??后,我們只會用到sigmoid曲線上中間的一段,平緩的區(qū)域基本上不存在了,樣本的移動幾乎永不終止,因此特征會比不加LS更加聚攏。

        但是在人臉識別的loss里,s通常是固定住的,而且會固定在一個比較大的值上(例如32、64),這樣Label Smoothing就無法讓s降低來使最大概率降低,于是反向優(yōu)化在人臉的loss上就成了真的會發(fā)生的事情:p>0.9后,loss會把特征往回拉,直至落在p=0.9附近震蕩。理論上特征會在類中心周圍形成一個環(huán)形的分布(我懶得做實驗了,有興趣的朋友可以做一個看看)。

        總結(jié)一下,Label Smoothing起到的作用實際上是抑制了feature norm,此時softmax prob永遠無法達到設(shè)定的??,loss曲面上不再存在平緩區(qū)域,處處都有較大的梯度指向各個類中心,所以特征會更加聚攏。而之所以人臉上不work,是因為我們通常會使用固定的s,此時Label Smoothing無法控制feature norm,只能控制角度,就會起到反向優(yōu)化的作用,因此在人臉loss上加Label Smoothing效果會變差。

        參考

        When Does Label Smoothing Help??https://arxiv.org/pdf/1906.02629.pdf


        往期精彩:

        【原創(chuàng)首發(fā)】機器學(xué)習(xí)公式推導(dǎo)與代碼實現(xiàn)30講.pdf

        【原創(chuàng)首發(fā)】深度學(xué)習(xí)語義分割理論與實戰(zhàn)指南.pdf

        ?算法工程師研發(fā)技能表

        ?真正想做算法的,不要害怕內(nèi)卷

        ?技術(shù)學(xué)習(xí)不能眼高手低

        ?技術(shù)人要學(xué)會自我營銷

        ?做人不能過擬合

        求個在看

        瀏覽 41
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            美女视频黄网站 | 日韩精品免费一区二区三区竹菊 | 五月天开心激情网_亚欧乱色国产精品 | 好大好爽好舒服 | 亚洲国产精品国自产拍社区 | 国产夫妻做爱视频 | 日本日逼视频 | 少妇口述不同男人过程 | 扒开美女狂揉c了一夜 | 成在线a 秋霞在线观看视频 |