1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        語義分割入門的總結

        共 3463字,需瀏覽 7分鐘

         ·

        2022-02-22 12:34


        點擊上方小白學視覺”,選擇加"星標"或“置頂

        重磅干貨,第一時間送達

        作者:Yanpeng Sun

        https://zhuanlan.zhihu.com/p/74318967

        聲明:僅做學術分享,侵刪

        語義分割


        目的:給定一張圖像,我們要對這張圖像上的每個pixel逐一進行分類,結果展示如下圖:



        上圖中的實例分割是語義分割的延伸,要區(qū)別出相同類別的不同個體。

        應用場景:無人駕駛、輔助醫(yī)療等。


        語義分割方法發(fā)展過程:


        1.灰度分割(Gray Level Segmentation)

        語義分割的最簡單形式是對一個區(qū)域設定必須滿足的硬編碼規(guī)則或屬性,進而指定特定類別標簽. 編碼規(guī)則可以根據像素的屬性來構建,如灰度級強度(gray level intensity). 基于該技術的一種分割方法是 Split and Merge 算法. 該算法是通過遞歸地將圖像分割為子區(qū)域,直到可以分配標簽;然后再合并具有相同標簽的相鄰子區(qū)域。

        這種方法的問題是規(guī)則必須是硬編碼的. 而且,僅使用灰度級信息是很難表示比如人類等復雜類別的. 因此,需要特征提取和優(yōu)化技術來正確地學習復雜類別的特征表示。

        2.條件隨機場(Conditional Random Fields)

        CRFs 是一類用于結構化預測的統(tǒng)計建模方法. 不同于分類算法,CRFs 在進行預測前,會考慮像素的鄰近信息(neighboring context),如像素間的關系. 這使得 CRFs 成為語義分割的理想候選者. 這里介紹下 CRFs 在語義分割中的應用.

        圖像中的每個像素都是與有限的可能狀態(tài)集相關. 在語義分割中,target 類別標簽就是可能狀態(tài)集. 將一個狀態(tài)(或,label u) 分配給的單個像素 x 的成本(cost) 被稱為一元成本(unary cost). 為了對像素間的關系進行建模, 還進一步考慮將一對標簽(labels (u, v)) 分配給一對像素 (x, y),其被成為成對成本(pairwise cost). 可以采用直接相鄰的像素對作為像素對(Grid CRF);也可以采用圖像中所有的像素構建像素對(Denser CRF)。

        圖像中所有 unary cost 和 pairwise cost 的相加和作為 CRF 的能量函數(或損失函數,loss). 求解最小化即可得到較好的分割輸出。

        深度學習極大地簡化了語義分割的流程(pipeline),并得到了較高質量的分割結果

        3.FCN

        FCN方法的提出成功的將深度學習方法成功的引入到了語義分割領域,由于要預測的圖像是一個二維的表示,因此提出了全卷積網絡用來抽取圖像中的特征,將得到的高級語義特征上采樣到指定的維度,從而得到了最終的預測結果,從而自然的形成了Encoder-Decoder框架,這也成為了語義分割領域中通用框架之一。

        具體的模型圖如下:

        由于在Encoder中獲取到圖像的高級語義,但是其并不是最終分割的結果,因此作者采用轉置卷積的方法將該高級特征上采樣到指定的維度,從而得到最終的分割結果。由于直接上采樣之后的結果并不好,因此在改論文中引入了跳躍模型就是將不同卷積層下獲取到的特征相融合,從而改善模型的效果,其具體結構如下所示:

        4.U-NET, SegNet 等

        為了改善FCN中的弊端,隨后提出了很多模型最經典的是U-Net,SegNet,但是他們的本質上并沒有改變Encoder-Decoder模型的架構。

        5.DeepLab系列

        DeepLab的出現帶來了一個新的方法就是擴展卷積(空洞卷積)方法,卷積層引入了一個稱為 “擴張率(dilation rate)”的新參數,該參數定義了卷積核處理數據時各值的間距。其目的是為了擴大模型的感受野,使其能夠感受到更大范圍下的特征信息。具體的體現如下所示:


        擴展卷積方法的提出讓人們可以去除Encoder-Decoder框架的限制。隨后deeplab算法的改進也提出了例如多尺度學習的通則紅描述方法(ASPP等)

        6.NOW

        面對監(jiān)督式方法---最近的方法大家更注重于實時的語義分割任務,也就是輕量級的語義分割網絡的設計。當然還有一些其他的方法,例如針對不同的領域設計不同的語義分割網絡、改進上采樣方法等。

        面對弱監(jiān)督方法---目前出現了很多弱監(jiān)督方法,就是通過學習圖像分類的數據集(image-level tag)中的信息,來完成語義分割這種密度預測的任務。當然還有使用框架注釋來標注數據(bounding-boxes tag)的。


        語義分割領域中困難的地方:

        1、數據問題:分割不像檢測等任務,只需要標注一個類別就可以拿來使用,分割需要精確的像素級標注,包括每一個目標的輪廓等信息,因此使得制作數據集成本過高;

        2、計算資源問題:現在想要得到較高的精度的語義分割模型就需要使用類似于ResNet101等深網絡。同時,分割預測了每一個像素,這就要求feature map的分辨率盡可能的高,這都說明了計算資源的問題,雖然也有一些輕量級的網絡,但精度還是太低了;

        3、精細分割:目前的方法中對于圖像中的大體積的東西能夠很好的分類,但是對于細小的類別,由于其輪廓太小,從而無法精確的定位輪廓,造成精度較低;

        4、上下文信息:分割中上下文信息很重要,否則會造成一個目標被分成多個part,或者不同類別目標分類成相同類別;

        評價指標:

        1、執(zhí)行時間:速度或運行時間是一個非常有價值的度量,因為大多數系統(tǒng)需要保證推理時間可以滿足硬實時的需求。然而在通常的實驗中其影響是很不明顯的,并且該指標非常依賴硬件設備及后臺實現,致使一些比較是無用的。

        2、內存占用:在運行時間相同的情況下,記錄系統(tǒng)運行狀態(tài)下內存占用的極值和均值是及其有價值的。

        3、精確度:這里指的是逐像素標記的精度測量,假設共有k個類(從l0到lk其中有一個類別是屬于背景的。),Pij表示本屬于i類但是被預測為j類的像素個數,Pii表示為真正分對類的數量,而Pij與Pji分別被稱為假正樣本和假負樣本。

        1)Pixel Accuracy(PA,像素精度):標記正確的像素占總像素的比例

        2)Mean Pixel Accuracy(MPA,平均像素精度):計算每個類內被正確分類像素數比例,之后求所有類的平均數。

        3)Mean Intersection over Union(MIoU,均交并比):為語義分割的標準度量,其計算兩個集合的交集和并集之比,這兩個集合分別為ground truth 與predicted segmentation,在每個類上計算IoU,之后將其求平均。

        -----IoU即真正樣本數量/(真正樣本數量+假正樣本數量+假負樣本數量)

        4)Frequency weighted Intersection over Union(FWIoU,頻權交并):是MIoU的一種提升,這種方法根據每個類出現的頻率為期設置權重。

        下載1:OpenCV-Contrib擴展模塊中文版教程
        在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內容。

        下載2:Python視覺實戰(zhàn)項目52講
        小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數、添加眼線、車牌識別、字符識別、情緒檢測、文本內容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

        下載3:OpenCV實戰(zhàn)項目20講
        小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現20個實戰(zhàn)項目,實現OpenCV學習進階。


        交流群


        歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~


        瀏覽 41
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            美女色逼 | 和秘书出差野战10p | 五月激情丁香网 | 日本a免费 | 黄污免费网站 | 勉费操逼视频 | 亚洲AV无码成人精品区国产 | 2021色欲| 国精产品一区二区三区mba | 男男黄色小说 |