1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        FCN、Unet、Unet++:醫(yī)學圖像分割網(wǎng)絡一覽

        共 4708字,需瀏覽 10分鐘

         ·

        2022-04-29 16:37

        計算機視覺|自然語言處理|機器學習|深度學習

        編者薦語

        ?

        文章首先厘清了語義分割、實例分割和全景分割等定義的區(qū)別。在此基礎上,進一步分析了FCN、Unet、Unet++等算法在醫(yī)學圖像上的適用情況。

        作者丨Error@知乎

        地址丨h(huán)ttps://zhuanlan.zhihu.com/p/159173338


        先上目錄:


        1. 相關知識點解釋
        2. FCN 網(wǎng)絡算法的理解
        3. Unet 網(wǎng)絡算法的理解
        4. Unet++ 網(wǎng)絡算法的理解
        5. Unet+++ 網(wǎng)絡算法的理解
        6. DeepLab v3+ 算法簡閱
        7. Unet在醫(yī)學圖像上的適用與CNN分割算法的簡要總結


        一、相關知識點解釋


        1、圖像分割中幾種定義的區(qū)別

        語義分割(Semantic Segmentation):就是對一張圖像上的所有像素點進行分類。(eg: FCN/Unet/Unet++/...)

        實例分割(Instance Segmentation):可以理解為目標檢測語義分割的結合。(eg: Mask R-CNN/...)相對目標檢測的邊界框,實例分割可精確到物體的邊緣;相對語義分割,實例分割需要標注出圖上同一物體的不同個體。

        全景分割(Panoptic Segmentation):可以理解為語義分割實例分割的結合。實例分割只對圖像中的object進行檢測,并對檢測到的object進行分割;全景分割是對圖中的所有物體包括背景都要進行檢測和分割。

        圖像分類:圖像中的氣球是一個類別。[1]
        語義分割:分割出氣球和背景。
        目標檢測:圖像中有7個目標氣球,并且檢測出每個氣球的坐標位置。
        實例分割:圖像中有7個不同的氣球,在像素層面給出屬于每個氣球的像素。

        2. CNN特征學習的優(yōu)勢

        高分辨率特征(較淺的卷積層)感知域較小,有利于feature map和原圖進行對齊的,也就是我說的可以提供更多的位置信息。
        低分辨率信息(深層的卷積層)由于感知域較大,能夠學習到更加抽象一些的特征,可以提供更多的上下文信息,即強語義信息,這有利于像素的精確分類。

        3. 上采樣(意義在于將小尺寸的高維度feature map恢復回去)

        上采樣(upsampling)一般包括2種方式:

        Resize,如雙線性插值直接對圖像進行縮放(這種方法在原文中提到)
        Deconvolution(反卷積)[2],也叫Transposed Convolution(轉置卷積),可以理解為卷積的逆向操作。

        4. 醫(yī)學影像語義分割的幾個評估指標[3]

        1)Jaccard(IoU)

        用于比較有限樣本集之間的相似性與差異性。Jaccard值越大,樣本相似度越高。

        關于對TP、FP、TN、FN的理解,可參考我的另一篇目標檢測中mAP計算的博文:https://zhuanlan.zhihu.com/p/139073511

        2)Dice相似系數(shù)

        一種集合相似度度量指標,通常用于計算兩個樣本的相似度,值的范圍0~1 ,分割結果最好時值為1 ,最差時值為0 。Dice相似系數(shù)對mask的內部填充比較敏感。

        3)Hausdorff 距離(豪斯多夫距離

        描述兩組點集之間相似程度的一種量度,對分割出的邊界比較敏感。

        4)F1-score

        用來衡量二分類模型精確度的一種指標,同時考慮到分類模型的準確率和召回率,可看做是準確率和召回率的一種加權平均



        二、FCN網(wǎng)絡的理解


        FCN將一般的經(jīng)典的分類網(wǎng)絡模型(VGG16...)的最后一層的FC層(全連接)換成卷積,這樣可以通過二維的特征圖,后接softmax獲得每個像素點的分類信息,從而解決了分割問題。

        核心思想:
        - 不含全連接層(fc)的全卷積(fully conv)網(wǎng)絡??蛇m應任意尺寸輸入。
        - 增大數(shù)據(jù)尺寸的反卷積(deconv)層。能夠輸出精細的結果。
        - 結合不同深度層結果的跳級(skip)結構。同時確保魯棒性和精確性。

        FCN結構示意圖

        對于FCN-32s,直接對pool5 feature進行32倍上采樣獲得32x upsampled feature,再對32x upsampled feature每個點做softmax prediction獲得32x upsampled feature prediction(即分割圖)。

        對于FCN-16s,首先對pool5 feature進行2倍上采樣獲得2x upsampled feature,再把pool4 feature和2x upsampled feature逐點相加,然后對相加的feature進行16倍上采樣,并softmax prediction,獲得16x upsampled feature prediction。

        對于FCN-8s,首先進行pool4+2x upsampled feature逐點相加,然后又進行pool3+2x upsampled逐點相加,即進行更多次特征融合。

        FCN缺點:

        結果不夠精細。進行8倍上采樣雖然比32倍的效果好了很多,但是上采樣的結果還是比較模糊和平滑,對圖像中的細節(jié)不敏感。

        對各個像素進行分類,沒有充分考慮像素與像素之間的關系。忽略了在通常的基于像素分類的分割方法中使用的空間規(guī)整(spatial regularization)步驟,缺乏空間一致性。

        FCN論文地址:https://arxiv.org/abs/1411.4038


        三、U-net網(wǎng)絡的理解


        Unet網(wǎng)絡結構圖

        整個U-Net網(wǎng)絡結構類似于一個大型的字母U,與FCN都是很小的分割網(wǎng)絡,既沒有使用空洞卷積,也沒有后接CRF,結構簡單。

        1. 首先進行Conv+Pooling下采樣;
        2. 然后反卷積進行上采樣,crop之前的低層feature map,進行融合;
        3. 再次上采樣。
        4. 重復這個過程,直到獲得輸出388x388x2的feature map,
        5. 最后經(jīng)過softmax獲得output segment map??傮w來說與FCN思路非常類似。

        UNet的encoder下采樣4次,一共下采樣16倍,對稱地,其decoder也相應上采樣4次,將encoder得到的高級語義特征圖恢復到原圖片的分辨率。

        它采用了與FCN不同的特征融合方式:

        1. FCN采用的是逐點相加,對應tensorflow的tf.add()函數(shù)
        2. U-Net采用的是channel維度拼接融合,對應tensorflow的tf.concat()函數(shù)

        Unet論文地址:https://arxiv.org/pdf/1505.04597.pdf


        四、Unet++網(wǎng)絡的理解 [4]


        文章對Unet改進的點主要是skip connection,作者認為skip connection 直接將unet中encoder的淺層特征與decoder的深層特征結合是不妥當?shù)模瑫a(chǎn)生semantic gap。

        文中假設:當所結合的淺層特征與深層特征是semantically similar時,網(wǎng)絡的優(yōu)化問題就會更簡單,因此文章對skip connection的改進就是想bridge/reduce 這個semantic gap。

        附Unet++論文地址:https://arxiv.org/pdf/1807.10165.pdf

        代碼地址:https://github.com/MrGiovanni/UNetPlusPlus


        五、Unet+++算法的理解?[5]


        為了彌補UNet和UNet++的缺陷,UNet 3+中的每一個解碼器層都融合了來自編碼器中的小尺度和同尺度的特征圖,以及來自解碼器的大尺度的特征圖,這些特征圖捕獲了全尺度下的細粒度語義和粗粒度語義。

        附U-net+++論文地址:https://arxiv.org/abs/2004.08790


        六、DeepLab v3+算法簡閱?[6]


        DeepLab v3+結構圖

        Encoder部分

        Encoder就是原來的DeepLabv3,
        需要注意點:
        1. 輸入尺寸與輸出尺寸比(output stride = 16),最后一個stage的膨脹率rate為2
        2. Atrous Spatial Pyramid Pooling module(ASPP)有四個不同的rate,額外一個全局平均池化

        Decoder部分

        先把encoder的結果上采樣4倍,然后與resnet中下采樣前的Conv2特征concat一起,再進行3x3的卷積,最后上采樣4倍得到最終結果。
        需要注意點:融合低層次信息前,先進行1x1的卷積,目的是降通道(例如有512個通道,而encoder結果只有256個通道)

        DeepLab v3+論文地址:https://arxiv.org/pdf/1802.02611.pdf


        七、Unet在醫(yī)學圖像上的適用與CNN分割算法的簡要總結


        1.?Unet結構特點
        UNet相比于FCN和Deeplab等,共進行了4次上采樣,并在同一個stage使用了skip connection,而不是直接在高級語義特征上進行監(jiān)督和loss反傳,這樣就保證了最后恢復出來的特征圖融合了更多的low-level的feature,也使得不同scale的feature得到了的融合,從而可以進行多尺度預測和DeepSupervision。4次上采樣也使得分割圖恢復邊緣等信息更加精細。

        2. 為什么適用于醫(yī)學圖像?[7]

        1. 因為醫(yī)學圖像邊界模糊、梯度復雜,需要較多的高分辨率信息。高分辨率用于精準分割。
        2. 人體內部結構相對固定,分割目標在人體圖像中的分布很具有規(guī)律,語義簡單明確,低分辨率信息能夠提供這一信息,用于目標物體的識別。
        UNet結合了低分辨率信息(提供物體類別識別依據(jù))和高分辨率信息(提供精準分割定位依據(jù)),完美適用于醫(yī)學圖像分割。

        3. 分割算法改進總結:

        1. 下采樣+上采樣:Convlution + Deconvlution/Resize
        2. 多尺度特征融合:特征逐點相加/特征channel維度拼接
        3. 獲得像素級別的segement map:對每一個像素點進行判斷類別


        參考


        1.實例分割理解?https://blog.csdn.net/tony2278/article/details/90028747?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase
        2.可以參考一下卷積運算的幾種操作?https://blog.csdn.net/attitude_yu/article/details/84697181
        https://zhuanlan.zhihu.com/p/117435908?from_voters_page=true
        周縱葦?shù)难辛昒net?https://zhuanlan.zhihu.com/p/44958351
        UNet3+(UNet+++)論文解讀?https://zhuanlan.zhihu.com/p/136164721
        3.DeepLab系列理解?https://www.jianshu.com/p/755b001bfe38
        Unet神經(jīng)網(wǎng)絡為什么會在醫(yī)學圖像分割表現(xiàn)好?https://www.zhihu.com/question/269914775

        本文僅做學術分享,如有侵權,請聯(lián)系刪文。


        —THE END—

        分享

        收藏

        點贊

        在看

        瀏覽 80
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            中文字幕免费一区 | 木下凛凛子亚洲一区二区 | 爽好大快深点黄瓜视频动漫 | 国产精品久久久久久久久久大尺度 | 大奶久久| 国产中文字幕在线观看 | 丰满少妇理论片在线观看 | 日韩免费一区二区在线观看 | 俺来也免费观看视频 | 日韩免费黄片 |