1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        醫(yī)學圖像分割:UNet++

        共 3011字,需瀏覽 7分鐘

         ·

        2022-03-23 10:45

        點擊上方小白學視覺”,選擇加"星標"或“置頂

        重磅干貨,第一時間送達

        導(dǎo)讀

        使用一系列的網(wǎng)格狀的密集跳躍路徑來提升分割的準確性。

        在這篇文章中,我們將探索UNet++: A Nested U-Net Architecture for Medical Image Segmentation這篇文章,作者是亞利桑那州立大學的Zhou等人。本文是U-Net的延續(xù),我們將把UNet++與Ronneberger等人的U-Net原始文章進行比較。

        UNet++的目標是通過在編碼器和解碼器之間加入Dense block和卷積層來提高分割精度。

        分割的準確性對于醫(yī)學圖像至關(guān)重要,因為邊緣分割錯誤會導(dǎo)致不可靠的結(jié)果,從而被拒絕用于臨床中。

        為醫(yī)學成像設(shè)計的算法必須在數(shù)據(jù)樣本較少的情況下實現(xiàn)高性能和準確性。獲取這些樣本圖像來訓(xùn)練模型可能是一個消耗資源的過程,因為需要由專業(yè)人員審查的高質(zhì)量、未壓縮和精確注釋的圖像。

        UNet++里有什么新東西?
        ?

        下面是UNet++和U-Net架構(gòu)的示意圖。

        UNet++ 在原始的U-Net上加了3個東西:

        1. 重新設(shè)計的跳躍路徑(顯示為綠色)
        2. 密集跳躍連接(顯示為藍色)
        3. 深度監(jiān)督(顯示為紅色)

        重新設(shè)計的跳躍路徑


        在UNet++中,增加了重新設(shè)計的跳躍路徑(綠色顯示),以彌補編碼器和解碼器子路徑之間的語義差別。

        這些卷積層的目的是減少編碼器和解碼器子網(wǎng)絡(luò)的特征映射之間的語義差距。因此,對于優(yōu)化器來說,這可能是一個更直接的優(yōu)化問題。

        U-Net采用跳躍連接,直接連接編碼器和解碼器之間的特征映射,導(dǎo)致把語義上不相似的特征映射相融合。

        然而,在UNet++中,相同dense block的前一個卷積層的輸出與較低層dense block對應(yīng)的上采樣輸出進行融合。這使得已編碼特征的語義級別更接近于等待在解碼器中的特征映射的語義級別,因此,當接收到語義上相似的特征映射時,優(yōu)化更容易。

        跳躍路徑上的所有卷積層使用大小為3×3的核。

        密集跳躍連接

        ?

        在UNet++中,密集跳躍連接(用藍色顯示)實現(xiàn)了編碼器和解碼器之間的跳躍路徑。這些Dense blocks是受到DenseNet的啟發(fā),目的是提高分割精度和改善梯度流。

        密集跳躍連接確保所有先驗特征圖都被累積,并通過每個跳躍路徑上的dense卷積塊而到達當前節(jié)點。這將在多個語義級別生成完整分辨率的特征映射。

        深度監(jiān)督

        ?

        UNet++中增加了深度監(jiān)督(紅色顯示),通過修剪模型來調(diào)整模型的復(fù)雜性,在速度(推理時間)和性能之間實現(xiàn)平衡。

        對于accurate模式,所有分割分支的輸出進行平均。

        對于fast模式,最終的分割圖從分割分支之一選擇。

        Zhou等人進行了實驗,以確定在不同剪枝水平下的最佳分割性能。使用的度量是IoU和推理時間。

        他們試驗了四種分割任務(wù):a)細胞核,b)結(jié)腸息肉,c)肝臟,d)肺結(jié)節(jié)。結(jié)果如下:

        L3與L4相比,平均減少了32.2%的推理時間,同時IoU略微降低了。

        更激進的修剪方法,如L1和L2,可以進一步減少推理時間,但以顯著的分割性能為代價。

        在使用UNet++時,我們可以調(diào)整用例的層數(shù)。

        在UNet++上的實驗

        我使用Drishti-GS數(shù)據(jù)集,這與Ronneberger等人在他們的論文中使用的不同。該數(shù)據(jù)集包含101幅視網(wǎng)膜圖像,以及用于檢測青光眼的光學disc和光學cup的mask標注。青光眼是世界上致盲的主要原因之一。50張圖片用于訓(xùn)練,51張用于驗證。

        度量

        我們需要一組指標來比較不同的模型,這里我們有二元交叉熵,Dice 系數(shù)和IoU。

        二元交叉熵

        二分類的常用度量和損失函數(shù),用于度量誤分類的概率。

        我們將使用PyTorch的binary_cross_entropy_with_logits函數(shù),與Dice系數(shù)一起作為損失函數(shù)對模型進行訓(xùn)練。

        Dice 系數(shù)

        對預(yù)測值和實際值之間重疊的通用的度量。計算方法為 2 × 預(yù)測值與ground truth的重疊面積除以預(yù)測值與ground truth之和的總面積。

        這個度量指標的范圍在0到1之間,其中1表示完全重疊。

        我使用這個度量和二元交叉熵作為訓(xùn)練模型的損失函數(shù)。

        IoU

        一個簡單(但有效!)的度量來計算預(yù)測的mask與ground truth mask的準確性。計算預(yù)測值與ground truth的重疊面積,并除以預(yù)測值與ground truth的并集面積。

        類似于Dice系數(shù),這個度量指標的范圍是從0到1,其中0表示沒有重疊,而1表示預(yù)測與地面真實之間完全重疊。

        訓(xùn)練和結(jié)果

        優(yōu)化這個模型,訓(xùn)練50多個epoch,使用Adam優(yōu)化器,學習率1e-4,學習率衰減率為沒10個epochs乘以0.1, 損失函數(shù)是二元交叉熵和Dice 系數(shù)的組合。

        模型在27分鐘內(nèi)完成了36.6M可訓(xùn)練參數(shù)的訓(xùn)練,每個epoch大約需要32秒。

        表現(xiàn)最好的epoch是第45個epoch(在50個epochs中)。

        • 二元交叉熵:0.2650
        • Dice系數(shù):0.8104
        • IoU:0.8580

        幾個U-Net模型之間的指標進行比較,如下所示。

        測試首先通過模型處理一些沒見過的樣本,來預(yù)測光學disc(紅色)和光學cup(黃色)。這里是UNet++和U-Net的測試結(jié)果對比。

        ![](Biomedical Image Segmentation UNet++.assets/1_jhyAYAhCHizWt2qkGJmkEg.jpeg)

        從指標表來看,UNet++在IoU上超越U-Net,但在Dice系數(shù)上表現(xiàn)較差。從定性測試的結(jié)果來看,UNet++成功地對第一張圖像進行了正確的分割,而U-Net做得并不好。也由于UNet++的復(fù)雜性,訓(xùn)練時間是U-Net的兩倍。必須根據(jù)它們的數(shù)據(jù)集評估每種方法。?

        總結(jié)
        ?

        UNet++的目標是提高分割精度,通過一系列嵌套的,密集的跳躍路徑來實現(xiàn)。重新設(shè)計的跳躍路徑使語義相似的特征映射更容易優(yōu)化。密集的跳躍連接提高了分割精度,改善了梯度流。深度監(jiān)督允許模型復(fù)雜性調(diào)優(yōu),以平衡速度和性能優(yōu)化。

        下載1:OpenCV-Contrib擴展模塊中文版教程
        在「小白學視覺」公眾號后臺回復(fù):擴展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

        下載2:Python視覺實戰(zhàn)項目52講
        小白學視覺公眾號后臺回復(fù):Python視覺實戰(zhàn)項目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內(nèi)容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

        下載3:OpenCV實戰(zhàn)項目20講
        小白學視覺公眾號后臺回復(fù):OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學習進階。

        交流群


        歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~


        瀏覽 33
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            丰满人妻一区二区 | 久久久久久久国产 | 少妇一级淫片免费放播放 | 日日爱爱 | gogo专业大尺度人体国模吧 | 狠狠狠狠狠干 | 国产黄色免费观看 | 一区二区不卡视频 | 外国做爰猛烈床戏 | 免费精品﹣色哟哟 |