1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        超實用性:盲噪聲的盲超分辨的非對稱卷積神經(jīng)網(wǎng)絡(luò)

        共 3675字,需瀏覽 8分鐘

         ·

        2021-04-12 00:00

        ↑ 點擊藍字 關(guān)注極市平臺

        作者丨菜鳥青年
        審稿丨鄧富城
        編輯丨極市平臺

        極市導(dǎo)讀

         

        本文介紹一篇提出一種用于盲噪聲的盲超分辨的非對稱卷積神經(jīng)網(wǎng)絡(luò)的工作,該論文打破傳統(tǒng)的一個模型只能處理固定縮放因子的圖像超分辨問題,巧妙地通過一個網(wǎng)絡(luò)訓(xùn)練出用于處理固定縮放因子的圖像超分辨、盲超分辨任務(wù)及盲噪聲的盲超分辨模型。 >>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

        由哈爾濱工業(yè)大學(xué)、國立清華大學(xué)及香港中文大學(xué)的學(xué)者提出了一種用于盲噪聲的盲超分辨的非對稱卷積神經(jīng)網(wǎng)絡(luò),該論文已經(jīng)在AriXv上發(fā)表。該論文打破傳統(tǒng)的一個模型只能處理固定縮放因子的圖像超分辨問題,該文巧妙地通過一個網(wǎng)絡(luò)訓(xùn)練出用于處理固定縮放因子的圖像超分辨、盲超分辨任務(wù)及盲噪聲的盲超分辨模型,這對手機和相機等拍照設(shè)備具有較強的應(yīng)用性。

        論文題目:Asymmetric CNN for image super-resolution

        作者: Chunwei Tian, Yong Xu, Wangmeng Zuo, Chia-Wen Lin and David Zhang

        單位:哈爾濱工業(yè)大學(xué)、國立清華大學(xué)、香港中文大學(xué)

        論文鏈接:https://arxiv.org/pdf/2103.13634.pdf

        論文中給出的代碼鏈接:https://github.com/hellloxiaotian/ACNet

        動機:

        已有圖像超分辨的卷積神經(jīng)網(wǎng)絡(luò)都沒有考慮到局部特征點的作用,而直接通過殘差或者連接操作方法融合不同水平的特征,以提高預(yù)測超分辨圖像的質(zhì)量。但該操作會因信息冗余,導(dǎo)致訓(xùn)練效率減慢。此外,已有圖像超分辨方法大部分都是通過一個縮放因子來訓(xùn)練一個圖像超分辨模型,這與真實世界中收集到無固定尺寸的低分辨率圖像的復(fù)原是相悖的。因此,作者們提出了盲噪聲的盲超分辨的非對稱卷積神經(jīng)網(wǎng)絡(luò)。

        思路:

        ACNet通過由3x1, 1x3和3x3組成的非對稱卷積結(jié)構(gòu)在水平和豎直方向上增強方核卷積作用,突顯局部關(guān)鍵特征對SISR任務(wù)的作用和加快訓(xùn)練效率,如網(wǎng)絡(luò)結(jié)構(gòu)圖的AB塊所示;為了防止ACNet會因網(wǎng)絡(luò)深度加深而導(dǎo)致SR性能下降,ACNet利用殘差學(xué)習(xí)操作集成獲得網(wǎng)絡(luò)層次特征,這不僅強化低頻特征,同時該操作也通過充分考慮深度特征和寬度特征而使獲得低頻特征更魯棒,具體如網(wǎng)絡(luò)結(jié)構(gòu)圖中非對稱塊(AB)所示;為了獲得盲超分辨模型及盲噪聲的盲超分辨模型,一組并行的子像素卷積技術(shù)(上采樣)被用到記憶增強塊(MEB)中,具體如MEB和上采樣結(jié)構(gòu)圖;最好,為了防止上采樣過程中,模型不穩(wěn)定,高頻特征融合增強塊(HFFEB)結(jié)合獲得高頻特征和低頻特征學(xué)習(xí)得到更精準(zhǔn)的超分辨特征,這樣能防止之前操作導(dǎo)致特征過分增強現(xiàn)象。為了全面驗證提出的ACNet在固定縮放因子圖像超分辨、盲圖像超分辨及盲噪聲的盲圖像超分辨上的好性能,本文選擇定量分析和定性分析設(shè)計驗證實驗,具體如下所示:

        1.網(wǎng)絡(luò)結(jié)構(gòu)圖2.上采樣操作

        3.實驗設(shè)置

        為了公平地設(shè)計實驗,本文選擇和2018 ECCV發(fā)表的CARN-M一樣的MSE作為損失函數(shù)及選擇Adam優(yōu)化器共同優(yōu)化參數(shù),其余初試參數(shù)如下:1.beta_1 0.9, beta_2 0.999;2.10-8的epsilon;3.660000步;4.Batch size為16;5.初始學(xué)習(xí)率為10-4,每400000步學(xué)習(xí)率減半。4.不同方法在不同數(shù)據(jù)集的SR結(jié)果 為了更全面證明本文提出方法的性能,這里選擇定量分析和定性分析來驗證ACNet在圖像超分辨上性能。

        定量分析:

        本文首先選擇在四個基準(zhǔn)的超分辨數(shù)據(jù)集(Set5、Set14、B100和U100)上對于不同縮放因子(x2、x3和x4)測試不同方法的PSNR/SSIM。由表TABLE IV-TABLE VII可知,本文提出的ACNet和ACNet-B(盲超分辨模型)在不同數(shù)據(jù)集上對于不同縮放因子都取得具有競爭力的性能。

        (1)不同方法在Set5和Set14數(shù)據(jù)集對于不同縮放因子的PSNR/SSIM值(2)不同方法在B100和U100數(shù)據(jù)集對于不同縮放因子的PSNR/SSIM值其次,考慮到模型復(fù)雜度和恢復(fù)高質(zhì)量圖像的時間是衡量超分辨技術(shù)在數(shù)字設(shè)備上實用性的重要指標(biāo),本文利用選擇包括幾種經(jīng)典的方法(2016 CVPR-VDSR、2017 TIP-DnCNN、2016 CVPR-DRCN、2017 CVPR-DRRCN、 2017 CVPR MemNet和2018 ECCV CARN-M)來作為對比方法來設(shè)計實驗。通過表TABLE VIII中參數(shù)和FLOPS和表TABLE IX可知,本文提出的ACNet在復(fù)雜度和復(fù)原高質(zhì)量圖像的運行速度上與主流方法相比是非常有優(yōu)勢的。

        (3)復(fù)雜度和運行時間接著,為了更全面測試本文提出的ACNet在感知方面也具有優(yōu)勢,本文利用圖像質(zhì)量評估方法FSIM來測試ACNet。由表TABLE X可知,本文提出的ACNet在不同縮放因子下比其他對比方法獲得更好FSIM值,這說明了ACNet在圖像質(zhì)量評估方法取得了更好的性能。(4)圖像質(zhì)量評估最后,為了測試本文提出的ACNet對于恢復(fù)帶有噪聲的低分辨圖像上也是有效的。本文設(shè)計不同數(shù)據(jù)集不同縮放因子條件下利用不同方法處理低頻噪聲的低分辨圖像和高頻高分辨率圖像。從表TABLE XI和TABLE XII中可知,本文提出的ACNet在恢復(fù)低頻15和25的不同縮放因子的低分辨圖像比其他經(jīng)典深度學(xué)習(xí)去噪方法DnCNN和圖像超分辨方法LESRCNN更有效。從表TABLE XIII和TABLE XIV中可知,本文提出的ACNet在恢復(fù)低頻35和50的不同縮放因子的低分辨圖像比其他經(jīng)典深度學(xué)習(xí)去噪方法DnCNN和圖像超分辨方法LESRCNN更有效。其中,ACNet-M是包含盲噪聲的盲超分辨模型。由以上可知,本文提出的ACNet在恢復(fù)低頻噪聲低分辨圖像和高頻噪聲高水平圖像的都具有良好的魯棒性。

        (5)包含低頻噪聲的低分辨圖像復(fù)原結(jié)果

        (6)包含高頻噪聲的低分辨圖像復(fù)原結(jié)果

        定性分析:

        本文選擇在高清圖像、Y通道圖像、錯誤圖像(預(yù)測高質(zhì)量圖像與給出的高質(zhì)量圖像)、邊緣圖像上選擇一個區(qū)域來測試平坦、紋理及恢復(fù)細節(jié)信息好壞等。對于高清圖像、Y通道圖像及邊緣圖像來說,選擇的觀察區(qū)越清晰,代表對應(yīng)的超分辨方法性能越好。對于錯誤圖像來說,細節(jié)信息越少,代表對應(yīng)的超分辨性能越好。從圖3-圖13可知,本文提出的ACNet從不同視角的可視化圖像上均驗證它在圖像超分辨任務(wù)上強的魯棒性。

        (7)獲得高清圖像和Y通道圖像的平坦區(qū)域可視化結(jié)果(8)獲得錯誤圖像和邊緣圖像的平坦區(qū)域可視化結(jié)果

        (9)獲得高清圖像和Y圖像的紋理區(qū)域可視化結(jié)果(10)獲得錯誤圖像和邊緣圖像的紋理區(qū)域可視化結(jié)果(11)獲得高清圖像和Y圖像的細節(jié)信息區(qū)域可視化結(jié)果

        (12)獲得錯誤圖像和邊緣圖像的細節(jié)信息區(qū)域可視化結(jié)果

        結(jié)論:

        作者們從網(wǎng)絡(luò)設(shè)計和功能出發(fā)提出一種實用性的超分辨網(wǎng)絡(luò)。通過非對稱卷積核的作用在不同方向上增強局部關(guān)鍵特征對圖像超分辨的作用。該操作不僅提高了圖像超分辨性能,也加快訓(xùn)練效率。此外,作者們通過并行上采樣技術(shù)使一個模型能解決固定縮放因子的圖像超分辨、盲超分辨、盲噪聲的盲超分辨問題,這使用戶或者開發(fā)者能根據(jù)各自需求,選擇不同功能。

        推薦閱讀


        真正實用的退化模型:ETH開源業(yè)內(nèi)首個廣義盲圖像超分退化模型,性能效果絕佳

        2021-04-01

        刷新視頻超分新記錄28.41dB!同時利用過去和未來隱狀態(tài)的全局視頻超分方案OVSR

        2021-04-04

        傳統(tǒng)圖像處理與深度學(xué)習(xí)又一結(jié)合:時空多尺度非局部自相似集成視頻超分

        2020-11-10



        極市原創(chuàng)作者激勵計劃 #


        極市平臺深耕CV開發(fā)者領(lǐng)域近5年,擁有一大批優(yōu)質(zhì)CV開發(fā)者受眾,覆蓋微信、知乎、B站、微博等多個渠道。通過極市平臺,您的文章的觀點和看法能分享至更多CV開發(fā)者,既能體現(xiàn)文章的價值,又能讓文章在視覺圈內(nèi)得到更大程度上的推廣。

        對于優(yōu)質(zhì)內(nèi)容開發(fā)者,極市可推薦至國內(nèi)優(yōu)秀出版社合作出書,同時為開發(fā)者引薦行業(yè)大牛,組織個人分享交流會,推薦名企就業(yè)機會,打造個人品牌 IP。

        投稿須知:
        1.作者保證投稿作品為自己的原創(chuàng)作品。
        2.極市平臺尊重原作者署名權(quán),并支付相應(yīng)稿費。文章發(fā)布后,版權(quán)仍屬于原作者。
        3.原作者可以將文章發(fā)在其他平臺的個人賬號,但需要在文章頂部標(biāo)明首發(fā)于極市平臺

        投稿方式:
        添加小編微信Fengcall(微信號:fengcall19),備注:姓名-投稿
        △長按添加極市平臺小編

        △點擊卡片關(guān)注極市平臺,獲取最新CV干貨

        覺得有用麻煩給個在看啦~  
        瀏覽 64
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            俺去啦在线视频 | 日本二级黄免费在线观看 | 香蕉视频在线视频 | 国产又爽 又黄 免费网站视频 | 97超碰免费 | 亚洲日本看视频 | 国产成人AV在线 | 五月丁香香蕉 | 扒开美女 视频网站 | 大香蕉艹 |