1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        「完美復(fù)刻」的人物肖像畫生成

        共 2100字,需瀏覽 5分鐘

         ·

        2020-11-25 16:07

        點擊上方“Jack Cui”,選擇“設(shè)為星標

        第一時間關(guān)注技術(shù)干貨!



        大家好,我是 Jack 。

        今年提出的 U^2-Net 顯著性檢測算法,刷爆了 reddit 和 twitter,號稱是 2020 年「地表最強」的靜態(tài)背景分割算法,可以看下效果:


        你以為今天要講分割?錯!

        U^2-Net 這兩天又出新活,在 U^2-Net 網(wǎng)絡(luò)架構(gòu)基礎(chǔ)上,實現(xiàn)了人物肖像畫的生成,細節(jié)「完美」復(fù)刻。


        我用自己的「歪脖子照」測試了下效果。


        萬年不變老規(guī)矩,繼續(xù)手把手教學(xué)。

        算法原理、環(huán)境搭建、效果實現(xiàn),一條龍服務(wù),盡在下文!

        1


        U^2-Net

        受 U-Net 網(wǎng)絡(luò)的啟發(fā),U^2-Net 也是一種類似編碼-解碼(Encoder-Decoder)的網(wǎng)絡(luò)結(jié)構(gòu)。

        研究者在此基礎(chǔ)上,提出了新型殘差 U-block(ReSidual U-block, RSU),融合不同尺寸接受野的特征,以捕獲更多不同尺度的上下文信息。

        RSU 網(wǎng)絡(luò)與現(xiàn)有卷積塊的結(jié)構(gòu)對比如下:


        最右邊的結(jié)構(gòu),就是 RSU-L,L 表示編碼器中的層數(shù),C_in、C_out 分別表示輸入和輸出通道,M 表示 RSU 內(nèi)層通道數(shù)。

        具體而言,RSU 主要有三個組成部件,分別是一個輸入卷積層、一個高度為 L 的類 U-Net 對稱編碼器 - 解碼器結(jié)構(gòu)以及一個通過求和來融合局部和多尺度特征的殘差連接。

        為了更好地理解設(shè)計理念,研究者在下圖中對 RSU 與原始殘差塊進行了比較。


        結(jié)果顯示,RSU 與原始殘差塊的最大區(qū)別在于 RSU 通過一個類 U-Net 的結(jié)構(gòu)替換普通單流卷積,并且通過一個由權(quán)重層轉(zhuǎn)換的局部特征替換原始特征。

        更值得注意的是,得益于 U 形結(jié)構(gòu),RSU 的計算開銷相對較少,因為大多數(shù)運算在下采樣特征圖中應(yīng)用。下圖展示了 RSU 與其他特征提取模塊的計算成本曲線圖:


        U^2-Net 的整體網(wǎng)絡(luò)架構(gòu)如下:


        U^2-Net 主要由三部分組成:

        • 6 階段編碼器;

        • 5 階段解碼器;

        • 與解碼器階段和最后編碼器階段相連接的顯著圖融合模塊。


        說完網(wǎng)絡(luò)結(jié)構(gòu),再看下?lián)p失函數(shù),研究者使用了類似于整體嵌套邊緣檢測(HED)的深度監(jiān)督算法:


        其中,M=6, 為 U^2-Net 的 Sup1, Sup2, ..., Sup6 stage。


        為 Sup1, Sup2, ..., Sup6 輸出的顯著圖


        的損失函數(shù)。


        為最終融合輸出的顯著圖


        的損失函數(shù)。


        為每個損失函數(shù)的權(quán)重。

        對于每個 l ,采用標準的二值交叉熵損失函數(shù):


        其中,(r, c) 為像素坐標;(H, W) 為圖像尺寸,height 和 width。


        分別表示 GT 像素值和預(yù)測的顯著概率圖。

        總的來說,U^2-Net 的設(shè)計構(gòu)建了具有豐富多尺度特征以及較低計算和內(nèi)存成本的深度架構(gòu)。

        更詳細的內(nèi)容,可以直接看 paper:
        https://arxiv.org/pdf/2005.09007.pdf

        2


        效果測試

        Github 項目地址:
        https://github.com/NathanUA/U-2-Net

        第一步:搭建測試環(huán)境。

        很簡單,沒啥特殊的庫,安裝好 Pytorch、Numpy、Skimage 等基礎(chǔ)第三方庫即可。

        第二步:下載訓(xùn)練好的模型權(quán)重文件。

        我將程序和權(quán)重文件都進行了打包,嫌麻煩,可以下載直接使用。

        下載地址(提取碼:jack):
        https://pan.baidu.com/s/1SVLDDofEfrA9PGz5WcSP7g

        第三步:在工程目錄,運行程序。

        python u2net_portrait_test.py

        在 u2net_portrait_test.py 可以查看輸入圖片路徑和輸出圖片路徑:


        最后再看下運行效果:


        3


        絮叨

        這個月送了兩波福利,一次發(fā)「521」元紅包,一次送 5 本書。

        上周末,挨個聯(lián)系,紅包和書都已經(jīng)送出,這是其中留言榜紅包群的拼手氣結(jié)果。


        事實證明,拼手氣紅包,最后搶蠻有優(yōu)勢。

        圖書也都聯(lián)系了相應(yīng)的獲獎?wù)?,填寫了郵寄信息,現(xiàn)已發(fā)貨。


        簡單說下我的感受,網(wǎng)絡(luò)上存在一群薅羊毛黨,留言點贊這種形式很容易被鉆空子,花幾毛錢,就可以刷上榜。

        這次送「521」元紅包活動,旨在感謝讀者一直以來的支持,結(jié)果還是被這些人看到了,過來刷贊。

        這都還好,也都可以理解。

        可笑的是,被我發(fā)現(xiàn)刷贊,還有個惱羞成怒的,加好友過來開罵,這我是萬萬沒想到的。

        以后,這類福利還會有,特別是贈書,爭取每個月搞一次。

        這次沒中獎,沒關(guān)系,以后還有很多機會,中不中獎都是次要,能學(xué)到知識才是最重要的。

        我是 Jack ,我們下期見。

        ·················END·················



        推薦閱讀

        ?? ?為藝術(shù)而生的驚艷算法?? ?AI還原乾隆后妃樣貌,延禧攻略眾生相????感謝有你,寫作以來的得與失?? ?偷天換日,逼真的天空置換算法?? ?神奇的 Animal Matting 算法,毛發(fā)摳圖不是事



        瀏覽 23
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            免费麻豆视频 | 无码AV影视| 国产美女操B | 天天干狠狠干 | 亚洲人妻一区二区 | 几把插逼视频 | 亚洲精品一级二级三级 | 纲手被吸乳歪歪漫画 | 操逼逼视频网站 | 羞羞视频男男 |