1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        頭發(fā)合成:手繪草圖妙變逼真秀發(fā)

        共 3160字,需瀏覽 7分鐘

         ·

        2021-09-27 00:26


        點擊上方機(jī)器學(xué)習(xí)與生成對抗網(wǎng)絡(luò)”,關(guān)注星標(biāo)

        獲取有趣、好玩的前沿干貨!




          新智元報道  

        來源:新智元  arXiv 編輯:貝殼

        【新智元導(dǎo)讀】你見過手繪草圖秒變逼真秀發(fā)嗎?香港城市大學(xué)提出的新網(wǎng)絡(luò)SketchHairSalon就可以,不但頭發(fā)結(jié)構(gòu)外觀真假難辨,而且細(xì)節(jié)也清晰無比,只是通過簡單寥寥幾筆素描,想擁有什么樣的發(fā)型都不在話下。


        現(xiàn)有的解決方案通常需要用戶提供的二進(jìn)制掩碼來指定目標(biāo)發(fā)型。這不僅會增加用戶的勞動成本,而且也無法捕捉復(fù)雜的頭發(fā)邊界。這些解決方案通常通過方向圖編碼頭發(fā)結(jié)構(gòu),然而,這對編碼復(fù)雜結(jié)構(gòu)并不是很有效。


        其實,彩色頭發(fā)草圖已經(jīng)含蓄地定義了目標(biāo)頭發(fā)形狀和頭發(fā)外觀,比方向圖更靈活地描述頭發(fā)結(jié)構(gòu)?;谶@些觀察,香港城市大學(xué)提出了SketchHairSalon,一個兩階段框架,直接從手繪草圖生成真實的頭發(fā)圖像,描繪所需的頭發(fā)結(jié)構(gòu)和外觀。


        并且還提供了設(shè)計界面,如下圖所示,包括Hair Structure Specification(頭發(fā)結(jié)構(gòu)定制)、Hair Shape Refinement(頭發(fā)形狀優(yōu)化)、Hair Appearance Specification(頭發(fā)的外觀定制)、Sketch Auto-completion(自動完成草圖)等功能。



        設(shè)計思想


        為了解決現(xiàn)有算法存在的問題,作者觀察到頭發(fā)草圖本身包含了足夠的信息來描述局部和整體層面上所需發(fā)型的結(jié)構(gòu)、外觀和形狀。例如,對于一個波浪發(fā)型,一筆可以代表一個局部和連貫的頭發(fā)束,而兩筆可以用來形成一個t型結(jié)。彩色的筆畫能夠表明頭發(fā)圖像的局部外觀。


        此外,描繪發(fā)型結(jié)構(gòu)的草圖已經(jīng)含蓄地定義了頭發(fā)區(qū)域的整體形狀,最好是沿著毛發(fā)區(qū)域的邊界自動推斷局部和柔軟的細(xì)節(jié),因為這些細(xì)節(jié)很難由用戶指定,而且耗時。在這種情況下,由于支持軟邊界,毛發(fā)啞光比二進(jìn)制掩模更適合描述毛發(fā)區(qū)域。


        基于以上關(guān)鍵觀察,作者提出了SketchHairSalon,一個新穎的深度生成框架,直接從一組彩色筆畫合成真實的頭發(fā)圖像。它包括兩個關(guān)鍵階段:素描到亞光生成和素描到圖像生成。


        第一階段側(cè)重于從輸入的頭發(fā)草圖生成頭發(fā)啞光,以減少草圖到頭發(fā)生成的模糊性。用戶可以選擇輸入非毛發(fā)筆畫,這些筆畫被用作額外的條件來指導(dǎo)啞光的生成。


        第二階段根據(jù)給定輸入草圖和生成的頭發(fā)啞光,設(shè)法合成一個逼真的頭發(fā)圖像。同時將自我注意模塊應(yīng)用到這兩個階段的網(wǎng)絡(luò)中,以學(xué)習(xí)更多的對應(yīng)關(guān)系。


        為了訓(xùn)練這兩個階段的網(wǎng)絡(luò),作者還提出了一個新的頭發(fā)草圖-圖像數(shù)據(jù)集,其中包含了數(shù)以千計的頭發(fā)圖像和相應(yīng)的手工注釋的頭發(fā)草圖,以描述底層的頭發(fā)結(jié)構(gòu)。每個頭發(fā)圖像也與自動生成的頭發(fā)啞光相關(guān)聯(lián)。


        網(wǎng)絡(luò)架構(gòu)


        該網(wǎng)絡(luò)框架由兩個主要網(wǎng)絡(luò)組成:

        • 素描到亞光網(wǎng)絡(luò)(簡稱S2M-Net)

        • 素描到圖像網(wǎng)絡(luò)(簡稱S2I-Net)



        素描到亞光網(wǎng)絡(luò)(S2M-Net)


        S2M-Net以素描圖????????????????????????Sm∈R512×512×1作為輸入,其中包含頭發(fā)和非頭發(fā)的筆畫,其中有色筆畫設(shè)置為一種顏色(例如,藍(lán)色),非筆畫設(shè)置為黑色(如圖4 (d)所示),即可輸出頭發(fā)啞光M??'∈512×512×1(圖4(a))。


        為了準(zhǔn)備用于訓(xùn)練S2M-Net的數(shù)據(jù)集,首先通過距離圖從GroundTruth真實的頭發(fā)遮光物中提取頭發(fā)輪廓(圖4 (b))。頭發(fā)的輪廓從頭發(fā)區(qū)域被稍微推開(從3到8像素隨機(jī)設(shè)置)。


        然后,通過隨機(jī)擦除大部分頭發(fā)輪廓推導(dǎo)出非頭發(fā)筆畫,以平衡訓(xùn)練中非頭發(fā)筆畫和頭發(fā)筆畫的密度。描邊寬度隨機(jī)設(shè)置為3到15像素,以定義非毛發(fā)區(qū)域的大小,避免過擬合。


        最后,將非毛發(fā)筆畫和毛發(fā)筆畫在草圖中融合在一起,表示為????(如圖4 (d)所示),然后送入S2M-Net。


        另外,該部分網(wǎng)路采用了帶有自注意模塊的編碼器-解碼器生成器,在解碼器的前三層中,在每個反卷積層之后重復(fù)應(yīng)用三個自注意模塊,以關(guān)注全局和高層翻譯。


        考慮到自注意力計算隨著特征圖空間尺寸的增大呈指數(shù)級增長,所以就沒有在后一層插入任何自注意模塊。


        素描到圖像網(wǎng)絡(luò)(簡稱S2I-Net)


        在S2M-Net之后,我們得到了一個合成的頭發(fā)掩模M??’,明確了目標(biāo)頭發(fā)的形狀。如圖5(下)所示,S2I-Net與S2M-Net類似,關(guān)鍵的區(qū)別在于它包含了背景混合模塊,同上面這個網(wǎng)絡(luò)不同,這里采用彩色草圖來代表頭發(fā)結(jié)構(gòu)和外觀。


        背景區(qū)域????在頭發(fā)啞光??'的引導(dǎo)下,在特征層上與合成頭發(fā)區(qū)域混合,表示為:



        背景輸入是通過用高斯噪聲替換原始圖像的毛發(fā)區(qū)域得到的。在S2I-Net的主分支,只在最后四層混合背景區(qū)域。


        • 草圖自動補(bǔ)全


        由于大多數(shù)發(fā)型都有簡單但較大的區(qū)域,具有相似的局部結(jié)構(gòu),需要用重復(fù)的頭發(fā)筆畫填充,以減少S2I-Net的模糊性。在設(shè)計發(fā)型時,要求用戶畫一套完整的頭發(fā)線條是很乏味的。為了減少用戶的工作量,作者提出了兩種給定稀疏筆畫的編發(fā)和非編發(fā)草圖自動補(bǔ)全方法。


        • 編織發(fā)型


        (a)生成的三股編織模型(右)在用戶指定的粗邊界線(左側(cè)藍(lán)色筆畫)指導(dǎo)下,由三條中心線(中)展開。(b)將??分別設(shè)為1.5、1、0.5,以改變(a)中3股模型(??=?1)的結(jié)數(shù)和結(jié)向。

        • 解開發(fā)型



        給定輸入的草圖(a),medial-axis提取算法從(a)-(b)中提取額外的筆畫(c)。(d)是完成的草圖,其中藍(lán)色筆畫和綠色筆畫分別是用戶指定的和自動生成的筆畫。


        性能評估


        • 頭發(fā)啞光質(zhì)量



        除(a)和(d)外,頂部一行為未設(shè)置自注意模塊的模型,底部一行為設(shè)置自注意模塊的模型。在每一組左右,(b)和(e)是給定草圖((a)和(d)頂部)生成的Mask,而(c)和(f)是Mask和GT((a)和(d)底部)之間的差異圖。在差值圖中,藍(lán)色區(qū)域越大,與GT值的差值越高。


        • 基于草圖的頭發(fā)圖像合成與其他算法的比較



        • 感知和可用性研究



        • 消融實驗


        對比模型包含和不包含方向圖的結(jié)果:(b)單獨使用方向圖;(c)使用草圖和方向圖;(d)單獨使用草圖。對于每一對(a),上面的是草圖和背景輸入,下面的是草圖預(yù)測的稠密方向圖。



        比較模型變量在給定相同輸入的不同設(shè)置下產(chǎn)生的結(jié)果(a)。(b)在合成數(shù)據(jù)集上訓(xùn)練。(c)沒有注意模塊,(d)完整模型。



        兩個不太成功的例子。頂部行顯示不自然的結(jié)果缺乏足夠的分層效果,而底部行顯示自閉塞卷一起的失敗案例。



        參考資料:

        https://arxiv.org/abs/2109.07874



        猜您喜歡:

        等你著陸!【GAN生成對抗網(wǎng)絡(luò)】知識星球!

        CVPR 2021 | GAN的說話人驅(qū)動、3D人臉論文匯總

        CVPR 2021 | 圖像轉(zhuǎn)換 今如何?幾篇GAN論文

        【CVPR 2021】通過GAN提升人臉識別的遺留難題

        CVPR 2021生成對抗網(wǎng)絡(luò)GAN部分論文匯總

        經(jīng)典GAN不得不讀:StyleGAN

        最新最全20篇!基于 StyleGAN 改進(jìn)或應(yīng)用相關(guān)論文

        超100篇!CVPR 2020最全GAN論文梳理匯總!

        附下載 | 《Python進(jìn)階》中文版

        附下載 | 經(jīng)典《Think Python》中文版

        附下載 | 《Pytorch模型訓(xùn)練實用教程》

        附下載 | 最新2020李沐《動手學(xué)深度學(xué)習(xí)》

        附下載 | 《可解釋的機(jī)器學(xué)習(xí)》中文版

        附下載 |《TensorFlow 2.0 深度學(xué)習(xí)算法實戰(zhàn)》

        附下載 | 超100篇!CVPR 2020最全GAN論文梳理匯總!

        附下載 |《計算機(jī)視覺中的數(shù)學(xué)方法》分享

              

        瀏覽 31
        點贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            国产又粗又猛又黄又爽的视频 | 欧美视频在线观看 | 丰满女老板大胸老板bd高清 | 色婷婷无码亚五月 | 黄色片免费版 | 久操电影 | 一级毛片在线看 | 亚洲AV一二三区成人影片 | 9精品在线 | 中国黄色三级电影 |