1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        StyleGAN 匯總

        共 2648字,需瀏覽 6分鐘

         ·

        2021-11-18 23:24

        點(diǎn)擊上方機(jī)器學(xué)習(xí)與生成對(duì)抗網(wǎng)絡(luò)”,關(guān)注星標(biāo)

        獲取有趣、好玩的前沿干貨!

        豐色 發(fā)自 凹非寺 量子位 報(bào)道 | 公眾號(hào) QbitAI

        StyleGAN在各種圖像處理和編輯任務(wù)上,表現(xiàn)很驚艷。

        然而,“干一種活”就得換個(gè)體系重新“培訓(xùn)”一次,太麻煩。

        終于,有人細(xì)細(xì)研究了一下,發(fā)現(xiàn):

        其實(shí)只通過(guò)預(yù)訓(xùn)練和潛空間上的一點(diǎn)小操作,就可以讓StyleGAN直接上手各種“活兒”,包括全景圖生成、從單張圖像生成、特征插值、圖像到圖像翻譯等等。

        更厲害的是,它在這些“活兒”上的表現(xiàn)還完全不輸每一位單項(xiàng)SOTA選手。

        作者順勢(shì)做了個(gè)全面整理寫成了一篇論文,相關(guān)討論在reddit上直接收獲了700+的熱度

        網(wǎng)友紛紛感嘆:這總結(jié)真的是太酷了!


        All You Need:預(yù)訓(xùn)練+一點(diǎn)空間操作

        方法都非常簡(jiǎn)單,我們一個(gè)一個(gè)來(lái)。

        前提:fi∈RB×C×H×W表示StyleGAN第i層的中間特征(intermediate features)。

        1、空間操作實(shí)現(xiàn)直觀和逼真的圖像

        由于StyleGAN是全卷積的,我們可以調(diào)整fi的空間維度,從而在輸出圖像中引起相應(yīng)的空間變化。

        用簡(jiǎn)單的空間操作(如padding和resize),可以生成更直觀和真實(shí)的圖像。

        比如下圖通過(guò)復(fù)制灌木和樹叢來(lái)擴(kuò)展背景,與導(dǎo)致紋理模糊等瑕疵的原始resize相比,在特征空間中可以保持更真實(shí)的紋理。

        2、特征插值

        對(duì)StyleGAN中間層進(jìn)行拼貼可以實(shí)現(xiàn)圖像信息混合,但要拼接的兩張圖差異太大時(shí)效果往往不好。

        但采用特征插值就沒問(wèn)題。

        具體操作方法:在每個(gè)StyleGAN層,分別使用不同的潛噪聲生成fAi和fBi。然后用下面這個(gè)公式將它倆進(jìn)行平滑地混合,然后再傳遞到下一個(gè)卷積層進(jìn)行同樣的操作。

        其中α∈ [0, 1]B×C×H×W是一個(gè)mask,如果用于水平混合,則mask將從左到右變大。

        和對(duì)應(yīng)模型的定性和定量比較:

        該特征插值法能夠無(wú)縫地混合兩幅圖像,而Suzuki等人的結(jié)果存在明顯的偽影。

        用戶研究中,與Suzuki等人相比,87.6%的人也更喜歡該方法。

        用戶研究包含40人,每人需比較不同方法下的25對(duì)圖像。

        3、從單個(gè)圖像生成

        除了在不同圖像之間進(jìn)行特征插值,我們還可以在單個(gè)圖像中應(yīng)用它。

        具體操作方法:在一些特征層中,選擇相關(guān)的patches,并將其與其他區(qū)域混合,在空間上進(jìn)行復(fù)制。使用移位運(yùn)算符Shift(·):

        這和SinGAN的功能相同,不過(guò)SinGAN涉及采樣,而該方法只需要手動(dòng)選擇用于特征插值的patches.

        和SinGAN的定性和定量比較:

        該方法生成的圖像更加多樣化和真實(shí);SinGAN則未能以“有意義”的方式改變教堂結(jié)構(gòu),并產(chǎn)生不夠真實(shí)的云彩和風(fēng)景。

        用戶研究中,83.3%的人更喜歡該方法生成的新圖像。

        4、改進(jìn)GAN反演

        GAN反演的目的是在W+空間中定位一個(gè)樣式碼(style code),通過(guò)該樣式碼合成與給定目標(biāo)圖像相似的圖像。

        Wulff等人的模型認(rèn)為,在簡(jiǎn)單的非線性變換下,W+空間可以用高斯分布建模。然而,在屬性轉(zhuǎn)移設(shè)置中,需要反轉(zhuǎn)源圖像和參考圖像,效果并不令人滿意。

        最近的研究表明,與W+相比,利用σ進(jìn)行面部操作的性能更好。

        但作者發(fā)現(xiàn),沒有任何變換的σ空間也可以建模為高斯分布。

        然后在這個(gè)空間而不是在GAN反轉(zhuǎn)期間,施加相同的高斯先驗(yàn)。

        效果比較:

        該方法在圖像重建和可編輯性方面獲得了顯著改進(jìn)。

        5、圖像到圖像翻譯

        得益于上部分σ空間的效果,作者建議在圖像到圖像翻譯時(shí)freeze產(chǎn)生σ的仿射變換層(affine transformation layer),這一簡(jiǎn)單的變化能夠更好地保留圖像翻譯的語(yǔ)義(注意下圖d中嘴的形狀)

        此外,作者發(fā)現(xiàn):

        (1)可以在所有空間維度上使用常數(shù)α來(lái)執(zhí)行連續(xù)翻譯;
        (2)通過(guò)選擇要執(zhí)行特征插值的區(qū)域來(lái)執(zhí)行局部圖像翻譯;
        (3)以及使用改進(jìn)的GAN反演在真實(shí)人臉上執(zhí)行人臉編輯和翻譯;

        這樣獲得的效果也更佳。

        6、全景生成

        作者通過(guò)“編織”兩幅圖像的混合(span)生成全景圖,方法如圖所示:

        重復(fù)這個(gè)過(guò)程可以生成任意長(zhǎng)度的全景圖像。

        而且該方法不僅限于一次混合兩個(gè)圖像、也不限于只在水平方向生成。

        一些示例:

        7、屬性轉(zhuǎn)移

        為了使特征插值能夠更好地用于任意人物姿勢(shì)的圖像的屬性轉(zhuǎn)移,作者選擇在源圖像和參考圖像之間執(zhí)行姿勢(shì)對(duì)齊,具體就是對(duì)齊W+空間樣式代碼的前2048個(gè)維度。

        然后就可以應(yīng)用特征插值將所選特征進(jìn)行源圖到目標(biāo)圖的轉(zhuǎn)移了。

        與現(xiàn)有方法比較:

        Collins等人的方法沒有準(zhǔn)確地轉(zhuǎn)移細(xì)節(jié)屬性,Suzuki等人在姿勢(shì)不匹配時(shí)產(chǎn)生的圖像不夠真實(shí)。

        而作者的方法既準(zhǔn)確又真實(shí)。

        用戶根據(jù)真實(shí)感和準(zhǔn)確性進(jìn)行選擇的結(jié)果也進(jìn)一步驗(yàn)證了該方法的優(yōu)越性。

        ps. 此外還可以在任意區(qū)域執(zhí)行轉(zhuǎn)移,比如無(wú)縫融合兩邊眼睛明顯不同的兩半臉:

        以上就是無(wú)需特定架構(gòu)或訓(xùn)練范式、在StyleGAN模型潛空間中執(zhí)行一些操作和微調(diào),就能與其他圖像處理任務(wù)達(dá)到同等或更佳性能的具體方法。

        你覺得如何?還有什么需要補(bǔ)充的嗎?歡迎在評(píng)論區(qū)留言。

        論文地址:
        https?:?//arxiv.org/abs/2111.01619

        項(xiàng)目地址:
        https://github.com/mchong6/SOAT


        猜您喜歡:

        等你著陸!【GAN生成對(duì)抗網(wǎng)絡(luò)】知識(shí)星球!

        CVPR 2021專題1:GAN的改進(jìn)

        CVPR 2021 | GAN的說(shuō)話人驅(qū)動(dòng)、3D人臉論文匯總

        CVPR 2021 | 圖像轉(zhuǎn)換 今如何?幾篇GAN論文

        【CVPR 2021】通過(guò)GAN提升人臉識(shí)別的遺留難題

        CVPR 2021生成對(duì)抗網(wǎng)絡(luò)GAN部分論文匯總

        經(jīng)典GAN不得不讀:StyleGAN

        最新最全20篇!基于 StyleGAN 改進(jìn)或應(yīng)用相關(guān)論文

        超100篇!CVPR 2020最全GAN論文梳理匯總!

        附下載 | 《Python進(jìn)階》中文版

        附下載 | 經(jīng)典《Think Python》中文版

        附下載 | 《Pytorch模型訓(xùn)練實(shí)用教程》

        附下載 | 最新2020李沐《動(dòng)手學(xué)深度學(xué)習(xí)》

        附下載 |?《可解釋的機(jī)器學(xué)習(xí)》中文版

        附下載 |《TensorFlow 2.0 深度學(xué)習(xí)算法實(shí)戰(zhàn)》

        附下載 | 超100篇!CVPR 2020最全GAN論文梳理匯總!

        附下載 |《計(jì)算機(jī)視覺中的數(shù)學(xué)方法》分享


        瀏覽 47
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            国产有码在线观看 | 欧美成人性影院 | 乱偷尝禁果2中文字幕 | 一级欧美一级日韩 | xxxx网站| 麻豆免费成人视频 | 伊人思思| www.国产毛片 | 欧美操逼频 | 国产白嫩护士被弄高潮91 |