CVPR 2021專題1:GAN的改進
點擊上方“機器學習與生成對抗網(wǎng)絡”,關注星標
獲取有趣、好玩的前沿干貨!
1,Directional GAN: A Novel Conditioning Strategy for Generative Networks

圖像是營銷活動、網(wǎng)站和橫幅的主要形式之一。這可能需要設計師花費大量時間來生成此類專業(yè)的內(nèi)容。提出一種簡單而新穎的調(diào)節(jié)策略,針對無條件圖像生成任務訓練的生成器生成給定語義屬性的圖像。
方法基于修改潛在向量,使用潛在空間中相關語義屬性的方向向量,處理離散(二類、多類)的和連續(xù)的圖像屬性。

2,Image Generators with Conditionally-Independent Pixel Synthesis

現(xiàn)有的生成器網(wǎng)絡一般都依賴空間卷積、或者自注意力模塊,然后以由粗到細的方式逐漸合成圖像。
本文提出一種新的生成器架構,其中每個像素的顏色值是根據(jù)隨機潛在向量的值和該像素的坐標獨立計算的,在合成過程中不涉及跨像素傳播信息的空間卷積或類似操作。
3,Efficient Feature Transformations for Discriminative and Generative Continual Learning

隨神經(jīng)網(wǎng)絡越來越多地應用于實際中,解決數(shù)據(jù)分布差異、偏移和序列任務學習等問題、不會“遺忘”至關重要。通過增加模型容量來學習新任務,同時避免災難性遺忘,但可能很耗算力。
基于連續(xù)學習提出一種特征圖轉換策略,為學習新任務提供了更好的靈活性,而這只需在基礎架構中添加最少的參數(shù)即可實現(xiàn)。
4,A Sliced Wasserstein Loss for Neural Texture Synthesis
在風格遷移或者GAN里,經(jīng)常通過以目標分類識別任務而優(yōu)化好的網(wǎng)絡(例如 VGG-19),利用其提取特征激活,從而獲取統(tǒng)計數(shù)據(jù)來計算紋理損失;其本質數(shù)學問題是測量特征空間中兩個分布之間的距離。Gram-matrix loss 是這個問題的普遍近似,但它有一些缺點。
本文推廣Sliced Wasserstein Distance,實現(xiàn)簡單,效果更好。

5,Regularizing Generative Adversarial Networks under Limited Data

GAN模型依賴大量的訓練數(shù)據(jù),這項工作提出一種在有限數(shù)據(jù)上訓練魯棒 GAN 模型的正則化方法。在理論上展示了正則化損失和稱為 LeCam-divergence 的 f-divergence 之間的聯(lián)系,它在有限的訓練數(shù)據(jù)下更加穩(wěn)健。https://github.com/google/lecam-gan
6,Training Generative Adversarial Networks in One Stage
生成對抗網(wǎng)絡 (GAN) 有著繁瑣的訓練過程,生成器和判別器交替更新。本文研究僅在一個階段就可以有效地訓練 GAN。
基于生成器和判別器的對抗性損失,將 GAN 分為兩類,對稱 GAN 和非對稱 GAN,并引入了一種新的梯度分解方法來統(tǒng)一這兩者,能夠在一個階段訓練這兩個類,減輕訓練難度。

7,Posterior Promoted GAN with Distribution Discriminator for Unsupervised Image Synthesis

本文研究者認為生成器中需要有足夠的關于真實數(shù)據(jù)分布的信息,這是GAN生成能力的關鍵點。但目前GAN及其變體缺乏這一點,導致訓練過程脆弱。

本文提出了一種新的 GAN 變體,即Posterior Promoted GAN(P2GAN),它使用判別器產(chǎn)生的后驗分布中的真實信息來提升生成器。與 GAN 的其他變體不同,判別器將圖像映射到多元高斯分布并提取真實信息;生成器使用 AdaIN 后的真實信息和潛碼。實驗結果表明,P2GAN 在無監(jiān)督圖像合成方面取得了與GAN最先進的變體相當?shù)慕Y果。
猜您喜歡:
CVPR 2021 | GAN的說話人驅動、3D人臉論文匯總
CVPR 2021生成對抗網(wǎng)絡GAN部分論文匯總
附下載 | 經(jīng)典《Think Python》中文版
附下載 |《TensorFlow 2.0 深度學習算法實戰(zhàn)》
