ICCV2023論文速遞(2023.9.4)!
最新成果demo展示:
標(biāo)題:MagicAvatar:多模態(tài)虛擬人生成/驅(qū)動(dòng)
標(biāo)題:MagicAvatar: Multimodal Avatar Generation and Animation
論文:https://arxiv.org/abs/2308.14748
摘要:
本報(bào)告介紹了 MagicAvatar,一個(gè)用于多模式視頻生成和驅(qū)動(dòng)虛擬人的框架。與大多數(shù)直接從多模態(tài)輸入(例如文本提示)生成以頭像為中心的視頻的現(xiàn)有方法不同,MagicAvatar 明確地將頭像視頻生成分為兩個(gè)階段:(1)多模態(tài)到運(yùn)動(dòng)和(2)運(yùn)動(dòng)到視頻生成。第一階段將多模態(tài)輸入轉(zhuǎn)換為運(yùn)動(dòng)/控制信號(hào)(例如人體姿勢(shì)、深度、DensePose);而第二階段則在這些運(yùn)動(dòng)信號(hào)的引導(dǎo)下生成以化身為中心的視頻。此外,MagicAvatar 通過簡(jiǎn)單地提供目標(biāo)人物的一些圖像來支持頭像動(dòng)畫。此功能使得能夠根據(jù)第一階段導(dǎo)出的特定運(yùn)動(dòng)來制作所提供的人類身份的動(dòng)畫。我們通過各種應(yīng)用程序展示了 MagicAvatar 的靈活性,包括文本引導(dǎo)和視頻引導(dǎo)的頭像生成,以及多模式頭像動(dòng)畫
Object-Centric Multiple Object Tracking
論文/Paper: http://arxiv.org/pdf/2309.00233
代碼/Code: None
Human-Inspired Facial Sketch Synthesis with Dynamic Adaptation
論文/Paper: http://arxiv.org/pdf/2309.00216
代碼/Code: https://github.com/aiart-hdu/hida
BuilDiff: 3D Building Shape Generation using Single-Image Conditional Point Cloud Diffusion Models
論文/Paper: http://arxiv.org/pdf/2309.00158
代碼/Code: None
Self-supervised Semantic Segmentation: Consistency over Transformation
論文/Paper: http://arxiv.org/pdf/2309.00143
代碼/Code: https://github.com/mindflow-institue/ssct
SoDaCam: Software-defined Cameras via Single-Photon Imaging
論文/Paper: http://arxiv.org/pdf/2309.00066
代碼/Code: None
