論文/代碼速遞2022.11.18!
最新成果demo展示:
ECCV2022|AdaNeRF:自適應(yīng)采樣用于神經(jīng)輻射場(chǎng)實(shí)時(shí)渲染!代碼開(kāi)源
標(biāo)題:AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance Fields
論文:https://arxiv.org/pdf/2207.10312.pdf
代碼:https://github.com/thomasneff/AdaNeRF
摘要:
最近,通過(guò)直接從稀疏觀測(cè)中學(xué)習(xí)神經(jīng)輻射場(chǎng),新的視圖合成發(fā)生了革命性的變化。然而,由于體繪制方程的精確求積需要每條射線的大量樣本,因此使用這種新范式繪制圖像的速度很慢。先前的工作主要集中在加快與每個(gè)采樣點(diǎn)相關(guān)聯(lián)的網(wǎng)絡(luò)評(píng)估,例如,通過(guò)將輻射值緩存到顯式空間數(shù)據(jù)結(jié)構(gòu)中,但這是以犧牲模型緊湊性為代價(jià)的。在本文中,我們提出了一種新的雙網(wǎng)絡(luò)架構(gòu),通過(guò)學(xué)習(xí)如何最佳地減少所需采樣點(diǎn)的數(shù)量,該架構(gòu)采用正交方向。為此,我們將我們的網(wǎng)絡(luò)拆分為一個(gè)采樣和著色網(wǎng)絡(luò),這些網(wǎng)絡(luò)是聯(lián)合訓(xùn)練的。我們的訓(xùn)練方案沿每條射線采用固定的樣本位置,并在整個(gè)訓(xùn)練過(guò)程中逐步引入稀疏性,以實(shí)現(xiàn)高質(zhì)量,即使在低樣本數(shù)下也是如此。在用目標(biāo)樣本數(shù)進(jìn)行微調(diào)后,可以實(shí)時(shí)呈現(xiàn)得到的緊湊神經(jīng)表示。我們的實(shí)驗(yàn)表明,我們的方法在質(zhì)量和幀速率方面優(yōu)于并發(fā)緊湊神經(jīng)表示,并且與高效混合表示性能相當(dāng)
最新論文整理
ECCV2022
Updated on : 18 Nov 2022
total number : 1
InternVideo-Ego4D: A Pack of Champion Solutions to Ego4D Challenges
論文/Paper: http://arxiv.org/pdf/2211.09529
代碼/Code: https://github.com/OpenGVLab/ego4d-eccv2022-solutions
CVPR2022
NeurIPS
Updated on : 18 Nov 2022
total number : 3
Language Conditioned Spatial Relation Reasoning for 3D Object Grounding
論文/Paper: http://arxiv.org/pdf/2211.09646
代碼/Code: None
I see you: A Vehicle-Pedestrian Interaction Dataset from Traffic Surveillance Cameras
論文/Paper: http://arxiv.org/pdf/2211.09342
代碼/Code: https://github.com/hvzzzz/Vehicle_Trajectory_Dataset
A Survey on Evaluation Metrics for Synthetic Material Micro-Structure Images from Generative Models
論文/Paper: http://arxiv.org/pdf/2211.09727
代碼/Code: None
