點(diǎn)擊上方“AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時(shí)間送達(dá)
昨日,ECCV 2020五項(xiàng)大獎(jiǎng)出爐,分別是最佳論文獎(jiǎng)、最佳論文提名獎(jiǎng)、Koenderink獎(jiǎng)、Mark Everingham獎(jiǎng)、Demo獎(jiǎng),ImageNet 論文一作鄧嘉獲最佳論文獎(jiǎng)。另外,ECCV2020全部論文已開放下載。ECCV2020論文合集下載
ECCV2020論文現(xiàn)已開放下載,地址為:http://www.ecva.net/papers.php為了方便大家學(xué)習(xí),極市已經(jīng)將全部論文(共1357篇)下載并打包,在?AI算法與圖像處理?后臺(tái)回復(fù)?ECCV2020?即可獲取論文打包下載鏈接。下面將介紹本次ECCV2020的五項(xiàng)大獎(jiǎng)。(內(nèi)容來源:機(jī)器之心)
最佳論文獎(jiǎng)
這項(xiàng)研究提出了一種用于光流的新型深度網(wǎng)絡(luò)架構(gòu)——循環(huán)全對(duì)場(chǎng)變換(Recurrent All-Pairs Field Transforms,RAFT)。RAFT 提取每個(gè)像素(per-pixel)的特征,為所有像素對(duì)構(gòu)建多尺度 4D 相關(guān)體(correlation volume),并通過循環(huán)單元迭代地更新流場(chǎng),循環(huán)單元基于相關(guān)體執(zhí)行查找。RAFT 在多個(gè)數(shù)據(jù)集上實(shí)現(xiàn)了 SOTA 性能:在 KITTI 數(shù)據(jù)集上,RAFT 的 F1-all 誤差是 5.10%,相比先前的最佳結(jié)果(6.10%)減少了 16%;在 Sintel 數(shù)據(jù)集(final pass)上,RAFT 只有 2.855 像素的端點(diǎn)誤差(end-point-error),相比先前的最佳結(jié)果(4.098 像素)減少了 30%。另外,RAFT 具有強(qiáng)大的跨數(shù)據(jù)集泛化能力,并且在推理時(shí)間、訓(xùn)練速度和參數(shù)計(jì)數(shù)方面具有很高的效率。4.8M 參數(shù)完整版模型和 1.0M 參數(shù)小模型的網(wǎng)絡(luò)架構(gòu)細(xì)節(jié)。最佳論文的第一作者 Zachary Teed 現(xiàn)在普林斯頓讀博,導(dǎo)師為鄧嘉。他的研究興趣是:3D 視頻重建,包括運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(Structure from Motion,SfM)、場(chǎng)景流(Scene Flow)和 SLAM。論文二作是普林斯頓大學(xué)計(jì)算機(jī)科學(xué)系助理教授鄧嘉,主要研究方向是計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí),目前的研究興趣是:3D 視覺、目標(biāo)識(shí)別、動(dòng)作識(shí)別和自動(dòng)定理證明。曾獲得 Sloan Research Fellowship、PAMI Mark Everingham Prize、 Yahoo ACE Award、Google Faculty Research Award、ICCV Marr Prize 等獎(jiǎng)項(xiàng)。值得一提的是,這并不是鄧嘉第一次獲得 ECCV 的最佳論文獎(jiǎng),2014 年他憑借論文《Large-Scale Object Classification Using Label Relation Graphs》獲得當(dāng)年的 ECCV 最佳論文獎(jiǎng),并且是該研究的第一作者。除此之外,他還是 ImageNet 論文的第一作者。ImageNet 數(shù)據(jù)集是目前機(jī)器學(xué)習(xí)領(lǐng)域最常用的數(shù)據(jù)集之一,它催生出了極大促進(jìn)人工智能發(fā)展的 ImageNet 比賽。作為 ImageNet 的一作,鄧嘉為其傾注了許多心血。2019 年,這篇論文獲得了 CVPR PAMI Longuet-Higgins(經(jīng)典論文)獎(jiǎng)。鄧嘉在接受機(jī)器之心采訪時(shí)表示:「這個(gè)項(xiàng)目很說明一件事情,當(dāng)時(shí)做 ImageNet 不是最主流的工作,但是我們所有做此項(xiàng)目的人都相信它會(huì)有很大的影響,所以我們就花了很大力氣做這個(gè)事情。確實(shí),它給我自己的一個(gè)啟示是,你不一定要做最流行的事情,但要做自己相信會(huì)有影響的事情?!鼓壳埃@篇發(fā)表于 2009 年的論文被引用量已超過兩萬。最佳論文榮譽(yù)提名獎(jiǎng)
大會(huì)還公布了最佳論文榮譽(yù)提名獎(jiǎng),共有兩篇論文獲得此獎(jiǎng)項(xiàng)。論文 1:Towards Streaming Image Understanding具身感知(embodied perception)指自動(dòng)智能體感知環(huán)境以便做出反應(yīng)的能力。智能體的響應(yīng)度很大程度上取決于處理流程的延遲。之前的工作主要涉及延遲和準(zhǔn)確率之間的算法權(quán)衡,但缺少一種明確的指標(biāo)來對(duì)比不同方法的帕累托最優(yōu)延遲 - 準(zhǔn)確率曲線。這篇論文指出標(biāo)準(zhǔn)離線評(píng)估和實(shí)時(shí)應(yīng)用之間的差異:算法處理完特定圖像幀時(shí),周圍環(huán)境已經(jīng)發(fā)生改變。該研究提出將延遲和準(zhǔn)確率協(xié)調(diào)地集成到一個(gè)度量指標(biāo)中,用于實(shí)時(shí)在線感知,這就是「流準(zhǔn)確率」(streaming accuracy)。此外,該研究基于此度量指標(biāo)提出了一個(gè)元基準(zhǔn),它可以系統(tǒng)性地將任意圖像理解任務(wù)轉(zhuǎn)換成流圖像理解任務(wù)。研究人員主要關(guān)注城市視頻流中的目標(biāo)檢測(cè)和實(shí)例分割任務(wù),并創(chuàng)建了具備高質(zhì)量、時(shí)序稠密標(biāo)注的新數(shù)據(jù)集。該研究提出的解決方案及其實(shí)證分析結(jié)果顯示:在帕累托最優(yōu)延遲 - 準(zhǔn)確率曲線上,存在能夠最大化流準(zhǔn)確率的最優(yōu)點(diǎn);
異步跟蹤和未來預(yù)測(cè)很自然地成為流圖像理解的內(nèi)部表征;
動(dòng)態(tài)調(diào)度可用于克服時(shí)間混疊(temporal aliasing),得到一個(gè)吊詭的結(jié)果:什么都不做可能使延遲最小化。
論文 2:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis該研究提出了一種在合成復(fù)雜場(chǎng)景新視圖任務(wù)中實(shí)現(xiàn) SOTA 結(jié)果的新方法,該方法通過使用稀疏的輸入視圖集來優(yōu)化基礎(chǔ)的連續(xù)體場(chǎng)景函數(shù)。該算法使用全連接深度網(wǎng)絡(luò)表示場(chǎng)景,其輸入為單個(gè)連續(xù) 5D 坐標(biāo)(空間位置 (x, y, z) 和視角方向 (θ, φ)),輸出為體積密度和在此空間位置上的視圖相關(guān) emitted radiance。該研究通過查詢沿著攝像頭光線的 5D 坐標(biāo)來合成視圖,并使用經(jīng)典的體渲染技術(shù)將輸出顏色和密度投影到圖像中。由于體渲染本身是可微的,因此優(yōu)化表征所需的唯一輸入是一組具備已知攝像機(jī)位姿的圖像。研究者介紹了如何高效優(yōu)化神經(jīng)輻射場(chǎng)(neural radiance field),渲染出逼真的具備復(fù)雜幾何形狀和外觀的場(chǎng)景新視圖,而且其在神經(jīng)渲染和視圖合成方面的效果優(yōu)于之前的工作。經(jīng)典論文:Koenderink 獎(jiǎng)
Koenderink 獎(jiǎng)旨在表彰計(jì)算機(jī)視覺領(lǐng)域的基礎(chǔ)性貢獻(xiàn)研究,獲獎(jiǎng)?wù)撐木鶠榘l(fā)表時(shí)間超過十年并經(jīng)受住時(shí)間檢驗(yàn)的研究。本屆 ECCV 會(huì)議 Koenderink 獎(jiǎng)?lì)C發(fā)給了以下兩篇論文:論文 1:Improving the Fisher Kernel for Large-Scale Image ClassificationFisher Kernel(FK)是一個(gè)結(jié)合了生成和判別方法優(yōu)點(diǎn)的通用框架。在圖像分類領(lǐng)域,F(xiàn)K 擴(kuò)展了流行的視覺詞袋(BOV)模型。然而,在實(shí)踐中,這種豐富的表征尚未顯現(xiàn)出相對(duì) BOV 的優(yōu)越性。在論文的第一部分,研究者對(duì)原始框架進(jìn)行了多項(xiàng)修改,使得 FK 準(zhǔn)確率得到提升。在 PASCAL VOC 2007 數(shù)據(jù)集上的平均精度(AP)從 47.9% 提升到了 58.3%。改進(jìn)后的框架在 CalTech 256 數(shù)據(jù)集上也展現(xiàn)出了 SOTA 準(zhǔn)確率。其主要優(yōu)勢(shì)在于這些結(jié)果僅使用 SIFT 描述子和線性分類器獲得。使用該表征后,F(xiàn)K 框架可用于探索更大規(guī)模的圖像分類任務(wù)。在論文的第二部分應(yīng)用部分,研究者對(duì)比了在兩個(gè)大規(guī)模標(biāo)注圖像數(shù)據(jù)集上的分類器訓(xùn)練情況:ImageNet 和 Flickr groups 數(shù)據(jù)集。在涉及數(shù)十萬訓(xùn)練圖像的評(píng)估中,研究者發(fā)現(xiàn)基于 Flickr groups 學(xué)得的分類器性能非常好,而且它們可以對(duì)在更精細(xì)標(biāo)注數(shù)據(jù)集上學(xué)得的分類器進(jìn)行補(bǔ)充。論文 2:BRIEF: Binary Robust Independent Elementary Features這項(xiàng)研究提出將二進(jìn)制字符串用作高效的特征點(diǎn)描述符,即 BRIEF。研究證明,即使在 bits 相對(duì)較少的情況下,BRIEF 依然呈現(xiàn)出高判別性,并且可以通過簡(jiǎn)單的強(qiáng)度差測(cè)試來計(jì)算。此外,對(duì)描述符相似度的評(píng)估沒有采用常見的 L_2 范數(shù),而是使用了漢明距離(Hamming distance),后者計(jì)算起來非常高效。因此,BRIEF 的構(gòu)建和匹配速度非??臁T撗芯吭跇?biāo)準(zhǔn)基準(zhǔn)上將 BRIEF 與 SURF 和 U-SURF 進(jìn)行比較,結(jié)果表明 BRIEF 能夠?qū)崿F(xiàn)相當(dāng)或更優(yōu)的識(shí)別性能,同時(shí)運(yùn)行時(shí)間只需其他二者的一部分。PAMI Everingham 獎(jiǎng)
該獎(jiǎng)項(xiàng)旨在紀(jì)念 Mark Everingham,并鼓勵(lì)其他人向他學(xué)習(xí),推進(jìn)整個(gè)計(jì)算機(jī)視覺社區(qū)進(jìn)一步發(fā)展。PAMI Everingham 獎(jiǎng)授予對(duì)計(jì)算機(jī)視覺社區(qū)做出無私貢獻(xiàn)的研究者或研究團(tuán)隊(duì),由 IEEE 計(jì)算機(jī)協(xié)會(huì)模式分析與機(jī)器智能(PAMI)技術(shù)委員會(huì)頒發(fā)。今年的 PAMI Everingham 獎(jiǎng)?lì)C給了微軟高級(jí)科學(xué)家 Johannes Sch?nberger,以及 MIT 教授 Antonio Torralba 及創(chuàng)建多個(gè)數(shù)據(jù)集的合作者。Johannes Sch?nberger 現(xiàn)為微軟混合現(xiàn)實(shí)與人工智能蘇黎世實(shí)驗(yàn)室高級(jí)科學(xué)家,開發(fā)了 COLMAP SFM 和 MVS 軟件庫。Johannes Sch?nberger 的獲獎(jiǎng)理由是:他的工作為 3D 圖像重建提供了一個(gè)開源的端到端 pipeline 以及相關(guān)支持、開發(fā)和文檔。目前這已成為運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM)和多視角立體視覺(Multi-view Stereo,MVS)的參考軟件。Antonio Torralba 現(xiàn)為 MIT 電氣工程與計(jì)算機(jī)科學(xué)教授。在十多年的時(shí)間里,Antonio Torralba 與其他合作者定期發(fā)布新數(shù)據(jù)集以及創(chuàng)建這些數(shù)據(jù)集的方法。他們創(chuàng)建的 LabelMe、Tiny images、SUN/SUN-3D 和 MIT-Places 等數(shù)據(jù)集在計(jì)算機(jī)視覺領(lǐng)域有著極大的影響力。Demo 獎(jiǎng)
此外,大會(huì)公布了 Demo 獎(jiǎng)。獲獎(jiǎng)?wù)撐氖恰禝nter-Homines: Distance-Based Risk Estimation for Human Safety》。另有兩篇研究獲得了 ECCV 2020 Demo 獎(jiǎng)提名:
下載1:動(dòng)手學(xué)深度學(xué)習(xí)
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):動(dòng)手學(xué)深度學(xué)習(xí),即可下載547頁《動(dòng)手學(xué)深度學(xué)習(xí)》電子書和源碼。該書是面向中文讀者的能運(yùn)行、可討論的深度學(xué)習(xí)教科書,它將文字、公式、圖像、代碼和運(yùn)行結(jié)果結(jié)合在一起。本書將全面介紹深度學(xué)習(xí)從模型構(gòu)造到模型訓(xùn)練,以及它們?cè)谟?jì)算機(jī)視覺和自然語言處理中的應(yīng)用。
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載20個(gè)有趣的OpenCV實(shí)戰(zhàn)項(xiàng)目請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱
