做目標(biāo)檢測(cè),這6篇就夠了:CVPR 2020目標(biāo)檢測(cè)論文盤點(diǎn)
目標(biāo)檢測(cè)是計(jì)算機(jī)視覺中的經(jīng)典問題之一。憑借大量可用數(shù)據(jù)、更快的 GPU 和更好的算法,現(xiàn)在我們可以輕松訓(xùn)練計(jì)算機(jī)以高精度檢測(cè)出圖像中的多個(gè)對(duì)象。

A Hierarchical Graph Network for 3D Object Detection on Point Clouds
HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection
Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud
Camouflaged Object Detection
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector
D2Det: Towards High-Quality Object Detection and Instance Segmentation

論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.pdf
?
具體而言,該研究提出了新的 shape-attentive GConv (SA-GConv),它能通過建模點(diǎn)的相對(duì)幾何位置來描述物體的形狀,進(jìn)而捕獲局部形狀特征。
基于 SA-GConv 的 U 形網(wǎng)絡(luò)捕獲多層次特征,通過改進(jìn)的投票模塊(voting module)將這些特征映射到相同的特征空間中,進(jìn)而生成候選框(proposal)。
基于 GConv 的 U 形網(wǎng)絡(luò)(GU-net);
候選框生成器;
候選框推理模塊(ProRe Module):使用全連接圖對(duì)候選框進(jìn)行推理。
該研究提出的模型主要以 VoteNet 作為 backbone,并基于它提出了一系列改進(jìn)。
由下圖可以看出:
將 VoteNet 中的 PointNet++ 換成特征捕捉能力更強(qiáng)的 GCN;
為 up-sample 的多層中的每一層都接上 voting 模塊,整合多個(gè)尺度的特征;
在 proposal 之間也使用 GCN 來增強(qiáng)特征的學(xué)習(xí)能力。


論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.pdf

體素化:將點(diǎn)云指定給二維體素網(wǎng)格;
體素特征提?。河?jì)算網(wǎng)格相關(guān)的點(diǎn)級(jí)特征,然后將其輸入到 PointNet 風(fēng)格特征編碼器;
投影:將點(diǎn)級(jí)特征聚合為體素級(jí)特征,并投影到其原始網(wǎng)格。這就形成了一個(gè)偽圖像特征圖。




論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.pdf
項(xiàng)目地址:
https://github.com/WeijingShi/Point-GNN
該研究指出,以往使用 CNN 的方法處理點(diǎn)云數(shù)據(jù)時(shí)往往需要在空間劃分 Grids,會(huì)出現(xiàn)大量的空白矩陣元素,并不適合稀疏點(diǎn)云;
近來出現(xiàn)的類似 PointNet 的方法對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行分組和采樣,取得了不錯(cuò)的結(jié)果,但計(jì)算成本太大。于是該研究提出一種新型 GNN 網(wǎng)絡(luò)——Point-GNN。
圖構(gòu)建:使用體素降采樣點(diǎn)云進(jìn)行圖構(gòu)建;
GNN 目標(biāo)檢測(cè)(T 次迭代);
邊界框合并和評(píng)分。


論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.pdf?
項(xiàng)目地址:
https://github.com/DengPingFan/SINet/
此外,該研究還創(chuàng)建了一個(gè)名為 COD10K 的新型數(shù)據(jù)集。它包含 10,000 張圖像,涵蓋許多自然場(chǎng)景中的偽裝物體。
該數(shù)據(jù)集具有 78 個(gè)類別,每張圖像均具備類別標(biāo)簽、邊界框、實(shí)例級(jí)標(biāo)簽和摳圖級(jí)(matting-level)標(biāo)簽。


搜索模塊(SM),用于搜索偽裝的物體;
識(shí)別模塊(IM),用于檢測(cè)該物體。



論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.pdf
該研究提出一個(gè)新型注意力網(wǎng)絡(luò),能在 RPN 模塊和檢測(cè)器上學(xué)習(xí) support set 和 query set 之間的匹配關(guān)系;
下圖中的 weight shared network 有多個(gè)分支,可以分為兩類,一類用于 query set,另一類用于 support set(support set 的分支可以有多個(gè),用來輸入不同的 support 圖像,圖中只畫了一個(gè)),處理 query set 的分支是 Faster RCNN 網(wǎng)絡(luò)。



論文地址:?
https://openaccess.thecvf.com/content_CVPR_2020/papers/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.pdf?
項(xiàng)目地址:
https://github.com/JialeCao001/D2Det
這篇論文提出了一種提高定位精度和分類準(zhǔn)確率的方法 D2Det,以提升目標(biāo)檢測(cè)的效果。
針對(duì)這兩項(xiàng)挑戰(zhàn),該研究分別提出了 dense local regression(DLR)和 discriminative RoI pooling(DRP)兩個(gè)模塊。
其中 DLR 與 anchor-free 方法 FCOS 的 detect loss 類似,DRP 則是利用了 deformable convolution 的思想,分別從第一階段和第二階段提取準(zhǔn)確的目標(biāo)特征區(qū)域,進(jìn)而獲得相應(yīng)的性能提升。具體方法流程如下圖所示:


計(jì)算機(jī)視覺頂會(huì) CVPR 2020 提供了很多目標(biāo)檢測(cè)等領(lǐng)域的研究論文,如果你想獲取更多論文信息,請(qǐng)點(diǎn)擊以下網(wǎng)址:
https://openaccess.thecvf.com/CVPR2020
一網(wǎng)打盡:從 Mask RCNN到Y(jié)olo v4

共6大實(shí)戰(zhàn)項(xiàng)目

課程大綱如下



CV博士授課

在售價(jià)399元的課程,今天大家可以使用優(yōu)惠券按照299元購(gòu)買,有興趣的小伙伴抓緊搶購(gòu),先報(bào)先占位!
優(yōu)惠券:?645A777EDB
購(gòu)買流程:
復(fù)制優(yōu)惠券>掃描二維碼>點(diǎn)擊直接購(gòu)買>點(diǎn)擊優(yōu)惠券>輸入優(yōu)惠券
掃碼搶占名額???
(報(bào)名過程中,有任何問題請(qǐng)加客服微信:julyedukefu12)
戳↓↓“閱讀原文”查看課程詳情!
