1. arxiv論文整理20230506-0512(目標(biāo)檢測(cè)方向)

        共 1984字,需瀏覽 4分鐘

         ·

        2023-06-12 20:26

        DSPDet3D: Dynamic Spatial Pruning for 3D Small Object Detection

        摘要: 在本文中,我們提出了一個(gè)新的檢測(cè)框架,用于3D小目標(biāo)檢測(cè)。盡管近年來(lái)基于深度學(xué)習(xí)的三維目標(biāo)檢測(cè)方法取得了巨大的成功,但由于幾何信息較弱,目前的方法在小物體上仍然很困難。通過(guò)深入研究,我們發(fā)現(xiàn)提高特征圖的空間分辨率可以顯著提升三維小目標(biāo)檢測(cè)的性能。更有趣的是,盡管計(jì)算開(kāi)銷(xiāo)隨著分辨率的提高而急劇增加,但其增長(zhǎng)主要來(lái)自解碼器的上采樣操作。受此啟發(fā),我們提出了一個(gè)名為DSPDet3D的具有動(dòng)態(tài)空間修剪功能的高分辨率多級(jí)檢測(cè)器,該檢測(cè)器通過(guò)迭代上采樣從大到小檢測(cè)物體,同時(shí)在沒(méi)有較小物體的區(qū)域修剪場(chǎng)景的空間表示。由于三維檢測(cè)器只需要預(yù)測(cè)稀疏的邊界框,修剪大量無(wú)信息的特征并不會(huì)降低檢測(cè)性能,而是大大降低了上采樣的計(jì)算成本。這樣一來(lái),我們的DSPDet3D在小物體檢測(cè)上達(dá)到了很高的精度,同時(shí)需要更少的內(nèi)存占用和推理時(shí)間。在ScanNet和TO-SCENE數(shù)據(jù)集上,我們的方法將小物體的檢測(cè)性能提高到了一個(gè)新的水平,同時(shí)在所有主流室內(nèi)三維目標(biāo)檢測(cè)方法中實(shí)現(xiàn)了領(lǐng)先的推理速度。

        點(diǎn)評(píng): 提出了一個(gè)名為DSPDet3D的具有動(dòng)態(tài)空間修剪功能的高分辨率多級(jí)檢測(cè)器,用于3D小目標(biāo)檢測(cè)。代碼已開(kāi)源: https://github.com/xuxw98/DSPDet3D

        PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR Point Clouds(CVPR 2023)

        摘要: 為了處理稀疏和非結(jié)構(gòu)化的原始點(diǎn)云,基于LiDAR的三維目標(biāo)檢測(cè)研究大多集中在設(shè)計(jì)專(zhuān)用的局部點(diǎn)聚合器來(lái)進(jìn)行細(xì)粒度的幾何建模。在本文中,我們從分配計(jì)算資源的角度重新審視局部點(diǎn)聚合器。我們發(fā)現(xiàn),考慮到精度和延遲,最簡(jiǎn)單的基于pillar的模型表現(xiàn)得出奇地好。此外,我們還表明,從二維目標(biāo)檢測(cè)的成功經(jīng)驗(yàn)中進(jìn)行最小的調(diào)整,如擴(kuò)大感受野,可以顯著提高性能。廣泛的實(shí)驗(yàn)表明,我們基于pillar的網(wǎng)絡(luò)在架構(gòu)和訓(xùn)練方面的現(xiàn)代化設(shè)計(jì)在兩個(gè)流行的基準(zhǔn)上呈現(xiàn)出最先進(jìn)的性能: Waymo開(kāi)放數(shù)據(jù)集和nuScenes。我們的結(jié)果挑戰(zhàn)了常見(jiàn)的直覺(jué),即詳細(xì)的幾何建模對(duì)于實(shí)現(xiàn)高性能的三維目標(biāo)檢測(cè)是必不可少的。

        點(diǎn)評(píng): 研究了基于LiDAR點(diǎn)云的3D目標(biāo)檢測(cè),發(fā)現(xiàn)詳細(xì)的幾何建??梢蕴嵘阅堋?/span>

        Region-Aware Pretraining for Open-Vocabulary Object Detection with Vision Transformers(CVPR 2023)

        摘要: 我們提出了區(qū)域感知的開(kāi)放詞匯視覺(jué)Transformer(RO-ViT)--一種對(duì)比性的圖像-文本預(yù)訓(xùn)練配方,以彌補(bǔ)圖像級(jí)預(yù)訓(xùn)練和開(kāi)放詞匯目標(biāo)檢測(cè)之間的差距。在預(yù)訓(xùn)練階段,我們建議隨機(jī)裁剪和調(diào)整位置嵌入的區(qū)域,而不是使用整個(gè)圖像的位置嵌入。這與檢測(cè)微調(diào)階段在區(qū)域?qū)用嫔鲜褂梦恢们度氲淖龇ǜ悠ヅ?。此外,我們用focal損失取代了對(duì)比學(xué)習(xí)中常見(jiàn)的softmax交叉熵?fù)p失,以更好地學(xué)習(xí)信息量大但難度高的例子。最后,我們利用最近在新型對(duì)象建議框方面的進(jìn)展來(lái)改進(jìn)開(kāi)放詞匯檢測(cè)的微調(diào)。我們?cè)贚VIS和COCO開(kāi)放詞匯檢測(cè)基準(zhǔn)和零樣本遷移上評(píng)估了我們的完整模型。RO-ViT在LVIS上取得了最先進(jìn)的32.1APr,超過(guò)了現(xiàn)有最好的方法+5.8百分點(diǎn),此外,零樣本遷移檢測(cè)也具有競(jìng)爭(zhēng)力。令人驚訝的是,RO-ViT也改善了圖像級(jí)別的表示,在COCO和Flickr圖像-文本檢索基準(zhǔn)的12個(gè)指標(biāo)中,有9個(gè)指標(biāo)達(dá)到了最先進(jìn)的水平,超過(guò)了一些較好的大模型方法。

        點(diǎn)評(píng): 改進(jìn)預(yù)訓(xùn)練階段、損失函數(shù),用于開(kāi)放詞匯的目標(biāo)檢測(cè)。

        ps:承接程序代寫(xiě),?小程序編寫(xiě)? 程序應(yīng)用 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) pytorch paddlepaddle ?數(shù)據(jù)結(jié)構(gòu)?機(jī)器學(xué)習(xí)?目標(biāo)檢測(cè) 圖像處理

        有需要的兄弟們可以在我公眾號(hào)留言。

        ppt(有備注,可直接講)可以在知識(shí)星球獲?。?/p>

        我正在「目標(biāo)檢測(cè)er的小圈子」和朋友們討論有趣的話(huà)題,你?起來(lái)吧?

        https://t.zsxq.com/0cM8tmd4l

        瀏覽 70
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
          
          

            1. 中文字幕久久久 | 97国产在线视频 | 4438全国最大无码视频 | 巨肉黄暴辣文高h文奶汁视频 | 无遮挡国产高潮视频免费观看 |