1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        綜述:基于點云的自動駕駛3D目標檢測和分類方法

        共 4473字,需瀏覽 9分鐘

         ·

        2021-05-25 10:45

        ↑ 點擊藍字 關注極市平臺

        作者丨Z
        審稿丨鄧富城
        編輯丨極市平臺

        極市導讀

         

        本文基于現(xiàn)有的自動駕駛中利用3D點云數(shù)據(jù)進行目標檢測的文獻,從數(shù)據(jù)特征提取和目標檢測模型等方面對不同技術(shù)進行比較。 >>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

        參考論文:Point-Cloud based 3D Object Detection and Classification Methods for Self-Driving Applications: A Survey and Taxonomy

        Abstract

        在深度學習技術(shù)的影響下,自動駕駛已經(jīng)成為未來發(fā)展的中心,自2010年,圍繞自動駕駛技術(shù)的研究快速發(fā)展,出現(xiàn)了眾多新穎的目標檢測技術(shù).最初開始人們檢測圖像數(shù)據(jù)中的對象,近期出現(xiàn)了利用3D點云數(shù)據(jù)(激光雷達可以更準確地檢測車輛周圍環(huán)境)進行目標檢測的技術(shù).本文基于現(xiàn)有的自動駕駛中利用3D點云數(shù)據(jù)進行目標檢測的文獻,從數(shù)據(jù)特征提取和目標檢測模型等方面對不同技術(shù)進行比較.

        Introduction

        根據(jù)世衛(wèi)(WHO)統(tǒng)計每年因為交通事故造成的死亡或殘疾的人數(shù)達5千萬人數(shù).而通過自動駕駛技術(shù)不僅可以大幅度降低車禍的死亡人數(shù),還可以提高車輛運行效率.自動駕駛車輛要從周圍環(huán)境中收集關鍵信息(行人、車輛、自行車等),預測他們未來的狀態(tài).

        目前自動駕駛車輛主要使用LiDAR(激光雷達),如表1所示,LiDAR可以精確測量傳感器與周圍障礙物之間的距離,同時提供豐富的幾何信息、形狀和比例信息.但也有其他傳感解決方案已在自動駕駛環(huán)境中進行了多種用途的探索.例如,基于相機的解決方案可以提供高密度像素強度信息優(yōu)勢,但缺乏距離信息的缺點,而3D相機又有成本昂貴以及對光照條件要求嚴格的缺點.

        1.傳感器的比較

        (++)完全適應的傳感器;(+)性能良好的傳感器;(?) 傳感器可能符合標準,但可能存在缺點;(? ?) 傳感器,可用于適應和額外的重型治療;(0)傳感器不能滿足標準或不適用;

        接下來,我們將目標檢測的各種貢獻分為Data Representation、Data Feature Extraction、Detection ModulePrediction Refinement Network四大類,如圖1所示.

        圖1.將基于深度學習的目標檢測的各種貢獻分為四大類,即數(shù)據(jù)表示法、數(shù)據(jù)特征提取、檢測模塊和預測細化網(wǎng)絡.
        • Point-based保留了點云的全部信息,如PointNet使用Point-based數(shù)據(jù)提取局部和全局特征.Voxel-based損失了部分點云位置信息,基于Voxel-based的特征提取有助于提高特征提取網(wǎng)絡的計算效率和減少內(nèi)存需求.基于Frustum-based的網(wǎng)絡有Frustum PointNet [46], Frustum ConvNet [47] and SIFRNet [48].PointPillars 使用 Pillar-based將將點云組織成垂直的柱狀,從而排除z坐標,例如PointPillars[49].除了使用三維體素表示外,一些方法(正視圖FV、 range view 、鳥瞰圖BEV)將信息壓縮到二維投影中,以減少三維激光雷達數(shù)據(jù)的高計算量.

        • 目標檢測模型中最關鍵的任務是提取特征,保證最佳的特征學習能力是至關重要的,Data Feature Extraction有如下幾種:

          圖4.稀疏卷積(SC)和子流形稀疏卷積(VSC).
        • PointNet[37]和PointNet++[38]是最著名的point-wise特征提取器.如下圖所示,PointNet用于幾何特征提取和對象分類,但由于每個點都單獨學習特征,忽略點間的關系,因此在捕獲相鄰點之間的局部結(jié)構(gòu)信息方面存在嚴重的局限性.

          圖2.PointNet結(jié)構(gòu)

          基于point-wise的方案對象檢測時間較長,因此引入了segment-wise.例如 VoxelNet [25], Second [29], Voxel-FPN [32], and HVNet [62].首先用體素構(gòu)造點云,然后使用圖3所示的特征提取器,允許網(wǎng)絡提取低維特征(對象邊緣、每個體素).與point-wise相比,segment-wise 可以應用 voxels pillars  frustums

          圖3.體素特征提取網(wǎng)絡的結(jié)構(gòu)

          • Object-Wise利用成熟的二維目標檢測,用于過濾點云和檢測圖像中的對象,然后得到的二維邊界用于三維對象的邊界框.

          • Convolutional Neural Networks中包含2D Backbone、3D Backbone,在三維空間中直接應用卷積將在計算上效率低下,并將嚴重增加計算量和模型的推理時間,因為三維表示處理自然比二維表示要長,更重要的是點云是稀疏的.因此,直接使用三維表示看起來是一項非常耗時的任務.而使用稀疏卷積(SC)子流形稀疏卷積(VSC)來處理稀疏數(shù)據(jù),可以有效地提取特征和更快的運行時間.

        三維目標檢測模型中的特征提取方法

        三維目標檢測模型中的特征提取方法,其中,檢測過程可能使用單級雙級架構(gòu)來學習全局特征,單級架構(gòu)和雙級的架構(gòu)通用表示如圖5所示.表2總結(jié)了目標檢測模型采用的特征提取方法.

        • 圖5.i)雙級檢測器結(jié)構(gòu)和 ii)單級檢測器結(jié)構(gòu)的通用表示
        表2.目標檢測模型常用的特征提取方法
        此外,特征的多尺度和以及不同特征的聚集有利于提高預測3D的性能.例如,研究項目Point RCNN證明,通過連接局部和全局特征來生成上下文特征,可以略微提高3D目標檢測性能(metric AP)高達2%[10].不聚合上下文信息會顯著影響模型性能,特別是在可用點數(shù)太少的情況下,例如,當對象被遮擋或遠離傳感器時.在這種情況下,多尺度特征學習方案起著重要的作用.它們的橫向連接和路徑提供了更豐富的語義信息,即使對于小尺寸的物體也是如此.表3展示了目標檢測模型常用的預測細化網(wǎng)絡.

        表3.目標檢測模型采用的預測細化網(wǎng)絡.
        • 下面,我們將在多種設置的環(huán)境下收集的數(shù)據(jù)進行比較,并分析了它們構(gòu)成.例如,在Waymo數(shù)據(jù)集上,大約有6.1M標記的車輛,只有2.98M標記的行人和騎自行車的人.KITTI基準由7.481k訓練圖像和7.518k測試圖像以及相應的點云組成,這些點云總共包括80.256k標記對象.這些基準還包括不同的類別,例如,KITTI包括3個類別:汽車、行人和自行車,而nuScenes包括23個類別的對象.
        表4.多種條件下傳感器收集數(shù)據(jù)比較.
        • 接下來無人駕駛車輛的目標模型的選擇,其中大多數(shù)項目使用RPN結(jié)構(gòu),以及使用PointNetPointNet++執(zhí)行實例或?qū)ο蠓指钊蝿?如表5所示.
        表5.文獻中提出的基于融合的無人駕駛汽車應用模型的設計選擇.
        • 由于基于融合的方法依賴于兩種不同類型的數(shù)據(jù)集,因此它們之間的同步和校準非常重要.如表6所示,這些方法總體上取得了較好的性能效果;然而,模型[45]、[46]、[51]、[113]計算效率低下,推理時間超過170ms,與僅使用激光雷達的方法相比,這些解決方案的運行速度很慢.盡管這些方法取得了良好的性能結(jié)果,但是他們嚴重依賴現(xiàn)成的2D物體檢測,不能接受利用3D信息生成更精確的邊界框.
        表6.KITTI-test3D檢測基準與融合模型的3D目標檢測模型結(jié)果比較
        • 如表7所示,大多數(shù)模型使用單階段架構(gòu),與雙階段模型相比單階段模型速度更快,但實現(xiàn)的3D目標檢測性能較低,然而,最近Point-RCNN[10], Fast Point R-CNN[31]等通過實現(xiàn)第二階段,顯著提高了3D檢測性能.這是因為模型的各個階段可以單獨訓練和評估,并且可以執(zhí)行額外的增強技術(shù),而且特征的多尺度、不同特征的聚合有利于提高3維目標檢測的性能.
        表7. KITTI測試集3D檢測基準上3D目標檢測模型結(jié)果的比較,激光雷達

        總結(jié)

        近年來,隨著3D傳感技術(shù)和計算技術(shù)的發(fā)展,用于目標檢測的深度學習模型的數(shù)據(jù)集得以擴展.本文對比分析了目前最先進的目標檢測方法,以滿足LiDAR或基于融合LiDAR的解決方案.除了對現(xiàn)有的不同方法進行系統(tǒng)研究外,還發(fā)現(xiàn)了一些存在的問題,如模型的可解釋性、復雜的感知場景、小物體或遮擋物體、正負不平衡采樣等,仍然是自動駕駛3維目標檢測的主要挑戰(zhàn).這些問題表明,盡管在自動駕駛目標檢測方面取得了最新進展,如無錨點檢測器、一級和兩級檢測器的組合以提高檢測精度和改進后處理NMS,代表了對現(xiàn)有模型的一些改進.對模型在不同階段的理解是解決問題的根本.最后總結(jié)了基于深度學習的LiDAR點云方法的一些挑戰(zhàn)和未來工作的可能方向.


        如果覺得有用,就請分享到朋友圈吧!

        △點擊卡片關注極市平臺,獲取最新CV干貨

        公眾號后臺回復“83”獲取朱思語:基于深度學習的視覺稠密建圖和定位~


        極市干貨
        YOLO教程:一文讀懂YOLO V5 與 YOLO V4大盤點|YOLO 系目標檢測算法總覽全面解析YOLO V4網(wǎng)絡結(jié)構(gòu)
        實操教程:PyTorch vs LibTorch:網(wǎng)絡推理速度誰更快?只用兩行代碼,我讓Transformer推理加速了50倍PyTorch AutoGrad C++層實現(xiàn)
        算法技巧(trick):深度學習訓練tricks總結(jié)(有實驗支撐)深度強化學習調(diào)參Tricks合集長尾識別中的Tricks匯總(AAAI2021
        最新CV競賽:2021 高通人工智能應用創(chuàng)新大賽CVPR 2021 | Short-video Face Parsing Challenge3D人體目標檢測與行為分析競賽開賽,獎池7萬+,數(shù)據(jù)集達16671張!


        極市原創(chuàng)作者激勵計劃 #


        極市平臺深耕CV開發(fā)者領域近5年,擁有一大批優(yōu)質(zhì)CV開發(fā)者受眾,覆蓋微信、知乎、B站、微博等多個渠道。通過極市平臺,您的文章的觀點和看法能分享至更多CV開發(fā)者,既能體現(xiàn)文章的價值,又能讓文章在視覺圈內(nèi)得到更大程度上的推廣。

        對于優(yōu)質(zhì)內(nèi)容開發(fā)者,極市可推薦至國內(nèi)優(yōu)秀出版社合作出書,同時為開發(fā)者引薦行業(yè)大牛,組織個人分享交流會,推薦名企就業(yè)機會,打造個人品牌 IP。

        投稿須知:
        1.作者保證投稿作品為自己的原創(chuàng)作品。
        2.極市平臺尊重原作者署名權(quán),并支付相應稿費。文章發(fā)布后,版權(quán)仍屬于原作者。
        3.原作者可以將文章發(fā)在其他平臺的個人賬號,但需要在文章頂部標明首發(fā)于極市平臺

        投稿方式:
        添加小編微信Fengcall(微信號:fengcall19),備注:姓名-投稿
        △長按添加極市平臺小編


        覺得有用麻煩給個在看啦~  
        瀏覽 38
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            毛片1000部免费看 | 欧美亚洲国产日韩 | 影音先锋少妇 | 高跟鞋少妇色情A片 | 馒头逼一线天 | 成人无码Aⅴ免费视频在线 | 久久99精品国产麻豆婷婷洗澡 | 91密臀这里只有精品 | 亚洲精品免费在线观看 | 亚洲青娱乐精品91 |