1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        基于激光雷達的高效語義SLAM

        共 3723字,需瀏覽 8分鐘

         ·

        2021-01-22 10:10

        點擊上方小白學視覺”,選擇加"星標"或“置頂

        重磅干貨,第一時間送達

        推薦閱讀

        42個pycharm使用技巧,瞬間從黑鐵變王者

        Google C++項目編程風格指南 (中文版) 分享

        本文來源:智駕最前沿,編輯:智車科技


        /?導讀?/


        可靠、準確的定位和建圖是大多數(shù)自動駕駛系統(tǒng)的關鍵組件.除了關于環(huán)境的幾何信息之外,語義對于實現(xiàn)智能導航行為也起著重要的作用.在大多數(shù)現(xiàn)實環(huán)境中,由于移動對象引起的動態(tài)變化,這一任務特別復雜,這可能會破壞定位.我們提出一種新的基于語義信息的激光雷達SLAM系統(tǒng)來更好地解決真實環(huán)境中的定位與建圖問題.通過集成語義信息來促進建圖過程,從而利用三維激光距離掃描.語義信息由全卷積神經(jīng)網(wǎng)絡有效提取,并呈現(xiàn)在激光測距數(shù)據(jù)的球面投影上.這種計算的語義分割導致整個掃描的點狀標記,允許我們用標記的表面構(gòu)建語義豐富的地圖.這種語義圖使我們能夠可靠地過濾移動對象,但也通過語義約束改善投影掃描匹配.我們對極少數(shù)靜態(tài)結(jié)構(gòu)和大量移動車輛的KITTI數(shù)據(jù)集進行的具有挑戰(zhàn)性的公路序列的實驗評估表明,與純幾何的、最先進的方法相比,我們的語義SLAM方法具有優(yōu)勢.


        對大多數(shù)自動駕駛車輛來說,精確定位和對未知環(huán)境的可靠測繪是基礎.此類系統(tǒng)通常在高度動態(tài)的環(huán)境中運行,這使得生成一致的地圖更加困難.此外需要關于建圖區(qū)域的語義信息來實現(xiàn)智能導航行為.例如自動駕駛汽車必須能夠可靠地找到合法停車的位置,或者在乘客可能安全離開的地方靠邊停車——即使是在從來沒有看到過的地方,因此以前沒有準確地圖.


        本文的主要貢獻是將語義集成到基于表面的地圖表示中的方法,以及利用這些語義標簽過濾動態(tài)對象的方法。總之,我們聲稱我們能夠準確地繪制環(huán)境地圖,尤其是在有大量移動對象的情況下,并且我們能夠?qū)崿F(xiàn)比相同的建圖系統(tǒng)更好的性能,簡單地移除一般環(huán)境中可能移動的對象,包括城市、農(nóng)村和高速公路場景.我們在KITTI的挑戰(zhàn)序列上實驗性地評估了我們的方法,并顯示了與純粹基于幾何表面的建圖和基于類標簽移除所有潛在移動對象的建圖相比,我們的語義表面建圖方法SuMa++的優(yōu)越性能.


        實驗評估


        我們使用來自KITTI的數(shù)據(jù)評估我們的方法,其中我們使用由Velodyne HDL-64E S2以10Hz的速率記錄生成的提供的點云.為了評估里程計的性能,數(shù)據(jù)集建議計算在不同位姿之間的不同距離上平均的平移和旋轉(zhuǎn)的相對誤差,并對其進行平均.地面真實位姿是使用來自慣性導航系統(tǒng)的姿態(tài)信息生成的.



        在下文中,我們將我們提出的方法(由SuMa++表示)與原始的基于surfel的建圖(由SuMa表示)進行比較,并將SuMa與刪除語義分割(由SuMa nomovable表示)給出的所有可移動類(汽車、公共汽車、卡車、自行車、摩托車、其他車輛、人、騎自行車的人、摩托車手)的簡單方法進行比較.


        語義分割的RangeNet++是使用逐點注釋[1]使用KITTI里程計基準的所有訓練序列進行訓練的,這些標記可用于訓練目的。這包括序列00至10,但序列08除外,該序列未進行驗證。


        RangeNet++平均需要75毫秒來為每次掃描生成逐點標簽,surfer-mapping平均需要48毫秒,但在某些情況下,我們最多需要190毫秒來集成循環(huán)閉包(在具有多個閉環(huán)的訓練集序列00上).


        1、KITTI Road Sequences


        第一個實驗旨在展示我們的方法能夠生成一致的地圖,即使在有許多移動對象的情況下.我們顯示了KITTI的原始數(shù)據(jù)道路類別的序列結(jié)果.請注意,這些序列不是里程計基準的一部分,因此沒有提供標簽對于語義分割,這意味著我們的網(wǎng)絡學會了推斷道路駕駛場景的語義類別,而不是簡單的記憶.這些序列,尤其是高速公路序列,對SLAM方法來說是具有挑戰(zhàn)性的,因為這里大多數(shù)物體都是移動的汽車.此外路邊只有稀疏的明顯特征,如交通標志或電線桿.建筑角或其他更有特色的特征不可用于指導注冊過程.在這種情況下,在不斷移動的異常值上的錯誤對應(如交通堵塞中的汽車)通常會導致錯誤估計的姿態(tài)變化,因此生成的地圖不一致.




        圖6顯示了用SuMa和提出的SuMa++生成的示例.在純幾何方法的情況下,我們清楚地看到姿態(tài)無法正確估計,因為突出顯示的交通標志出現(xiàn)在不同的位置,導致很大的不一致.在我們提出的方法中,我們能夠正確地過濾移動的汽車,相反,我們生成一致的地圖,如突出顯示的交通標志.在這個例子中,我們還繪制了SuMa和SuMa++的里程計結(jié)果的相對平移誤差.圓點代表每個時間戳中的相對平移誤差,曲線是給定圓點的多項式擬合結(jié)果.它表明SuMa++在這樣一個具有挑戰(zhàn)性的環(huán)境中實現(xiàn)了更準確的姿態(tài)估計,其中許多異常值是由移動對象引起的.




        表1顯示了相對平移和相對旋轉(zhuǎn)誤差,圖7顯示了在數(shù)據(jù)集的這一部分測試的不同方法的相應軌跡.一般來說,我們看到我們提出的方法SuMa++生成了更一致的軌跡,并且在大多數(shù)情況下實現(xiàn)了比SuMa更低的平移誤差.與僅僅移除所有可能移動的對象的基線相比,SuMa是不可移動的,與SuMa++相比,我們看到非常相似的性能.這證實了SuMa在這種情況下性能更差的主要原因是由實際移動的對象引起的不一致.然而我們將在接下來的實驗中表明,移除所有潛在的移動對象也會對城市環(huán)境中的姿態(tài)估計性能產(chǎn)生負面影響.


        2、KITTI Odometry Benchmark


        第二個實驗旨在表明,與簡單地從觀察中移除某些語義類相比,我們的方法表現(xiàn)更好。該評估在KITTI里程計基準上進行



        表2表示相對平移和相對旋轉(zhuǎn)誤差。IMLS-SLAM和Loam是基于激光雷達的最先進的SLAM方法。在大多數(shù)序列中,我們可以看到SuMa++的性能與最先進的。更有趣的是,基線方法有不可解決的分歧,尤其是在城市場景中.


        這可能是反直覺的,因為這些環(huán)境包含大量的人造結(jié)構(gòu)和其他更有特色的特征。但是,有兩個原因?qū)е铝诉@種糟糕的性能,當人們查看結(jié)果和發(fā)生映射錯誤的場景的配置時,就會明白這一點。首先,即使我們試圖改善語義分割的結(jié)果,也有錯誤的預測導致地圖中實際上是靜態(tài)的表面元素被移除。第二,移除停放的汽車是個問題,因為這些是對齊掃描的好的和獨特的特征。這兩種效果都有助于使表面貼圖更稀疏。這一點更為關鍵,因為停放的汽車是唯一與眾不同或可靠的特征。總之,簡單地刪除某些類至少在我們的情況下是次優(yōu)的,并且會導致更差的性能.


        為了評估我們的方法在未知軌跡上的性能,我們上傳了未知KITTI測試序列的服務器端評估結(jié)果,因此測試集上的參數(shù)調(diào)整是不可能的。因此,這可以很好地代表我們方法的實際性能。在測試組中,我們獲得了0.0032度/米的平均旋轉(zhuǎn)誤差和1.06%的平均平移誤差,與原始SuMa的0.0032度/米和1.39%相比,這是平移誤差方面的改進.





        結(jié)論


        在本文中,我們提出了一種新的方法來建立語義地圖,使基于激光的語義分割點云不需要任何相機數(shù)據(jù). 我們利用這一信息來提高姿態(tài)估計的準確性,特別是我們的方法利用掃描和地圖之間的語義一致性來過濾掉動態(tài)對象,并在比較方案過程中提供更高級別的約束.這使得我們能夠僅基于三維激光距離掃描成功地組合語義和幾何信息,以實現(xiàn)比純幾何方法更好的姿態(tài)估計精度.我們在KITTI Vision基準數(shù)據(jù)集上評估了我們的方法,顯示了我們的方法與純幾何方法相比的優(yōu)勢。

        下載1:OpenCV-Contrib擴展模塊中文版教程
        在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

        下載2:Python視覺實戰(zhàn)項目31講
        小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目31講即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內(nèi)容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

        下載3:OpenCV實戰(zhàn)項目20講
        小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學習進階。

        下載4:leetcode算法開源書
        小白學視覺公眾號后臺回復:leetcode即可下載。每題都 runtime beats 100% 的開源好書,你值得擁有!





        交流群


        歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~


        瀏覽 45
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            午夜精品蜜桃 | 午夜免费性爱视频 | 久久日韩乱码一二三四区别 | 日韩中文在线观看 | 91无码一区二区 | 国产变态口味重另类 | 黄色片网站国产干 | 透明人1未删减版啪啪 | 男女午夜久久久激情视频 | 秘 看片黄全部免费 |