1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        Google發(fā)布語(yǔ)義分割新數(shù)據(jù)集!順帶開(kāi)發(fā)個(gè)模型屠榜,已被CVPR2021接收

        共 2411字,需瀏覽 5分鐘

         ·

        2021-04-29 01:51

        ↑ 點(diǎn)擊藍(lán)字 關(guān)注極市平臺(tái)

        來(lái)源丨新智元
        編輯丨極市平臺(tái)

        極市導(dǎo)讀

         

        自動(dòng)駕駛里視覺(jué)一直為人所詬病,特斯拉就是經(jīng)常被拉出來(lái)批判的典型。谷歌最近開(kāi)發(fā)了一個(gè)新模型,效果拔群,已被CVPR2021接收。>>公眾號(hào)后臺(tái)回復(fù)“79”或者“陳鑫”獲得CVPR 2021:TransT 直播鏈接

        對(duì)于人來(lái)說(shuō),看一張平面照片能夠想象到重建后的3D場(chǎng)景布局,能夠根據(jù)2D圖像中包含的有限信號(hào)來(lái)識(shí)別對(duì)象,確定實(shí)例大小并重建3D場(chǎng)景布局。

         

        這個(gè)問(wèn)題有一個(gè)術(shù)語(yǔ)叫做光學(xué)可逆問(wèn)題inverse optics problem,它是指從視網(wǎng)膜圖像到視網(wǎng)膜刺激源的模糊映射。

         

        現(xiàn)實(shí)世界中的計(jì)算機(jī)視覺(jué)應(yīng)用,例如自動(dòng)駕駛就嚴(yán)重依賴這些功能來(lái)定位和識(shí)別3D對(duì)象,這需要AI模型來(lái)推斷投影到2D圖像的每個(gè)3D點(diǎn)的空間位置、語(yǔ)義類(lèi)別和實(shí)例標(biāo)簽。

         

        從圖像重建3D世界的能力可以分解為兩個(gè)獨(dú)立的子任務(wù):?jiǎn)窝凵疃裙烙?jì)(從單個(gè)圖像預(yù)測(cè)深度)和視頻全景分割(實(shí)例分割和語(yǔ)義分割)。

         

        研究人員通常對(duì)每個(gè)任務(wù)提出不同的模型,通過(guò)在多個(gè)任務(wù)之間共享計(jì)算的模型權(quán)重。在實(shí)際應(yīng)用的時(shí)候,將這些任務(wù)與統(tǒng)一的計(jì)算機(jī)視覺(jué)模型一起處理可以簡(jiǎn)化部署提高效率。


         

        基于這個(gè)研究背景,Google提出一個(gè)全新的模型ViP-DeepLab,通過(guò)深度感知視頻全景分割來(lái)學(xué)習(xí)視覺(jué)感知,已被CVPR 2021接受,旨在同時(shí)解決單眼深度估計(jì)和視頻全景分割。

         

        論文中還導(dǎo)出了兩個(gè)數(shù)據(jù)集,并提出了一種稱(chēng)為深度感知視頻全景質(zhì)量(DVPQ)的新評(píng)估指標(biāo),這個(gè)新指標(biāo)可以同時(shí)評(píng)估深度估計(jì)和視頻全景分割。

         

        ViP-DeepLab是一個(gè)統(tǒng)一的模型,可以對(duì)圖像平面上的每個(gè)像素聯(lián)合執(zhí)行視頻全景分割和單眼深度估計(jì),并在子任務(wù)的幾個(gè)學(xué)術(shù)數(shù)據(jù)集取得了sota結(jié)果。

         



         

        ViP-DeepLab通過(guò)從兩個(gè)連續(xù)的幀作為輸入來(lái)執(zhí)行其他預(yù)測(cè),輸出包括第一幀的深度估計(jì),它為每個(gè)像素分配一個(gè)深度估計(jì)值。

         

        此外,ViP-DeepLab還對(duì)出現(xiàn)在第一幀中的對(duì)象中心執(zhí)行兩個(gè)連續(xù)幀的中心回歸,此過(guò)程稱(chēng)為中心偏移預(yù)測(cè),它允許兩個(gè)幀中的所有像素分組到出現(xiàn)在第一幀中的同一對(duì)象。如果未將新實(shí)例匹配到先前檢測(cè)到的實(shí)例中,則會(huì)出現(xiàn)新實(shí)例。

         

         

         

        ViP-DeepLab的輸出可以用于視頻全景分割。連接兩個(gè)連續(xù)的幀作為輸入。語(yǔ)義分割輸出將每個(gè)像素與其語(yǔ)義類(lèi)別相關(guān)聯(lián),而實(shí)例分割輸出則從與第一幀中的單個(gè)對(duì)象相關(guān)聯(lián)的兩個(gè)幀中識(shí)別像素,輸入圖像來(lái)自Cityscapes數(shù)據(jù)集。

         

         

        論文中在多個(gè)流行的基準(zhǔn)數(shù)據(jù)集上測(cè)試了ViP-DeepLab,包括Cityscapes-VPS,KITTI深度預(yù)測(cè)和KITTI多對(duì)象跟蹤和分段(MOTS)。

         

        ViP-DeepLab都取得了SOTA的結(jié)果,在Cityscapes-VPS測(cè)試上,其視頻全景質(zhì)量(VPQ)大大優(yōu)于以前的方法,達(dá)到了5.1%。

         

         

        在KITTI深度預(yù)測(cè)基準(zhǔn)上進(jìn)行單眼深度估計(jì)的比較,對(duì)于深度估算指標(biāo),值越小,性能越好。盡管差異可能看起來(lái)很小,但在此基準(zhǔn)上性能最高的方法通常在SILog中的間隙小于0.1。

         

         

        此外,VIP-DeepLab也在KITTI MOTS行人和汽車(chē)排名度量使用新的度量標(biāo)準(zhǔn)HOTA,都取得了顯著提升。

         


        最后,論文中還為新任務(wù)提供了兩個(gè)新的數(shù)據(jù)集,即深度感知視頻全景分割,并在其上測(cè)試了ViP-DeepLab,而這個(gè)模型的結(jié)果將成為社區(qū)進(jìn)行比較的基準(zhǔn)模型。

         

         

        ViP-DeepLab具有簡(jiǎn)單的體系結(jié)構(gòu),可在視頻全景分割,單眼深度估計(jì)以及多對(duì)象跟蹤和分割方面實(shí)現(xiàn)最先進(jìn)的性能,這個(gè)模型也能幫助進(jìn)一步研究對(duì)2D場(chǎng)景中的真實(shí)世界。


        參考資料:

        https://ai.googleblog.com/2021/04/holistic-video-scene-understanding-with.html



        如果覺(jué)得有用,就請(qǐng)分享到朋友圈吧!

        △點(diǎn)擊卡片關(guān)注極市平臺(tái),獲取最新CV干貨

        公眾號(hào)后臺(tái)回復(fù)“李鐸”獲取【極市線下沙龍】CVPR2021:通過(guò)反轉(zhuǎn)卷積的內(nèi)在性質(zhì)進(jìn)行視覺(jué)識(shí)別資源


        極市干貨

        YOLO教程:YOLO系列(從V1到V5)模型解讀YOLO算法最全綜述:從YOLOv1到Y(jié)OLOv5

        實(shí)操教程使用Transformer來(lái)做物體檢測(cè)?DETR模型完整指南PyTorch編譯并調(diào)用自定義CUDA算子的三種方式

        算法技巧(trick)半監(jiān)督深度學(xué)習(xí)訓(xùn)練和實(shí)現(xiàn)8點(diǎn)PyTorch提速技巧匯總

        最新CV競(jìng)賽:2021 高通人工智能應(yīng)用創(chuàng)新大賽CVPR 2021 | Short-video Face Parsing Challenge



        CV技術(shù)社群邀請(qǐng)函 #

        △長(zhǎng)按添加極市小助手
        添加極市小助手微信(ID : cvmart2)

        備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測(cè)-深圳)


        即可申請(qǐng)加入極市目標(biāo)檢測(cè)/圖像分割/工業(yè)檢測(cè)/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群


        每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競(jìng)賽、干貨資訊匯總、與 10000+來(lái)自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺(jué)開(kāi)發(fā)者互動(dòng)交流~



        覺(jué)得有用麻煩給個(gè)在看啦~  
        瀏覽 35
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            www.精品在线 | 91黄色成人 | 日皮黄色三片 | 嗯啊嗯啊用力插 | 一级片弄逼 | 人人添人人澡人人澡人人人人 | 爽爽窝窝午夜精品一区二区 | 日韩欧美三级片www麻豆 | 女18一成人免费A级毛片 | 伊人成人在线视频观看 |