>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺(jué)的最..." />
    1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        ECCV 2020 目標(biāo)跟蹤論文大盤點(diǎn)

        共 6545字,需瀏覽 14分鐘

         ·

        2020-10-06 20:10

        ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺(tái)

        作者丨CV君
        來(lái)源丨我愛(ài)計(jì)算機(jī)視覺(jué)
        編輯丨極市平臺(tái)

        極市導(dǎo)讀

        ?

        本文盤點(diǎn)了ECCV 2020中的目標(biāo)跟蹤相關(guān)研究,包括一部分業(yè)內(nèi)非常知名的工作,值得關(guān)注。>>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺(jué)的最前沿


        本文盤點(diǎn)ECCV 2020 所有與跟蹤相關(guān)的研究,單指目標(biāo)的跟蹤,不涉及人體姿態(tài)等點(diǎn)的跟蹤,總計(jì)19篇文章,其中12篇開(kāi)源或者將開(kāi)源。

        其中多目標(biāo)跟蹤、單目標(biāo)跟蹤、對(duì)抗學(xué)習(xí)+目標(biāo)跟蹤研究工作較多。其中有已經(jīng)特別知名的工作,比如來(lái)自CenterNet思想延申的?Tracking Objects as Points?,非常值得關(guān)注。

        下載包含這些論文的 ECCV 2020 所有論文:

        https://www.ecva.net/papers.php

        多目標(biāo)跟蹤 MOT

        Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking
        作者 |?Jinlong Peng,?Changan Wang,?Fangbin Wan,?Yang Wu,?Yabiao Wang,?Ying Tai,?Chengjie Wang,?Jilin Li,?Feiyue Huang,?Yanwei Fu
        單位 | 騰訊優(yōu)圖;復(fù)旦大學(xué);奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)
        論文 |?https://arxiv.org/abs/2007.14557
        代碼 |?https://github.com/pjl1995/CTracker
        備注?|?ECCV 2020?Spotlight
        視頻丨h(huán)ttps://v.qq.com/x/page/k3152fqim69.html


        Segment as Points for Efficient Online Multi-Object Tracking and?Segmentation
        作者 |?Zhenbo Xu,?Wei Zhang,?Xiao Tan,?Wei Yang,?Huan Huang,?Shilei Wen,?Errui Ding,?Liusheng Huang
        單位 |?中國(guó)科學(xué)技術(shù)大學(xué);百度
        論文 |?https://arxiv.org/abs/2007.01550
        代碼 |?https://github.com/detectRecog/PointTrack
        備注 |?ECCV2020?Oral
        以點(diǎn)來(lái)分割,高效的在線多目標(biāo)跟蹤和分割


        Tracking Objects as Points
        作者 |?Xingyi Zhou,?Vladlen Koltun,?Philipp Kr?henbühl
        單位 |?得克薩斯大學(xué)奧斯汀分校;英特爾
        論文 |?https://arxiv.org/abs/2004.01177
        代碼 |?https://github.com/xingyizhou/CenterTrack
        備注?|?ECCV 2020?Spotlight
        以22 FPS的速度在MOT17數(shù)據(jù)集上實(shí)現(xiàn)了67.3%的MOTA,以15 FPS的速度在KITTI跟蹤基準(zhǔn)上實(shí)現(xiàn)了89.4%的MOTA。

        CenterTrack在最新發(fā)布的nuScenes 3D跟蹤基準(zhǔn)上達(dá)到了28.3%[email protected],在28 FPS的運(yùn)行速度下,大幅超越了該基準(zhǔn)上的單目基線。

        Demo(openpose和YOLO的視頻文件):

        ?

        3D?目標(biāo)跟蹤 demo?:


        Towards Real-Time Multi-Object Tracking
        作者 |?Zhongdao Wang,?Liang Zheng,?Yixuan Liu,?Yali Li,?Shengjin Wang
        單位 | 清華大學(xué);澳大利亞國(guó)立大學(xué)
        論文 |?https://arxiv.org/abs/1909.12605
        代碼 |?https://github.com/Zhongdao/Towards-Realtime-MOT
        備注?|?ECCV 2020
        在以往的工作中,多目標(biāo)跟蹤系統(tǒng)的檢測(cè)和表觀嵌入模塊使分離的,該文使檢測(cè)與表觀嵌入共享模型,設(shè)計(jì)了第一個(gè)實(shí)時(shí)的MOT系統(tǒng),隨分辨率不同其運(yùn)行速度為22至40 FPS。同時(shí),它的跟蹤精度與SOTA的分離模型相近。


        Simultaneous Detection and Tracking with Motion Modelling for Multiple Object Tracking
        作者 | ShiJie Sun, Naveed Akhtar, XiangYu Song, HuanSheng Song, Ajmal Mian , Mubarak Shah
        單位 |?長(zhǎng)安大學(xué);西澳大學(xué);迪肯大學(xué);中佛羅里達(dá)大學(xué)
        論文 |?https://www.ecva.net/papers/eccv_2020/
        papers_ECCV/papers/123690613.pdf
        代碼 |?https://github.com/shijieS/OmniMOTDataset
        備注?|?ECCV 2020



        單目標(biāo)跟蹤


        PG-Net: Pixel to Global Matching Network for Visual Tracking
        作者 | Bingyan Liao, Chenye Wang, Yayun Wang, Yaonong Wang, Jun Yin
        單位 |?浙江大華技術(shù)股份有限公司
        論文 |?https://www.ecva.net/papers/eccv_2020/
        papers_ECCV/papers/123670426.pdf
        備注?|?ECCV 2020


        CLNet: A Compact Latent Network for Fast Adjusting Siamese Trackers
        作者 | Xingping Dong, Jianbing Shen, Ling Shao, Fatih Porikli
        單位 | Inception Institute of Artificial Intelligence;Mohamed bin Zayed University of Artificial Intelligence;Australian National University
        論文 |?https://www.ecva.net/papers/eccv_2020/
        papers_ECCV/papers/123650375.pdf
        代碼 |?https://github.com/xingpingdong/CLNet-tracking
        備注 |?ECCV 2020


        Learning Feature Embeddings for Discriminant Model based Tracking
        作者 |?Linyu Zheng,?Ming Tang,?Yingying Chen,?Jinqiao Wang,?Hanqing Lu
        單位 | 中科院;國(guó)科大;深圳英飛拓科技股份有限公司;ObjectEye Inc
        論文 |?https://arxiv.org/abs/1906.10414
        代碼 |?https://github.com/noneUmbrella/DCFST
        備注?|?ECCV 2020


        Object Tracking using Spatio-Temporal Networks for Future Prediction Location
        作者 | Yuan Liu, Ruoteng Li, Yu Cheng, Robby T. Tan, Xiubao Sui
        單位 |?南京理工大學(xué);新加坡國(guó)立大學(xué);耶魯-新加坡國(guó)立大學(xué)學(xué)院
        論文 |?https://www.ecva.net/papers/eccv_2020/
        papers_ECCV/papers/123670001.pdf
        備注?|?ECCV 2020
        利用 Spatio-Temporal 網(wǎng)絡(luò)進(jìn)行目標(biāo)跟蹤,實(shí)現(xiàn)未來(lái)的預(yù)測(cè)定位。


        Know Your Surroundings: Exploiting Scene Information for Object Tracking
        作者 |?Goutam Bhat,?Martin Danelljan,?Luc Van Gool,?Radu Timofte
        單位 | 蘇黎世聯(lián)邦理工學(xué)院
        論文 |?https://arxiv.org/abs/2003.11014
        備注?|?ECCV 2020
        利用場(chǎng)景信息用于目標(biāo)跟蹤,所提出的方法在3個(gè)跟蹤基準(zhǔn)上創(chuàng)造了新SOTA,在最近的GOT-10k數(shù)據(jù)集上實(shí)現(xiàn)了63.6%的AO得分。


        Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping
        作者 |?Adam W. Harley,?Shrinidhi K. Lakshmikanth,?Paul Schydlo,?Katerina Fragkiadaki
        單位 | 卡內(nèi)基梅隆大學(xué)
        論文 |?https://arxiv.org/abs/2008.01295
        代碼 |?https://github.com/aharley/neural_3d_tracking(未開(kāi)源)
        備注?|?ECCV 2020
        通過(guò)觀察靜態(tài)場(chǎng)景,跟蹤出現(xiàn)的新來(lái)目標(biāo)。


        RGBT 跟蹤


        Challenge-Aware RGBT Tracking
        作者 |?Chenglong Li,?Lei Liu,?Andong Lu,?Qing Ji,?Jin Tang
        單位 | 安徽大學(xué)
        論文 |?https://arxiv.org/abs/2007.13143
        備注?|?ECCV 2020
        RGB與熱源信號(hào)的目標(biāo)跟蹤。

        Anchor-free?跟蹤


        Ocean: Object-aware Anchor-free Tracking
        作者 |?Zhipeng Zhang,?Houwen Peng,?Jianlong Fu,?Bing Li,?Weiming Hu
        單位 | CASIA & AI School;微軟
        論文 |?https://arxiv.org/abs/2006.10721
        代碼 |?https://github.com/researchmm/TracKit
        備注?|?ECCV 2020
        Anchor-free 跟蹤器在VOT-2018、VOT-2019、OTB-100、GOT-10k和LaSOT等五個(gè)基準(zhǔn)上實(shí)現(xiàn)了SOTA。
        視頻demo:
        https://v.qq.com/x/page/c3152x4cg54.html


        遠(yuǎn)程眼動(dòng)跟蹤


        Deep Learning-based Pupil Center Detection for Fast and Accurate Eye Tracking System
        作者 | Kang Il Lee, Jung Ho Jeon, Byung Cheol Song
        單位 | 韓國(guó)仁荷大學(xué)
        論文 |?https://www.ecva.net/papers/eccv_2020/
        papers_ECCV/papers/123640035.pdf
        備注?|?ECCV 2020
        所提出的系統(tǒng)不僅在通用計(jì)算機(jī)環(huán)境下可達(dá)到52 FPS,而且在BioID、GI4E和Talking Face Video數(shù)據(jù)集的精細(xì)度精度方面分別達(dá)到96.71%、99.84%和96.38%。
        視頻丨h(huán)ttps://v.qq.com/x/page/y3152g4y78s.html

        對(duì)抗學(xué)習(xí)+目標(biāo)跟蹤


        SPARK: Spatial-aware Online Incremental Attack Against Visual Tracking
        作者 |?Qing Guo,?Xiaofei Xie,?Felix Juefei-Xu,?Lei Ma,?Zhongguo Li,?Wanli Xue,?Wei Feng,?Yang Liu
        單位 | 天津大學(xué);南洋理工大學(xué);阿里;Kyushu University;天津理工大學(xué)
        論文 |?https://arxiv.org/abs/1910.08681
        備注?|?ECCV 2020


        Efficient Adversarial Attacks for Visual Object Tracking
        作者 |?Siyuan Liang,?Xingxing Wei,?Siyuan Yao,?Xiaochun Cao
        單位 | 中科院;國(guó)科大;鵬城實(shí)驗(yàn)室;北航
        論文 |?https://arxiv.org/abs/2008.00217
        備注?|?ECCV 2020
        FAN可以在10ms內(nèi)生成一個(gè)對(duì)抗性實(shí)例,實(shí)現(xiàn)有效的針對(duì)性攻擊(OTB上至少40%的drop rate)和非針對(duì)性攻擊(OTB上至少70%的drop rate)。


        Robust Tracking against Adversarial Attacks
        作者 |?Shuai Jia,?Chao Ma,?Yibing Song,?Xiaokang Yang
        單位 | 上海交通大學(xué);騰訊AI
        論文 |?https://arxiv.org/abs/2007.09919
        代碼 |?https://github.com/joshuajss/RTAA
        備注?|?ECCV 2020


        細(xì)胞跟蹤


        細(xì)胞跟蹤,弱監(jiān)督學(xué)習(xí)
        Weakly-Supervised Cell Tracking via Backward-and-Forward Propagation
        作者 |?Kazuya Nishimura,?Junya Hayashida,?Chenyang Wang,?Dai Fei Elmer Ker,?Ryoma Bise
        單位 | 日本九州大學(xué);港中文
        論文 |?https://arxiv.org/abs/2007.15258
        代碼 |?https://github.com/naivete5656/WSCTBFP
        備注?|?ECCV 2020


        數(shù)據(jù)集


        大規(guī)模多類別目標(biāo)跟蹤數(shù)據(jù)集
        TAO: A Large-Scale Benchmark for Tracking Any Object
        作者 | Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan
        單位 | CMU;Inria;Argo AI
        論文 | https://arxiv.org/abs/2005.10356
        代碼 | http://taodataset.org/#



        推薦閱讀


        ACCV 2020國(guó)際細(xì)粒度網(wǎng)絡(luò)圖像識(shí)別競(jìng)賽即將開(kāi)賽!
        添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測(cè)-深圳),即可申請(qǐng)加入極市目標(biāo)檢測(cè)/圖像分割/工業(yè)檢測(cè)/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群:每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競(jìng)賽、干貨資訊匯總、與?10000+來(lái)自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺(jué)開(kāi)發(fā)者互動(dòng)交流~

        △長(zhǎng)按添加極市小助手

        △長(zhǎng)按關(guān)注極市平臺(tái),獲取最新CV干貨

        覺(jué)得有用麻煩給個(gè)在看啦~??
        瀏覽 91
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            成人做爰A片免费看黄冈白狐影院 | www.色五月.com | 欧美在线 | 亚洲 | 豆花视频在线观看 | 亚洲AV综合在线观看 | 国产成人在线免费观看视频 | 中国人操逼视频 | 午夜成人无码福利 | japonensis少妇最高潮 | 国内拍自拍偷自拍视频2022 |