>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)..." />
    1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        ECCV 2020 GigaVision挑戰(zhàn)賽“行人和車輛檢測(cè)”和“多目標(biāo)追蹤”冠軍方案解讀

        共 8453字,需瀏覽 17分鐘

         ·

        2020-10-09 15:23

        ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺(tái)

        來(lái)源丨DeepBlue深蘭科技
        編輯丨極市平臺(tái)

        極市導(dǎo)讀

        ?

        本文介紹了首屆GigaVision挑戰(zhàn)賽“行人和車輛檢測(cè)”和“多目標(biāo)追蹤”兩個(gè)賽道的難點(diǎn)以及冠軍方案的工作細(xì)節(jié)。>>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺(jué)的最前沿


        日前,全球計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2020落下帷幕,各項(xiàng)挑戰(zhàn)賽的結(jié)果也塵埃落定。深蘭科技DeepBlueAI 團(tuán)隊(duì)包攬了首屆GigaVision挑戰(zhàn)賽“行人和車輛檢測(cè)”和“多目標(biāo)追蹤”兩個(gè)賽道的冠軍。


        過(guò)去十年中,行人檢測(cè)、跟蹤、動(dòng)作識(shí)別、異常檢測(cè)、屬性識(shí)別等以人為中心的計(jì)算機(jī)視覺(jué)分析任務(wù)引起了人們的極大關(guān)注,為了促進(jìn)新的算法來(lái)理解大規(guī)模現(xiàn)實(shí)世界場(chǎng)景中復(fù)雜的人群活動(dòng)及社交行為,可把圖像放大千倍的十億級(jí)別像素目標(biāo)檢測(cè),將在例如人臉識(shí)別、無(wú)人駕駛、監(jiān)控安防和智能手機(jī)等多個(gè)領(lǐng)域被廣泛應(yīng)用。

        計(jì)算機(jī)視覺(jué)作為深蘭科技的核心技術(shù)之一,其實(shí)力已在多個(gè)國(guó)際頂會(huì)競(jìng)賽中得以驗(yàn)證,并已應(yīng)用于不同領(lǐng)域的產(chǎn)品中,包括疫情期間發(fā)揮了極大作用的深蘭AI熱感視覺(jué)行為監(jiān)控系統(tǒng)-貓頭鷹,在廣州、深圳、武漢、上海、長(zhǎng)沙等多地獲得自動(dòng)駕駛路測(cè)牌照的熊貓智能公交車,以及各類機(jī)器人和智能零售產(chǎn)品等。

        GigaVision賽題介紹


        以人為中心的各項(xiàng)計(jì)算機(jī)視覺(jué)分析任務(wù),例如行人檢測(cè),跟蹤,動(dòng)作識(shí)別,異常檢測(cè),屬性識(shí)別等,在過(guò)去的十年中引起了人們的極大興趣。

        為了對(duì)大規(guī)模時(shí)空范圍內(nèi)具有高清細(xì)節(jié)的人群活動(dòng)進(jìn)行跨越長(zhǎng)時(shí)間、長(zhǎng)距離分析,清華大學(xué)智能成像實(shí)驗(yàn)室推出一個(gè)新的十億像素視頻數(shù)據(jù)集:PANDA。

        該數(shù)據(jù)集是在多種自然場(chǎng)景中收集,旨在為社區(qū)貢獻(xiàn)一個(gè)標(biāo)準(zhǔn)化的評(píng)測(cè)基準(zhǔn),以研究新的算法來(lái)理解大規(guī)?,F(xiàn)實(shí)世界場(chǎng)景中復(fù)雜的人群活動(dòng)及社交行為。圍繞PANDA數(shù)據(jù)集,主辦方組織了GigaVision 2020挑戰(zhàn)賽。

        ?
        本次的挑戰(zhàn)賽同時(shí)是ECCV2020的Workshop:「GigaVision: When Gigapixel Videography Meets Computer Vision」。

        任務(wù)介紹


        挑戰(zhàn)賽的任務(wù)是在由十億像素相機(jī)收集的大范圍自然場(chǎng)景視覺(jué)數(shù)據(jù)集PANDA上進(jìn)行圖像目標(biāo)檢測(cè)和視頻多目標(biāo)跟蹤。


        Sub-Track 1 : Pedestrian & Vehicle Detection

        這項(xiàng)任務(wù)是為了推動(dòng)在十億像素圖像上的目標(biāo)檢測(cè)技術(shù)的發(fā)展。挑戰(zhàn)的參與者需要檢測(cè)兩類目標(biāo):行人和車輛。對(duì)于每個(gè)行人,需要提交三類檢測(cè)框:可見(jiàn)身體范圍框、全身范圍框、行人頭部范圍框。對(duì)于每個(gè)車輛,需要提交可見(jiàn)范圍框。一些特殊的區(qū)域(如假人、極度擁擠的人群、車群、被嚴(yán)重遮擋的人等)將在評(píng)估中被忽略。

        Sub-Track 2 : Multi-Pedestrian Tracking

        這項(xiàng)任務(wù)是為了推動(dòng)在十億像素視頻上的多目標(biāo)追蹤技術(shù)的發(fā)展。PANDA寬視場(chǎng)、多目標(biāo)、高分辨的優(yōu)越性能使特別適合于多目標(biāo)長(zhǎng)時(shí)間追蹤任務(wù)。然而,巨大的同類目標(biāo)尺度變化和擁有豐富行人擁擠、遮擋的復(fù)雜場(chǎng)景也帶來(lái)了各種挑戰(zhàn)。在給定輸入視頻序列的情況下,該任務(wù)需要參與者提交行人在視頻中的軌跡。

        評(píng)測(cè)指標(biāo)


        對(duì)于賽道一,類似于MS COCO數(shù)據(jù)集的評(píng)估方案,主辦方采用AP、APIOU=0.50、APIOU=0.75、ARmax=10、ARmax=100、ARmax=500五個(gè)指標(biāo)來(lái)評(píng)估檢測(cè)算法的結(jié)果。最終的排名依據(jù)于 AP 和 ARmax=500?兩項(xiàng)指標(biāo)的調(diào)和平均數(shù),高者為優(yōu)。
        ?? ? ??? ? ? ?
        對(duì)于賽道二,與MOTChallenge[2]中使用的評(píng)測(cè)方法類似,主辦方采用了包括MOTA、MOTP、IDF1、FAR、MT和Hz等指標(biāo)來(lái)評(píng)估多目標(biāo)追蹤算法的結(jié)果。最終的排名依據(jù)于 MOTA 和 MOTP 兩項(xiàng)指標(biāo)的調(diào)和平均數(shù),高者為優(yōu)。

        DeepBlueAI團(tuán)隊(duì)榮獲兩項(xiàng)第一


        任務(wù)一:


        ?? ? ? ?????
        任務(wù)二:
        ?? ? ? ?

        賽題特點(diǎn)



        圖像分辨率極高、近景和遠(yuǎn)景目標(biāo)尺度差異大。
        ?
        十億像素級(jí)的超高分辨率是整個(gè)數(shù)據(jù)集的核心問(wèn)題。一方面,由于計(jì)算資源的限制,超高分辨率使得網(wǎng)絡(luò)無(wú)法接受大圖作為輸入,而單純將原圖縮放到小圖會(huì)使得目標(biāo)丟失大量信息。另一方面,圖像中近景和遠(yuǎn)景的目標(biāo)尺度差異大,給檢測(cè)器帶來(lái)了巨大的挑戰(zhàn)。
        ?
        目標(biāo)在圖像中分布密集,并且遮擋嚴(yán)重。
        ?
        數(shù)據(jù)集均從廣場(chǎng)、學(xué)校、商圈等真實(shí)場(chǎng)景采集,其人流和車輛密度極大。同時(shí),行人和車輛的擁擠、遮擋等情況頻發(fā),容易造成目標(biāo)的漏檢和誤檢。

        主要工作


        賽道一 Pedestrian & Vehicle Detection


        根據(jù)以往積累的經(jīng)驗(yàn),團(tuán)隊(duì)首先將原圖縮放到合適尺度,并使用基于Cascade RCNN的檢測(cè)器直接檢測(cè)行人的三個(gè)類別和車輛,將其作為Baseline: Backbone + DCN + FPN + Cascade RCNN,并在此基礎(chǔ)上進(jìn)行改進(jìn)。?

        ? ? ? ?? ? ??

        實(shí)驗(yàn)結(jié)果顯示,模型存在大量的誤檢和漏檢。這些漏檢和無(wú)意義的檢測(cè)結(jié)果大幅降低了模型的性能。團(tuán)隊(duì)將上述問(wèn)題歸納為兩方面的原因:


        1、訓(xùn)練和測(cè)試時(shí)輸入模型的圖像尺度不合適。圖像經(jīng)過(guò)縮放后,目標(biāo)的尺度也隨之變小,導(dǎo)致遠(yuǎn)景中人的頭部等區(qū)域被大量遺漏。

        2、網(wǎng)絡(luò)本身的分類能力較弱。行人的可見(jiàn)區(qū)域和全身區(qū)域十分相似,容易對(duì)分類器造成混淆,從而產(chǎn)生誤檢。


        ?
        根據(jù)上述問(wèn)題,團(tuán)隊(duì)進(jìn)行了一些改進(jìn)。
        ?
        首先,使用滑動(dòng)窗口的方式切圖進(jìn)行訓(xùn)練?;瑒?dòng)窗口切圖是一種常用的大圖像處理方式,這樣可以有效的保留圖像的高分辨率信息,使得網(wǎng)絡(luò)獲得的信息更加豐富。如果某個(gè)目標(biāo)處于切圖邊界,根據(jù)其IOF大于0.5來(lái)決定是否保留。
        ?
        其次,對(duì)于每個(gè)類別采用一個(gè)單獨(dú)的檢測(cè)器進(jìn)行檢測(cè)。經(jīng)過(guò)實(shí)驗(yàn)對(duì)比,對(duì)每個(gè)類別采用單獨(dú)的檢測(cè)器可以有效的提高網(wǎng)絡(luò)的效果,尤其是對(duì)于可見(jiàn)區(qū)域和全身區(qū)域兩類。
        ?
        同時(shí)向檢測(cè)器添加了Global Context (GC) block來(lái)進(jìn)一步提高特征提取能力。GC-Block結(jié)合了Non-local的上下文建模能力,并繼承了SE-Net節(jié)省計(jì)算量的優(yōu)點(diǎn),可以有效的對(duì)目標(biāo)的上下文進(jìn)行建模。
        ?? ? ? ?? ? ?
        除Cascade RCNN外,還采用了Generalize Focal Loss (GFL)檢測(cè)器進(jìn)行結(jié)果互補(bǔ)。GFL提出了一種泛化的Focal Loss損失,解決了分類得分和質(zhì)量預(yù)測(cè)得分在訓(xùn)練和測(cè)試時(shí)的不一致問(wèn)題。
        ?? ? ? ?

        最后,將各檢測(cè)器的結(jié)果使用Weighted Box Fusion (WBF)進(jìn)行融合,形成了最終的解決方案。

        傳統(tǒng)的NMS和Soft-NMS方法會(huì)移除預(yù)測(cè)結(jié)果中的一部分預(yù)測(cè)框,而WBF使用全部的預(yù)測(cè)框,通過(guò)進(jìn)行組合來(lái)獲得更加準(zhǔn)確的預(yù)測(cè)框,從而實(shí)現(xiàn)精度提升。整體pipeline如下圖所示:
        ? ? ? ?? ? ??

        實(shí)驗(yàn)結(jié)果:


        ? ? ? ?


        賽道二 ?Multi-Pedestrian Tracking

        ?
        賽題分析
        ?
        多行人跟蹤問(wèn)題是一個(gè)典型的多目標(biāo)跟蹤問(wèn)題。通過(guò)調(diào)研總結(jié)發(fā)現(xiàn),Tracking-by-detection是處理這一問(wèn)題的常用且精度比較高的方法[2][7]?;镜牧鞒炭梢钥偨Y(jié)如下:

        1) 在每一幀中檢測(cè)物體的位置。
        2) 為每個(gè)檢測(cè)框提取特征。
        3) 通過(guò)將特征距離或空間距離將預(yù)測(cè)的目標(biāo)與現(xiàn)有軌跡關(guān)聯(lián)。

        本次挑戰(zhàn)賽更注重精度,因此采用了分離Detection和Embedding的方法,該方法的模塊化設(shè)計(jì)的優(yōu)點(diǎn)使得競(jìng)賽精度上優(yōu)化空間的十分大。通過(guò)簡(jiǎn)單的數(shù)據(jù)統(tǒng)計(jì)分析和可視化分析,團(tuán)隊(duì)認(rèn)為該比賽的主要挑戰(zhàn)在于圖像的大分辨率和行人的嚴(yán)重?fù)頂D,如下圖所示。
        ? ? ? ??? ? ?? ? ? ?? ? ??
        為了應(yīng)對(duì)這些挑戰(zhàn),針對(duì)高分辨、小目標(biāo)等問(wèn)題,引入了一種滑動(dòng)窗口檢測(cè)算法。針對(duì)遮擋嚴(yán)重的問(wèn)題,使用局部和全局特征來(lái)衡量?jī)蓚€(gè)相鄰幀之間的預(yù)測(cè)邊界框的相似距離,并且借鑒了FairMOT的特征平滑的方法進(jìn)行緩解。
        ?
        競(jìng)賽方案:
        ?
        本次采用的多目標(biāo)跟蹤系統(tǒng)是基于Detection和Embedding分離的方法,采用了以Generalized Focal Loss(GFL)[9]為損失的anchor-free檢測(cè)器,并以Multiple Granularity Network (MGN)[10]作為Embedding模型。

        在關(guān)聯(lián)過(guò)程中,借鑒了DeepSORT[6]和FairMOT[8]的思想,構(gòu)建了一個(gè)簡(jiǎn)單的在線多目標(biāo)跟蹤器, 如下圖所示。

        ? ? ? ??? ? ?
        ? ? ?? ??

        檢測(cè)部分:
        ?
        為了處理高分辨率的圖像,我們提出了一個(gè)segmentation-and-fusion(SF)的方法,如下圖所示。每一張大圖有交疊的切分成多個(gè)子圖,每一個(gè)子圖的分辨率為6000*6000,位于圖像邊緣的子圖直接填充均值。為了防止較大的行人目標(biāo)被切分成進(jìn)兩個(gè)子圖,相鄰的子圖橫向上重疊寬度為1000像素,縱向重疊寬度設(shè)置為2000像素。在融合子圖檢測(cè)結(jié)果時(shí),我們采用一種基于子圖重疊中線和檢測(cè)框相交判定的規(guī)則。比如,對(duì)于一對(duì)橫向有重疊的子圖,如果基于左子圖的檢測(cè)框處于子圖重疊中線的右側(cè),但與該中線相交,該檢測(cè)框就被保留,反之則丟棄該檢測(cè)框。通過(guò)segmentation-and-fusion方法,與直接合并進(jìn)行NMS的方法相比, 我們?cè)诒镜貦z測(cè)驗(yàn)證集取得了0.2AP的提升。

        ? ????
        ? ???? ? ??
        Embedding部分:
        ? ? ? ? ?
        ? ? ???
        為了解決行人擁擠帶來(lái)的問(wèn)題,我們采用了Multiple Granularity Network(MGN),如上圖所示。我們首先利用Resnet50-ibn-a[4]提取特征,然后使用Triplet loss和Softmax loss計(jì)算三個(gè)全局特征的損失,僅使用Softmax loss計(jì)算局部特征的損失。此外,我們使用了ReID中的常用的訓(xùn)練技巧來(lái)優(yōu)化MGN的性能[3]。
        ?
        Data Association:
        ?
        我們借鑒了DeepSORT和FairMOT的想法,以檢測(cè)框的表觀距離為主,以檢測(cè)框的空間距離為輔。首先,我們根據(jù)第一幀中的檢測(cè)框初始化多個(gè)軌跡。在隨后的幀中,我們根據(jù)embedding features之間的距離(最大距離限制為0.7),來(lái)將檢測(cè)框和已有的軌跡做關(guān)聯(lián)。與FairMOT一致,每一幀都會(huì)通過(guò)指數(shù)加權(quán)平均更新跟蹤器的特征,以應(yīng)對(duì)特征變化的問(wèn)題。對(duì)于未匹配的激活軌跡和檢測(cè)框通過(guò)他們的IOU距離關(guān)聯(lián)起來(lái)(閾值為0.8)。最后,對(duì)于失活但未完全跟丟的軌跡和檢測(cè)框也是由它們的IoU距離關(guān)聯(lián)的(閾值為0.8)。
        ?? ? ? ?? ? ??
        后處理:
        ?
        由于只對(duì)較高的置信度的檢測(cè)框進(jìn)行跟蹤,因此存在大量假陰性的檢測(cè)框,導(dǎo)致MOTA[1]性能低下。為了減少置信閾值的影響,團(tuán)隊(duì)嘗試了兩種簡(jiǎn)單的插值方法。

        1) 對(duì)總丟失幀不超過(guò)20的軌跡進(jìn)行線性插值。我們稱之為簡(jiǎn)單插值(simple interpolation, SI);

        2)對(duì)每一個(gè)軌跡只在丟失不超過(guò)4幀的幀之間插入。另外,我們稱之為片段插值(fragment interpolation, FI)。

        雖然插值的方法增加了假陽(yáng)性樣本的數(shù)量,但是大大減少了假陰性樣本,使我們?cè)跍y(cè)試集上實(shí)現(xiàn)了0.9左右的提升。不同插值方法的效果如下表所示。
        ?? ? ? ?
        ? ? ? ?? ? ? ?
        以上是團(tuán)隊(duì)對(duì)參賽方案的優(yōu)化路線圖,通過(guò)優(yōu)化檢測(cè)器以及特征提取器,數(shù)據(jù)關(guān)聯(lián)方法、后處理等方法,在GigaVision 2020多行人跟蹤挑戰(zhàn)賽中獲得第一名的成績(jī)。

        總結(jié)與思考


        本文針對(duì)GigaVision多行人跟蹤挑戰(zhàn)賽,設(shè)計(jì)了一個(gè)簡(jiǎn)單、在線的多目標(biāo)跟蹤系統(tǒng),包括檢測(cè)器、特征提取、數(shù)據(jù)關(guān)聯(lián)和軌跡后處理,在GigaVision 2020多行人跟蹤挑戰(zhàn)賽中獲得第一名。很榮幸取得這次競(jìng)賽的第一名,在這里也分享一下針對(duì)多目標(biāo)跟蹤任務(wù)的一些問(wèn)題以及思考:
        ?
        1)檢測(cè)器和特征提取器mAP越高,最終跟蹤的性能也會(huì)相應(yīng)的提升?
        2)數(shù)據(jù)關(guān)聯(lián)過(guò)程真的需要運(yùn)動(dòng)模型么?
        3)跟蹤器的特征平滑為何有效?
        4)Part-Based的特征提取器為何有效?
        ?
        團(tuán)隊(duì)對(duì)以上問(wèn)題進(jìn)行了思考,得出一些比較簡(jiǎn)單的看法:
        ?
        1) 一般來(lái)說(shuō)檢測(cè)器和特征提取器的性能越理想,最終跟蹤的性能也會(huì)有相應(yīng)的提升;mAP作為常用的檢測(cè)器評(píng)估指標(biāo)來(lái)說(shuō),mAP的提升不一定能帶來(lái)跟蹤的性能提升,當(dāng)然這也和評(píng)價(jià)指標(biāo)有關(guān)系,需要具體問(wèn)題具體分析,比如檢測(cè)上多尺度增強(qiáng)帶來(lái)的AP增益往往會(huì)造成MOTA的降低。
        ?
        mAP作為特征提取器的評(píng)估指標(biāo)來(lái)說(shuō),mAP的提升也不一定能帶來(lái)跟蹤的性能提升,比如Part-Based 的MGN在本次競(jìng)賽中雖然mAP比全局特征提取器差幾個(gè)點(diǎn),在最后的跟蹤上卻取得不錯(cuò)的效果。
        ?
        2)現(xiàn)實(shí)中的多目標(biāo)跟蹤任務(wù)中,攝像頭的突然運(yùn)動(dòng)以及跟蹤對(duì)象的突然加速往往都是存在的,這時(shí)候的運(yùn)動(dòng)模型其實(shí)動(dòng)態(tài)性能十分的差勁,反而造成不好的跟蹤效果,本次競(jìng)賽采用的是直接不采用運(yùn)動(dòng)模型的方法。
        ?
        3) 跟蹤器的特征平滑操作十分簡(jiǎn)單有效,不需要類似于DeepSORT進(jìn)行級(jí)聯(lián)匹配,速度比較快,考慮了同一軌跡的歷史特征,使得特征更加魯棒,減少了單幀跟蹤錯(cuò)誤帶來(lái)的影響;
        ?
        4) Part-Based的特征提取器針對(duì)這種遮擋比較嚴(yán)重的情況在距離度量時(shí)考慮了各個(gè)部分的特征,特別的,遮擋部分往往變化比較大,結(jié)合特征平滑操作,一定程度上消除了遮擋部分的影響,更關(guān)注沒(méi)有遮擋部分的特征。

        參考文獻(xiàn)


        1. Bernardin, K. ?Stiefelhagen, R.: Evaluating multiple object tracking performance(2008)

        2. ?Milan, A., Leal-Taixe, L., Reid, I., Roth, S., Schindler, K.: Mot16: A benchmark for multi-object tracking (2016)

        3. ?Luo, H., Gu, Y., Liao, X., Lai, S., Jiang, W.: Bag of tricks and a strong baseline for deep person re-identification (2019)

        4. ?Pan, X., Luo, P., Shi, J., Tang, X.: Two at once: Enhancing learning and generalization capacities via ibn-net (2018)

        5. ?Wang, ?X., ?Zhang, ?X., ?Zhu, ?Y., ?Guo, ?Y., ?Yuan, ?X., ?Xiang, ?L., ?Wang, ?Z., ?Ding,G., Brady, D.J., Dai, Q., Fang, L.: Panda: A gigapixel-level human-centric video dataset (2020)

        6. ?Wojke, N., Bewley, A., Paulus, D.: Simple online and realtime tracking with a deep association metric (2017)

        7. ?Yu, F., Li, W., Li, Q., Liu, Y., Shi, X., Yan, J.: Poi: Multiple object tracking with high performance detection and appearance feature (2016)

        8. ?Zhang, Y., Wang, C., Wang, X., Zeng, W., Liu, W.: A simple baseline for multi-object tracking (2020)

        9. ?Li, X., Wang, W., Wu, L., Chen, S., Hu, X., Li, J., Tang, J., Yang, J.: Generalized focal loss: Learning qualified and distributed bounding boxes for dense object detection. arXiv (2020)

        10. ?Wang, G., Yuan, Y., Chen, X., Li, J., Zhou, X.: Learning discriminative features with ?multiple ?granularities ?for ?person ?re-identification. ?CoRRabs/1804.01438(2018)

        11. ?Cai, Z., Vasconcelos, N.: Cascade r-cnn: Delving into high quality object detection. In: Proceedings of the IEEE conference on computer vision and pattern recognition.pp. 6154–6162 (2018)

        12. ?Cao, Y., Xu, J., Lin, S., Wei, F., Hu, H.: Gcnet: Non-local networks meet squeeze-excitation networks and beyond. In: Proceedings of the IEEE International Conference on Computer Vision Workshops. pp. 0–0 (2019)

        13. ?Dai, J., Qi, H., Xiong, Y., Li, Y., Zhang, G., Hu, H., Wei, Y.: Deformable convolutional networks. In: Proceedings of the IEEE international conference on computer vision. pp. 764–773 (2017)

        14. ?Hu, J., Shen, L., Sun, G.: Squeeze-and-excitation networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 7132–7141 (2018)

        15. ?Li, X., Wang, W., Wu, L., Chen, S., Hu, X., Li, J., Tang, J., Yang, J.: Generalized focal loss: Learning qualified and distributed bounding boxes for dense object detection. arXiv preprint arXiv:2006.04388 (2020)

        16. ?Solovyev, R., Wang, W.: Weighted boxes fusion: ensembling boxes for object detection models. arXiv preprint arXiv:1910.13302 (2019)


        推薦閱讀



        回復(fù)“煉丹師“參與測(cè)評(píng),領(lǐng)取CV電子書大禮包

        添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測(cè)-深圳),即可申請(qǐng)加入極市目標(biāo)檢測(cè)/圖像分割/工業(yè)檢測(cè)/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群:每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競(jìng)賽、干貨資訊匯總、與?10000+來(lái)自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺(jué)開發(fā)者互動(dòng)交流~

        △長(zhǎng)按添加極市小助手

        △長(zhǎng)按關(guān)注極市平臺(tái),獲取最新CV干貨

        覺(jué)得有用麻煩給個(gè)在看啦~??
        瀏覽 78
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            伊伊人成亚洲综合人网7777 | 周冬雨扒开内裤让男人揉 | 熟女人妻在线 | 视频你懂的 | 色婷婷国产成人精品视频 | 狠狠干夜夜爽 | 97天天操 | 97人人妻人人操 | 一道本无码高清 | 日日骚网址 |