1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        ICCV2021 論文速遞 「2021.9.18」

        共 2776字,需瀏覽 6分鐘

         ·

        2021-09-19 10:31

        點(diǎn)擊下方AI算法與圖像處理”,一起進(jìn)步!

        重磅干貨,第一時(shí)間送達(dá)

        ICCV 2021 論文匯總(已細(xì)分方向)

        https://github.com/DWCTOD/ICCV2021-Papers-with-Code-Demo

        今天分享 https://arxiv.org/ 更新的4篇ICCV 2021 的論文,主要內(nèi)容包括

        1、一種用于三維目標(biāo)檢測(cè)的端到端 Transformer 模型

        2、Eformer:基于邊緣增強(qiáng)的醫(yī)學(xué)圖像去噪 Transformer

        3、用于車輛重識(shí)別的異構(gòu)關(guān)系補(bǔ)碼

        4、DisUnknown:提取未知因素進(jìn)行解耦合學(xué)習(xí)


        目標(biāo)檢測(cè)

        An End-to-End Transformer Model for 3D Object Detection

        一種用于三維目標(biāo)檢測(cè)的端到端 Transformer 模型

        論文:https://arxiv.org/abs/2109.08141

        代碼:None

        我們提出了3DETR,一種基于端到端transformer的三維點(diǎn)云目標(biāo)檢測(cè)模型。與使用大量3D特定感應(yīng)偏壓的現(xiàn)有檢測(cè)方法相比,3DETR只需對(duì)普通 Transformer 塊進(jìn)行最小修改。具體而言,我們發(fā)現(xiàn),具有非參數(shù)查詢和傅里葉位置嵌入的標(biāo)準(zhǔn)轉(zhuǎn)換器與使用具有手動(dòng)調(diào)整超參數(shù)的三維特定運(yùn)算符庫的專用體系結(jié)構(gòu)具有競(jìng)爭力。盡管如此,3DETR在概念上簡單且易于實(shí)現(xiàn),通過結(jié)合3D領(lǐng)域知識(shí)實(shí)現(xiàn)了進(jìn)一步的改進(jìn)。通過大量的實(shí)驗(yàn),我們發(fā)現(xiàn)3DETR在具有挑戰(zhàn)性的ScanNetV2數(shù)據(jù)集上的性能比完善且高度優(yōu)化的VoteNet基線高9.5%。此外,我們還表明3DETR適用于檢測(cè)不到的3D任務(wù),可以作為未來研究的基礎(chǔ)。

        Vision Transformer

        Eformer: Edge Enhancement based Transformer for Medical Image Denoising 

        Eformer:基于邊緣增強(qiáng)的醫(yī)學(xué)圖像去噪 Transformer 

        論文:https://arxiv.org/abs/2109.08044

        代碼:None

        在這項(xiàng)工作中,我們提出了一種基于Eformer-Edge enhancement-based transformer的新架構(gòu),該架構(gòu)使用transformer塊構(gòu)建用于醫(yī)學(xué)圖像去噪的編解碼網(wǎng)絡(luò)。transformer 模塊中使用了基于非重疊窗口的自我注意,減少了計(jì)算需求。這項(xiàng)工作進(jìn)一步結(jié)合了可學(xué)習(xí)的Sobel-Feldman算子來增強(qiáng)圖像中的邊緣,并提出了一種在我們的體系結(jié)構(gòu)的中間層中連接它們的有效方法。通過對(duì)比確定性學(xué)習(xí)和殘差學(xué)習(xí)對(duì)醫(yī)學(xué)圖像去噪進(jìn)行了實(shí)驗(yàn)分析。為了證明我們方法的有效性,我們的模型在AAPM Mayo Clinic低劑量CT大挑戰(zhàn)數(shù)據(jù)集上進(jìn)行了評(píng)估,并實(shí)現(xiàn)了最先進(jìn)的性能,即峰值信噪比43.487,RMSE 0.0067,SSIM 0.9861。我們相信,我們的工作將鼓勵(lì)更多的研究基于變壓器的架構(gòu),用于使用殘差學(xué)習(xí)的醫(yī)學(xué)圖像去噪。


        Vehicle Re-identification

        Heterogeneous Relational Complement for Vehicle Re-identification

        用于車輛重識(shí)別的異構(gòu)關(guān)系補(bǔ)碼

        論文:https://arxiv.org/abs/2109.07894

        代碼:None

        車輛重識(shí)別中的關(guān)鍵問題是在從交叉攝像機(jī)查看該對(duì)象時(shí)找到相同的車輛標(biāo)識(shí),這對(duì)學(xué)習(xí)視點(diǎn)不變表示提出了更高的要求。在本文中,我們建議從兩個(gè)方面來解決這個(gè)問題:構(gòu)造健壯的特征表示和提出相機(jī)敏感評(píng)估。我們首先提出了一種新的異構(gòu)關(guān)系補(bǔ)碼網(wǎng)絡(luò)(HRCN),該網(wǎng)絡(luò)將特定于區(qū)域的特征和跨級(jí)別的特征作為原始高級(jí)輸出的補(bǔ)碼??紤]到分布差異和語義錯(cuò)位,我們提出了基于圖的關(guān)系模塊,將這些異構(gòu)特征嵌入到一個(gè)統(tǒng)一的高維空間中。另一方面,考慮到現(xiàn)有措施(即CMC和AP)中跨攝像頭評(píng)估的不足,我們提出了一種跨攝像頭綜合措施(CGM),通過引入位置敏感性和跨攝像頭綜合懲罰來改進(jìn)評(píng)估。我們用我們提出的CGM進(jìn)一步構(gòu)建了現(xiàn)有模型的新基準(zhǔn),實(shí)驗(yàn)結(jié)果表明,我們提出的HRCN模型在VeRi-776、VehicleID和VeRi-Wild中達(dá)到了最新水平。


        其他

        DisUnknown: Distilling Unknown Factors for Disentanglement Learning

        DisUnknown:提取未知因素進(jìn)行解耦合學(xué)習(xí)

        論文:https://arxiv.org/abs/2109.08141

        代碼:https://github.com/stormraiser/disunknown

        將數(shù)據(jù)分解為可解釋和獨(dú)立的因素對(duì)于可控生成任務(wù)至關(guān)重要。有了標(biāo)記數(shù)據(jù)的可用性,監(jiān)督有助于按預(yù)期對(duì)特定因素進(jìn)行分離。然而,為實(shí)現(xiàn)完全監(jiān)督的解耦合,對(duì)每一個(gè)因素進(jìn)行標(biāo)記通常是昂貴的,甚至是不可能的。在本文中,我們采用一種通用設(shè)置,其中所有難以標(biāo)記或識(shí)別的因素都封裝為單個(gè)未知因素。在此背景下,我們提出了一個(gè)靈活的弱監(jiān)督多因子解耦合框架disonknown,該框架提取未知因子,以實(shí)現(xiàn)標(biāo)記因子和未知因子的多條件生成。具體而言,采用兩階段訓(xùn)練方法,首先使用有效且穩(wěn)健的訓(xùn)練方法對(duì)未知因素進(jìn)行解糾纏,然后使用未知蒸餾對(duì)所有標(biāo)記因素進(jìn)行適當(dāng)解耦合,從而訓(xùn)練最終發(fā)生器。為了證明我們的方法的泛化能力和可擴(kuò)展性,我們對(duì)多個(gè)基準(zhǔn)數(shù)據(jù)集進(jìn)行了定性和定量評(píng)估,并將其應(yīng)用于復(fù)雜數(shù)據(jù)集上的各種實(shí)際應(yīng)用。



        努力分享優(yōu)質(zhì)的計(jì)算機(jī)視覺相關(guān)內(nèi)容,歡迎關(guān)注:

        交流群


        歡迎加入公眾號(hào)讀者群一起和同行交流,目前有美顏、三維視覺、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競(jìng)賽等微信群


        個(gè)人微信(如果沒有備注不拉群!
        請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱



        下載1:何愷明頂會(huì)分享


        AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


        下載2:終身受益的編程指南:Google編程風(fēng)格指南


        AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!



        下載3 CVPR2021

        AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):CVPR即可下載1467篇CVPR 2020論文 和 CVPR 2021 最新論文



        瀏覽 20
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            91你懂得| 国产乱婬A∨片免费视频牛牛 | 成年黄页网站大全免费 | 天天永久综合免费 | 儿媳妇把我认成老公 | 性爱在线视频 | 埃及艳后荒淫史h版 | 久久艹免费视频 | 日日舔夜夜操 | 水蜜桃在线视频 |