1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        收藏 | 基于深度學(xué)習(xí)的圖像匹配技術(shù)一覽

        共 39185字,需瀏覽 79分鐘

         ·

        2021-04-06 13:14

        來源:信息網(wǎng)絡(luò)工程研究中心、知乎、極客平臺

        本文約20000字,建議閱讀10+分鐘
        本文對圖像匹配的各類方法進行了詳細(xì)介紹,包括方法對比、優(yōu)缺點及適用場景。

        圖像匹配

        • 應(yīng)用:


        目標(biāo)識別、目標(biāo)跟蹤、超分辨率影像重建、視覺導(dǎo)航、圖像拼接、三維重建、視覺定位、場景深度計算。

        • 方法:


        基于深度學(xué)習(xí)的特征點匹配算法、實時匹配算法、3維點云匹配算法、共面線點不變量匹配算法,以及基于深度學(xué)習(xí)的圖像區(qū)域匹配等。

        • 分類:

        局部不變特征點匹配、直線匹配、區(qū)域匹配。


        Part1:局部不變特征點匹配-2D


        1. 什么是圖像特征點?- 關(guān)鍵點+描述子

        • 關(guān)鍵點:指特征點在圖像中的位置,具有方向、尺度等信息;

        • 描述子:描述子通常是一個向量,描述關(guān)鍵點鄰域的像素信息。


        2. 如何進行特征點匹配?- 人工設(shè)計檢測器

        • 在向量空間對兩個描述子進行比較,距離相近則判定為同一個特征點。
        • 角點、邊緣點等都可以作為潛在特征點:
          • SIFT總結(jié)【5】:許允喜等,對局部圖像描述符進行分析描述,對這類方法的計算復(fù)雜度、評價方法和應(yīng)用領(lǐng)域予以總結(jié)。
          • SIFT總結(jié)【4】:劉立等,對 SIFT 算法的演變以及在不同領(lǐng)域的典型應(yīng)用進行了較為全面的論述,并比較了各類算法的優(yōu)缺點。
          • SIFT算法改進【9】【10】【11】:針對算法時間復(fù)雜度高,PCA-SIFT, SURF, SSIF。
          • SIFT算法改進【12】:對彩色圖 像進行處理的 CSIFT( colored SIFT)。
          • SIFT算法改進【13】:使用對數(shù)極坐標(biāo)分級結(jié)構(gòu)的 GLOH( gradient location and orientation histogram)。
          • SIFT算法改進【14】:具有仿射不變性的ASFIT( affine SIFT)。
          • Fast【2】:通過鄰域像素對比進行特征點檢測并引入機器學(xué)習(xí)加速這一過程,可應(yīng)用在對實時性要求較高的場合,如視頻監(jiān)控中的目標(biāo)識別。由于 FAST 僅處理單一尺度圖像,且檢測的不僅僅是“角點”這一特征,還可以檢測到其他符合要求的特征點,如孤立的噪點等。當(dāng)圖像中噪點較多時會產(chǎn)生較多外點,導(dǎo)致魯棒性下降。
          • Harris【1】:通過兩個正交方向上強度的變化率對角點進行定義,其本身存在尺度固定、像素定位精度低、偽角點較多和計算量大等問題。
          • Harris改進算法【6】:將多分辨率思想引入 Harris 角點,解決了Harris算法不具有尺度變化的問題。
          • Harris改進算法【7】:在 Harris 算法中兩次篩選候選點集,利用最小二乘加權(quán)距離法實現(xiàn)角點亞像素定位,大幅度提高角點檢測效率和精度。
          • Harris改進算法【8】:將灰度差分及模板與 Harris 算法相結(jié)合,解決了 Harris 算法中存在較多偽角點和計算量大等問題。
          • 角點檢測算法 - 最常用:基于圖像灰度的方法。
          • 鄰域像素檢測。
          • SIFT【3】:不再局限于對角點檢測。

        3. 如何進行特征點匹配?

        3.1 深度學(xué)習(xí)特征檢測器 - 局部特征點的重復(fù)檢測


        • FAST-ER算法【15】:把特征點檢測器定義為一種檢測高重復(fù)點的三元決策樹,并采用模擬退火算法對決策樹進行優(yōu)化,從而提高檢測重復(fù)率。由于在每次迭代過程中,都需要對重新應(yīng)用的新決策樹進行檢測,且其性能受到初始關(guān)鍵點檢測器的限制,降低了該算法的魯棒性。

        • 時間不變特征檢測器( TILDE) 【16】:Verdie等人提出,能夠較好地對由天氣、季節(jié)、時間等因素引起的劇烈光照變化情況下的可重復(fù)關(guān)鍵點進行檢測。參與訓(xùn)練的候選特征點是由多幅訓(xùn)練圖像中采用 SIFT 算法提取的可重復(fù)關(guān)鍵點組成,如圖a;正樣本是以這些點為中心的區(qū)域,負(fù)樣本是遠(yuǎn)離這些點的區(qū)域。在進行回歸訓(xùn)練時,正樣本 在特征點位置返回最大值,遠(yuǎn)離特征點位置返回較小值,如圖 b ; 回歸測試時,將測試圖像分成固定大小的圖像塊,其回歸響應(yīng)如圖c ,然后根據(jù)非極大值抑制提取特征點,如圖d 。該方法適用于處理訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)為同一場景的圖像。(TILDE 采用手動標(biāo)記的數(shù)據(jù)作為區(qū)分性特征訓(xùn)練,使用DOG-difference of Gaussian收集訓(xùn)練集,對于跨模態(tài)任務(wù)如RGB/深度模態(tài)對不再適用)


        • 基于學(xué)習(xí)的協(xié)變特征檢測器【17】:綜合考慮兩個局部特征檢測器特性(檢測可區(qū)分的特征;協(xié)變約束-在不同的變換下重復(fù)檢測一致特征),Zhang 等人提出。該方法將 TILDE 的輸出作為候選標(biāo)準(zhǔn)圖像塊,通過變換預(yù)測器的訓(xùn)練建立學(xué)習(xí)框架,將局部特征檢測器的協(xié)變約束轉(zhuǎn)化為變換預(yù)測器的協(xié)變約束,以便利用回歸( 如深度神經(jīng)網(wǎng)絡(luò)) 進行變換預(yù)測。預(yù)測的變換有兩個重要性質(zhì): 1) 變換的逆矩陣能將觀察到的圖像 塊映射到“標(biāo)準(zhǔn)塊”,“標(biāo)準(zhǔn)塊”定義了具有可區(qū)分性的圖像塊以及塊內(nèi)“典型特征”( 如單位圓) 的位置和形狀; 2) 將變換應(yīng)用到“典型特征”可以預(yù)測圖像 塊內(nèi)變換特征的位置和形狀。
        • Quadnetworks【18】:采用無監(jiān)督學(xué)習(xí)方式進行特征點檢測。Savinov 等人提出,該方法將關(guān)鍵點檢測問題轉(zhuǎn)化為圖像變換上的關(guān)鍵點一致性排序問題,優(yōu)化后的排序在不同的變換下具有重復(fù)性,其中關(guān)鍵點來自響應(yīng)函數(shù)的頂/底部分位 數(shù)。Quad-networks 的訓(xùn)練過程如圖所示,在兩幅圖像中提取隨機旋轉(zhuǎn)像塊對( 1,3) 和( 2,4) ; 每個塊 經(jīng)過神經(jīng)網(wǎng)絡(luò)輸出一個實值響應(yīng) H( p w) ,其中 p 表示點,w 表示參數(shù)向量; 通過四元組的排序一致函數(shù)計算鉸鏈損失,并通過梯度下降法優(yōu)化。Quadnetworks 在 RGB/RGB模式和RGB/深度模式的重復(fù)檢測性能均優(yōu)于 DOG,可以和基于學(xué)習(xí)的描述符 相結(jié)合進行圖像匹配,還可用于視頻中的興趣幀檢測。


        3.2 深度學(xué)習(xí)特征描述符學(xué)習(xí)


        • 用于特征點描述符判別學(xué)習(xí)的 DeepDesc【19】:Simo-Serra 等人提出,該方法采用 Siamese 網(wǎng)絡(luò)側(cè)重訓(xùn)練難以區(qū)分類別的樣本,輸入圖像塊對,將 CNN 輸出的非線性映射作為描述符,采用歐氏距離計算相似性并最小化其鉸鏈損失。該方法適用于不同的數(shù)據(jù)集和應(yīng)用,包括寬基線圖像匹配、非剛性變形和極端光照變化的情況,但該方法需要大量的訓(xùn)練數(shù)據(jù)來保證其魯棒性。

        3.3 深度學(xué)習(xí)各階段統(tǒng)一

        • Yi 等人提出【20】:基于學(xué)習(xí)的不變特征變換( LIFT) 結(jié)合空間變換網(wǎng)絡(luò)【21】和 Softargmax 函數(shù),將基于深度學(xué)習(xí)的特征點檢測【16】、基于深度學(xué)習(xí)的方向估計【22】和基于深度學(xué)習(xí)的描述符【19】連接成一個統(tǒng)一網(wǎng)絡(luò),從而實現(xiàn)完整特征點匹配處理流水線。其中圖像塊的裁剪和旋轉(zhuǎn)通過空間變換網(wǎng)絡(luò)實現(xiàn),訓(xùn)練階段采用四分支 Siamese 網(wǎng)絡(luò),輸入特征點所在圖像塊,其位置和方向均來自 SFM 算法的輸出,其中 P1 和 P2 為同一3D點在不同視角下的圖像,P3 為不同3D點的投影的圖像塊,P4 為不包含任何特征點的圖像快,S 為得分圖,x 代表特征點位置。采用從后至前的訓(xùn)練策略,即先訓(xùn)練描述子,再訓(xùn)練方向估計,最后訓(xùn)練特征點檢測。測試階段,將特征點檢測與方向估計及描述子分開,使優(yōu)化問題易于處理。LIFT 方法的輸入為多尺度圖像,以滑窗形式進行特征點檢測,提取局部塊逐個分配方向,再計算描述子。與 SIFT 相比,LIFT 能夠提取出更為稠密的特征點,且對光照和季節(jié)變化具有很高的魯棒性。


        3.4 不同對象或場景的匹配方法研究(圖像語義匹配):

        與考慮在時間(光流) 或空間(立體) 相鄰的圖像特征對應(yīng)不同,語義對應(yīng)的特征是圖像具有相似的高層結(jié)構(gòu),而其精確的外觀和幾何形狀可能不同。

        3.4.1 相同對象類的像對匹配


        • 經(jīng) 典 SIFT 流方法【23】:提出不同場景的稠密對應(yīng)概念,通過平滑約束和小位移先驗計算不同場景間的稠密對應(yīng)關(guān)系。
        • Bristow 等人【24】:將語義對應(yīng)問題轉(zhuǎn)化為約束檢測問題,并提出Examplar-LDA( Examplar linear discriminant analysis) 分類器。首先對匹配圖像中的每個像素學(xué)習(xí)一個 Examplar-LDA 分類器,然后以滑動窗口形式將其應(yīng)用到目標(biāo)圖像,并將所有分類器上的匹配響應(yīng)與附加的平滑先驗結(jié)合,從而獲得稠密的對應(yīng)估計。該方法改善了語義流的性能,在背景雜亂的場景下具有較強魯棒性。

        3.4.2 不同對象類的像對匹配

        • Novotny 等人【25】:提出基于幾何敏感特征的弱監(jiān)督學(xué)習(xí)方法AnchorNet。在只有圖像級標(biāo)簽的監(jiān)督下,AnchorNet 依賴一組從殘差超列 HC( hypercolumns) 中提取具有正交響應(yīng)的多樣過濾器,該過濾器在同一類別的不同實例或兩個相似類別之間具有幾何一致性。AnchorNet 通過在 ILSVRC12 ( imagenet large scale visual recognition competition 2012) 上預(yù)先訓(xùn)練的深度殘差網(wǎng)絡(luò)( ResNet50) 模型初始化網(wǎng)絡(luò)參數(shù),并采用兩階段優(yōu)化與加速訓(xùn)練完成匹配。

        3.4.3 多圖像語義匹配

        可以找到多個圖像間的一致對應(yīng)關(guān)系,從而在應(yīng)用中發(fā)揮更為重要的作用:

        • 對象類模型重建【26】
        • 自動地標(biāo)注釋【27】
        • Wang 等人【28】:將多圖像間的語義匹配問題轉(zhuǎn)化為特征選擇與標(biāo)注問題,即從每幅圖像的初始候選集中選擇一組稀疏特征點,通過分配標(biāo)簽建立它們在圖像間的對應(yīng)關(guān)系。該方法可以為滿足循環(huán)一致性和幾何一致性的圖像集合建立可靠的特征對應(yīng)關(guān)系,其中循環(huán)一致性可以對圖像集合中的可重復(fù)特征進行選擇和匹配。低秩約束用于確保特征對應(yīng)的幾何一致性,并可同時對循環(huán)一致性和幾何一致性進行優(yōu)化。該方法具有高度可擴展性,可以對數(shù)千幅圖像進行匹配,適用于在不使用任何注釋的情況下重構(gòu)對象類模型。

        3.5 圖像匹配應(yīng)用于臨床的精確診療

        通過精確比對器官的幾何形狀,來判斷臟器是否存在病變;通過分析腫瘤的幾何特征,來判斷腫瘤是否為惡性。

        • Yu 等人[29]提 出 A-NSIFT( accelerated multi-dimensional scale invariant feature transform) 與 PO-GMMREG( parallel optimization based on gaussian mixture model registration) 相結(jié)合的方法,改進了特征提取和匹配過程。ANSIFT 為加速版 NSIFT,采用 CUDA 編程加速 NSIFT 的前兩個步驟,用于提取匹配圖像和待匹配圖像中的特征點( 僅保留位置信息) 。PO-GMMREG 是基于并行優(yōu)化的高斯混合模型( GMM) 匹配算法,并行優(yōu)化使得匹配圖像和待匹配圖像可以任意旋轉(zhuǎn)角度對齊。該方法可以減少時間消耗,提高大姿態(tài)差異下的匹配精度。
        • TV-L1 ( total variation-L1 ) 光流模型[30]能有效地保持圖像邊緣等特征信息,但對于保持具有弱導(dǎo)數(shù)性質(zhì)的紋理細(xì)節(jié)信息仍不夠理想。
        • 張桂梅等人[31]將 G-L ( Grünwald-Letnikov ) 分?jǐn)?shù)階微分理論引入TV-L1 光流模型,代替其中的一階微分,提出分?jǐn)?shù)階 TV-L1 光流場模型 FTV-L1 ( fractional TV-L1 ) 。同時給出匹配精度和 G-L 分?jǐn)?shù)階模板參數(shù)之間關(guān)系,為最佳模板選取提供依據(jù)。FTV-L1 模型通過全變分能量方程的對偶形式進行極小化以獲得位移場,可以解決圖像灰度均勻,弱紋理區(qū)域匹配結(jié)果中的信息模糊問題。該方法能有效提高圖像匹配精度,適合于包含較多弱紋理和弱邊緣信息的醫(yī)學(xué)圖像匹配。
        • 為了解決待匹配圖像對中目標(biāo)的大形變和灰度分布呈各向異性問題,陸雪松等人[32]將兩幅圖像的 聯(lián)合 Renyi α -entropy 引入多維特征度量并結(jié)合全局和局部特征,從而實現(xiàn)非剛性匹配。首先,采用最小距離樹構(gòu)造聯(lián)合Renyi α -entropy 度量準(zhǔn)則;其次,根據(jù)該度量相對形變模型 FFD( free-form deformation) 的梯度解析表達(dá)式,采用隨機梯度下降法進行優(yōu)化; 最后,將圖像的 Canny 特征和梯度方向特征融入度量中,實現(xiàn)全局和局部特征的結(jié)合。該方法的匹配精度與傳統(tǒng)互信息法和互相關(guān)系數(shù)法相比有明顯提高,且新度量方法能克服因圖像局部灰度分布不一致造成的影響,能夠在一定程度上減少誤匹配。
        • Yang 等人[33] 提出的 FMLND( feature matching with learned nonlinear descriptors) 采用基于學(xué)習(xí)的局部非線性描述符 LND 進行特征匹配,對來自 T1w 和 T2w 兩種不同成像參數(shù)的磁共振成像( MRI) 數(shù)據(jù)的 CT( computed tomography) 圖像進行預(yù)測。該過程分為兩個階段: 學(xué)習(xí)非線性描述符和預(yù)測 pCT( pseudo CT) 圖像。第 1 階段,首先采用稠密 SIFT 提取 MR 圖像的特征; 其次通過顯式特征映射將其投影到高維空間并與原始塊強度結(jié)合,作為初始非線性描述符; 最后在基于改進的描述符學(xué)習(xí)( SDL) 框架中學(xué)習(xí)包含監(jiān)督的 CT 信息的局部描述符。第 2 階段,在訓(xùn)練 MR 圖像的約束空間內(nèi)搜索輸入 MR 圖像的局部描述符的 K 最近鄰域,和對應(yīng)原始 CT 塊進行映射,對重疊的 CT 塊進行加權(quán)平均處理得到最終的pCT 塊。與僅使用成像參數(shù) T1w 或 T2w 的 MR 圖像方法相比,F(xiàn)MLND 方法提高了預(yù)測的準(zhǔn)確率。
        • 對骨盆CT和MRI匹配可以促進前列腺癌放射治療兩種方式的有效融合。由于骨盆器官的模態(tài)外觀間隙較大,形狀/外觀變化程度高,導(dǎo)致匹配困難?;诖?,Cao 等人【34】提出基于雙向圖像合成的區(qū)域自適應(yīng)變形匹配方法,用于多模態(tài)骨盆圖像的匹配,雙向圖像合成,即從MRI合成CT并從CT合 成MRI。多目標(biāo)回歸森林 MT-RF 采用CT模式和MRI模式對方向圖像合成進行聯(lián)合監(jiān)督學(xué)習(xí),消除模態(tài)之間的外觀差異,同時保留豐富的解剖細(xì)節(jié),其匹配流程為: 首先,通過 MT-RF 合成雙向圖像,獲得實際CT和合成CT( S-CT) 的CT像對以及實際MRI和合成 MRI( S-MRI) 的 MRI 像對;其次,對CT像對的骨骼區(qū)域和 MRI像對的軟組織區(qū)域進行檢測,以結(jié)合兩種模式中的解剖細(xì)節(jié);最后,利用從兩種模式中選擇的特征點進行對稱匹配。在匹配過程中,特征點數(shù)量逐漸增加,對形變場的對稱估計起到較好的分級指導(dǎo)作用。該方法能夠較好地解決骨盆圖像匹配問題,具有較高的準(zhǔn)確性和魯棒性。

        3.6 圖像匹配應(yīng)用于遙感圖像處理-高分辨率

        • 何夢夢等人【35】對細(xì)節(jié)紋理信息豐富的高分辨率光學(xué)及 SAR( synthetic aperture radar) 遙感圖像進行分析,提出一種特征級高分辨率遙感圖像快速自動匹配方法。該方法首先對匹配圖像和待匹配圖像進行 Harr 小波變換,將其變換到低頻近似圖像再進行后續(xù)處理,以提高圖像匹配速度;接著對光學(xué)圖像和 SAR 圖像分別采用 Canny 算子和 ROA( ratio of averages) 算子進行邊緣特征提取,并將邊緣線特征轉(zhuǎn)換成點特征;而后通過匹配圖像和待匹配圖像中每對特征點之間的最小和次小角度之比確定初始匹配點對,并通過對隨機抽樣一致性算法( RANSAC) 添加約束條件來濾除錯誤匹配點對;最后采用分塊均勻提取匹配點對的方法,進一步提高匹配精度。該方法能快速實現(xiàn)并具有較高的配準(zhǔn)精度和較好的魯棒性。

        3.7 剔除誤差匹配

        3.7.1 幾何約束為參數(shù)的情況,如要求相應(yīng)點位于極線上


        • Fischler 等 人[36]提出 RANSAC 方法,采用迭代方式從包含離群數(shù)據(jù)的數(shù)據(jù)集中估算出數(shù)學(xué)模型。進行匹配點對的提純步驟為: 1) 從已匹配的特征點對數(shù)據(jù)集中隨機抽取四對不共線的點,計算單應(yīng)性矩陣 H,記作模型 M; 2) 設(shè)定一個閾值 t,若數(shù)據(jù)集中特征點與 M 之間的投影誤差小于t,就把該點加入內(nèi)點集,重復(fù)以上步驟,迭代結(jié)束后對應(yīng)內(nèi)點數(shù)量最多的情況即為最優(yōu)匹配。RANSAC 對誤匹配點的剔除依賴單應(yīng)性矩陣的計算,存在計算量大、效率低等問題。
        • 文獻(xiàn)[37] 通過引入針對內(nèi)點和外點的混合概率模型實現(xiàn)了參數(shù)模型的最大似然估計。
        • 文獻(xiàn)[38] 使用支持向量回歸學(xué)習(xí)的對應(yīng)函數(shù),該函數(shù)將一幅圖像中的點映射到另一幅圖像中的對應(yīng)點,再通過檢驗它們是否與對應(yīng)函數(shù)一致來剔除異常值。
        • 將點對應(yīng)關(guān)系通過圖匹配進行描述[39-40]
        • 為了在不依賴 RANSAC 情況下恢復(fù)大量內(nèi)點,Lin 等人【41】提出 BF( bilateral functions) 方法,從含有噪聲的匹配中計算全局匹配的一致函數(shù),進而分離內(nèi)點與外點。BF從一組初始匹配結(jié)果開始,利用每個匹配定義的局部仿射變換矩陣計算兩幅圖像之間的仿射運動場。在給定運動場的情況下,BF為每個特征在描述符空間尋找最近鄰匹配以恢復(fù)更多對應(yīng)關(guān)系。與RANSAC 相比,雙邊運動模型具備更高的查全率和查準(zhǔn)率。
        • 受BF啟發(fā),Bian 等人【42】將運動平滑度作為統(tǒng)計量,提出基于網(wǎng)格的運動統(tǒng)計( GMS) 方法,根據(jù)最近鄰匹配數(shù)量區(qū)分正確匹配和錯誤匹配點對。GMS 算法的核心為運動統(tǒng)計模型,如圖 4 所示。其中,si 和 sj 分別表示正確匹配 xi 和錯誤匹配 xj 的運動統(tǒng)計,為了加速這一過程,可將整幅圖像劃分成 G = 20 × 20 的網(wǎng)格,并在網(wǎng)格中進行操作。由于 GMS 算法在進行網(wǎng)格劃分時,并未考慮圖像大小,對于長寬比例不一致的圖像,會生成矩形狀的網(wǎng)格,導(dǎo)致網(wǎng)格中特征分布不均?;诖?,文獻(xiàn)[43]通過計算五宮格特征分?jǐn)?shù)剔除外點,并將圖像大小作為約束對圖像進行方形網(wǎng)格劃分,能夠在提高運算速度的同時獲得與 GMS 算法相同的匹配精度。


        3.7.2 幾何約束為非參數(shù)


        • Ma 等人[44]提出 VFC( vector field consensus) 方法,利用向量場的光滑先驗,從帶有外點的樣本中尋找向量場的魯棒估計。向量場的光滑性由再生核希爾伯特空間( RKHS) 【45】范數(shù)表征,VFC 算法基于這一先驗理論,使用貝葉斯模型的最大后驗( MAP) 計算匹配是否正確,最后使用 EM 算法將后驗概率最大化。VFC 算法的適用范圍: 1) 誤匹配比例高的時候( 遙感圖像、紅外圖像和異質(zhì)圖像) ; 2) 無法提供變換模型的時候(如非剛性變形、相機參數(shù)未知);3) 需要一個快速匹配算法且不需要求解變換參數(shù)的時候。


        Part2:局部不變特征點匹配-3D


        3維圖像常用的表現(xiàn)形式包括: 深度圖( 以灰度表達(dá)物體與相機的距離) 、幾何模型( 由 CAD軟件建立) 、點云模型( 所有逆向工程設(shè)備都將物體采樣成點云) ,3 維點匹配算法中常見的是基于點云模型的和基于深度模型的。點云模型中的每個點對應(yīng)一個測量點,包含了最大的信息量。

        1. 特征檢測

        • PointNet【46】可以直接將 3D 點云作為輸入,其改進版。PointNet++【47】能更好地提取局部信息。3 維局部描述符在 3 維視覺中發(fā)揮重要作用,是解決對應(yīng)估計、匹配、目標(biāo)檢測和形狀檢索等的前提,廣泛應(yīng)用在機器人技術(shù)、導(dǎo) 航( SVM) 和場景重建中。點云匹配中的 3 維幾何描述符一直是該領(lǐng)域的研究熱點,這種描述符主要依賴 3 維局部幾何信息。
        • Deng 等人[48]提出具有全局感知的局部特征提取網(wǎng)絡(luò) PPFNet ( point pair feature network) 。PPFNet 結(jié)構(gòu)如圖 5 所示。塊描述 Fr 由點對特征( PPF) 集合、局部鄰域內(nèi)的點及法線構(gòu)成,首先采用 PointNet 處理每個區(qū)域塊,得到局部特征;其次通過最大池化層將各個塊的局部特征聚合為全局特征,將截然不同的局部信息匯總到整個片段的全局背景中;最后將該全局特征連接到每個局部特征,使用一組多層感知機( MLP) 進一步將全局和局部特征融合到最終全局背景感知的局部描述符中。PPFNet 在幾何空間上學(xué)習(xí)局部描述符,具有排列不變性,且能充分利用原始點云的稀疏性,提高了召回率,對點云的密度變化有更好的魯棒性。但其內(nèi)存使用空間與塊數(shù)的 2 次方成正比,限制了塊的數(shù)量,目前只能設(shè)置為 2 K。

        • 在基于深度模型的匹配算法中,Zhou 等人【49】基于多視圖融合技術(shù)Fuseption-ResNet(FRN) ,提出多視圖描述符 MVDesc。FRN 能將多視圖特征映射集成到單視圖上表示,如圖 6 所示。其中,視圖池化 ( view pooling) 用于快捷連接,F(xiàn)useption 分支負(fù)責(zé)學(xué)習(xí)殘差映射,兩個分支在精度和收斂率方面互相加強。采用 3 × 3、1 × 3 和 3 × 1 3 種不同內(nèi)核尺寸的輕量級空間濾波器提取不同類型的特征,并采用上 述級聯(lián)特征映射的 1 × 1 卷積負(fù)責(zé)跨通道統(tǒng)計量的合并與降維。將 FRN 置于多個并行特征網(wǎng)絡(luò)之上,并建立 MVDesc 的學(xué)習(xí)網(wǎng)絡(luò),其中卷積 6 的通道數(shù)與特征網(wǎng)絡(luò)輸出的特征映射通道數(shù)相同。
        • 與依賴多視圖圖像或需要提取固有形狀特征的卷積神經(jīng)網(wǎng)絡(luò)不同,Wang 等人[50]提出一種可以根據(jù) 3 維曲面形狀生成局部描述符的網(wǎng)絡(luò)框架。該方法將關(guān)鍵點的鄰域進行多尺度量化并參數(shù)化為 2 維網(wǎng)格,并將其稱之為幾何圖像,描述符的訓(xùn)練過程如下: 首先 提取曲面上關(guān)鍵點鄰域的多尺度局部塊,根據(jù)這些塊構(gòu)造一組幾何圖像;其次將這些塊輸入 Triplet 網(wǎng)絡(luò),每個網(wǎng)絡(luò)分支采用 ConvNet ( convolutional networks) 訓(xùn)練; 最后輸出 128 維描述符,并采用 MinCV Triplet 損失函數(shù)最小化錨樣本和正樣本距離的變異系數(shù)(CV) 之比。相對于其他局部描述符學(xué)習(xí)方法,該方法具有更好的可區(qū)分性、魯棒性及泛化能力。
        • Georgakis 等人[51]提出用于特征點檢測和描述符學(xué)習(xí)的端到端框架。 該框架基于 Siamese 體系結(jié) 構(gòu),每個分支都是一個改進的 Faster R-CNN[52]。如 圖 7 所示,采用 VGG-16 的卷積層 cov5_3 提取深度圖I的深度卷積特征,一方面經(jīng)過RPN( region propose network) 處理,產(chǎn)生特征點的候選區(qū)域( 橙色區(qū)域) 及分?jǐn)?shù) S ; 另一方面輸入到 RoI( region of interest) 池化層,經(jīng)過全連接層將特征點候選區(qū)域映射到對應(yīng)卷積特征f 上; 采樣層以候選區(qū)域的質(zhì)心 x、 卷積特征 f 、深度圖像值 D、相機姿態(tài)信息 g 和相機內(nèi)在參數(shù)作為輸入,動態(tài)生成局部塊對應(yīng)標(biāo)簽(正或負(fù)) ,并采用對比損失函數(shù) Lcontr 最小化正樣本對間的特征距離,最大化負(fù)樣本對間的距離,該方法對視角變化具有一定的魯棒性。


        2. 誤差剔除


        • 采用基于圖模型的3維誤匹配點剔除方法RMBP( robust matching using belief propagation) 。該模型可以描述匹配對之間的相鄰關(guān)系,并通過置信傳播對每個匹配對進行推斷驗證,從而提高 3 維點匹配的準(zhǔn)確性和魯棒性。


        Part3:直線匹配


        研究直線匹配首先要克服線特征本身存在的一些問題,如端點位置不準(zhǔn)確、圖像邊緣特征不明顯、線段碎片問題等,與點特征相比,線特征包含更多場景和對象的結(jié)構(gòu)信息。線特征匹配方法可以大致分為 3 種: 基于單線段匹配方法、基于線段組方法和基于共面線—點不變量(LP) 方法。

        1. 基于單線段匹配

        • Wang 等人[53]提出 的 MSLD( mean standard deviation line descriptor) 方法通過統(tǒng)計像素支持區(qū)域內(nèi)每個子區(qū)域 4 個方向的梯度向量構(gòu)建描述子矩陣,進而提高描述符的魯棒性。MSLD 對具有適當(dāng)變化的紋理圖像有較好的匹配效果,可以應(yīng)用在 3 維重建和目標(biāo)識別等領(lǐng)域。為了解決 MSLD 對尺度變化敏感問題,文獻(xiàn)[54]將區(qū)域仿射變換和 MSLD 相結(jié)合,利用核線約束確定匹配圖像對應(yīng)的同名支持域,并對該支持域進行仿射變換以統(tǒng)一該區(qū)域大小,實現(xiàn)不同尺度圖像上直線的可靠匹配。
        • 與 MSLD 相似,Zhang 等人[55]提出 線帶描述符( LBD) ,在線支持區(qū)域( LSR) 中計算描述符,同時利用直線的局部外觀和幾何特性,通過成對幾何一致評估提高對低紋理圖像直線匹配的精確度。該方法可在不同尺度空間中檢測線段,能夠克服線段碎片問題,提高抗大尺度變化的魯棒性。

        2. 基于線段組方法

        • 當(dāng)像對間旋轉(zhuǎn)角度過大時,單線段匹配方法的匹配準(zhǔn)確率不高,可以采用線段組匹配方法通過更多的幾何信息解決這一問題。Wang 等人[56]基于線段局部聚類的方式提出半局部特征 LS( line signature) ,用于寬基線像對匹配,并采用多尺度方案提高尺度變化下的魯棒性。
        • 為了提高在光照不受控制情況下對低紋理圖像的匹配準(zhǔn)確度,López 等人[57]將直線的幾何特性、局部外觀及線鄰域結(jié)構(gòu)上下文相結(jié)合,提出雙視圖( two-view) 直線匹配算法 CA。首先對線特征進行檢測: 1) 在高斯尺度空間利用基于相位的邊緣檢測器提取特征; 2) 根據(jù)連續(xù)性準(zhǔn)則將邊緣特征局部區(qū)域近似為線段; 3) 在尺度空間進行線段融合。其次,該方法中的相位一致性對于圖像亮度和對比度具有較高不變性,線段融合可以減少重疊線段以及線段碎片出現(xiàn)。最后,線特征匹配采用迭代方式進行,通過不同直線鄰域的局部結(jié)構(gòu)信息來增強每次迭代的匹配線集,該方法適用于低紋理圖像中線特征的檢測與匹配。

        基于線段組匹配方法對線段端點有高度依賴性,圖像變換及部分遮擋可能導(dǎo)致端點位置不準(zhǔn)確,進而影響匹配效果。

        3. 基于共面線—點不變量( LP) 方法

        • Fan 等人[58-59]利用線及其鄰域點的局部幾何信息構(gòu)造共面線—點不變量( LP) 用于線匹配。LP 包括:“一線 + 兩點”構(gòu)成的仿射不變量和“一線 + 四點”構(gòu)成的投影不變量。該投影不變量和“兩線+兩點”構(gòu)成的投影不變量[60] 相比,可以直接用于線匹配而無需復(fù)雜的組合優(yōu)化。根據(jù)直線的梯度方向,將線鄰域分為左鄰域和右鄰域( 線梯度方向) ,以獲得左右鄰域內(nèi)與線共面的匹配點,進行線相似性度量時,取左右鄰域相似性的最大值。
        • 該方法對誤匹配點和圖像變換具有魯棒性,但高度依賴匹配關(guān)鍵點的準(zhǔn)確性。為此,Jia 等 人[61]基于特征數(shù) CN[62]提出一種新的共面線—點 投影不變量。CN 對交叉比進行擴展,采用線上點和線外點描述基礎(chǔ)幾何結(jié)構(gòu)。通過“五點”構(gòu)造線—點不變量,其中兩點位于直線上,另外三點位于直線同一側(cè)但不共線,如圖 8 所示。點 KP1 l ,KP2 l , P1 ,P2 ,P3 用于構(gòu)造該不變量,通過兩點連線可以獲得其他特征點。計算直線鄰域相似性時,把線鄰域按照線梯度方向分為左鄰域和右鄰域( 梯度方向) ,根據(jù)線點不變量分別計算左、右鄰域的相似性。這種相似性度量方法受匹配特征點的影響較小。該方法對于低紋理和寬基線圖像的線匹配效果要優(yōu)于其他線匹配算法,對于很多圖像失真也有較好魯棒性。由于該線—點不變量是共面的,對于非平面場景圖像的處理具有局限性。



        • 對航空影像進行線匹配時,線特征通常會出現(xiàn)遮擋、變形及斷裂等情況,使得基于形態(tài)的全局描述符不再適用。基于此,歐陽歡等人[63]聯(lián)合點特征匹配優(yōu)勢,通過對線特征進行離散化描述并結(jié)合同名點約束實現(xiàn)航空影像線特征匹配。線特征離散化,即將線看做離散點,通過統(tǒng)計線上同名點的分布情況來確定線特征的初匹配結(jié)果,最后利用點線之間距離關(guān)系對匹配結(jié)果進行核驗。同名點約束包括單應(yīng)性約束和核線約束,單應(yīng)性約束實現(xiàn)線特征之間的位置約束,核線約束將匹配搜索空間從 2 維降至 1 維。線上離散點的匹配約束如圖 9 所示,IL 為目 標(biāo)影像,l1 為目標(biāo)線特征,p 為其上一點; IR 為待匹配影像,線 E 代表 p 所對應(yīng)核線,p' 為 p 由單應(yīng)性矩 陣映射得到的對應(yīng)點,虛線圓為單應(yīng)性矩陣的約束 范圍,l'1 、l'2 、l'3 是由約束確定的候選線特征,點 p1、p2 、p3 為 p 的候選同名點。該算法匹配正確率高,匹配速度相對較快,可實現(xiàn)斷裂線特征的多對多匹配,但匹配可靠性仍受到點特征匹配的影響,對于難以獲得初始同名點的區(qū)域,其適用性不高。


        Part4:區(qū)域匹配


        1. 區(qū)域特征提取與匹配方法

        區(qū)域特征具有較高的不變性與穩(wěn)定性,在多數(shù)圖像中可以重復(fù)檢測,與其他檢測器具有一定互補性,被廣泛應(yīng)用于圖像識別、圖像檢索、圖像拼接、3 維重建、機器人導(dǎo)航等領(lǐng)域。

        • Matas 等人[64]于 2002 年提 出最大穩(wěn)定極值區(qū)域( MSER) 采用分水嶺方法,通過對灰度圖像取不同閾值分割得到一組二值圖,再分析相鄰二值圖像的連通區(qū)域獲得穩(wěn)定區(qū)域特征。經(jīng)典MSER算法具有較高的時間復(fù)雜度。
        • Nistér 等 人[65]基于改進的分水嶺技術(shù)提出一種線性計算 MSER 的算法,該算法基于像素的不同計算順序,獲得與圖像中存在灰度級數(shù)量相同的像素分量信息,并通過組件樹表示對應(yīng)灰度級。MSER 這類方法可用于圖像斑點區(qū)域檢測及文本定位,也可與其他檢測器結(jié)合使用,如文獻(xiàn)[66]將 SURF 和 MSER 及顏色特征相結(jié)合用于圖像檢索,文獻(xiàn)[67]將 MSER 與 SIFT 結(jié)合用于特征檢測。
        • 區(qū)域特征檢測還可利用計算機技術(shù)中的樹理論進行穩(wěn)定特征提取,Xu 等人[68]提出一種基于該理論的拓?fù)浞椒?TBMR( tree-based Morse regions) 。該方法以 Morse 理論為基礎(chǔ)定義臨界點:最大值點、最小值點和鞍點,分別對應(yīng)最大樹葉子節(jié)點、最小樹葉子節(jié)點和分叉節(jié)點。TBMR 區(qū)域?qū)?yīng)樹中具有唯一子節(jié)點和至少具有一個兄弟節(jié)點的節(jié)點。如圖 10 所示,節(jié)點 A 和 C 代表最小值區(qū)域; 節(jié)點 H 和 E 代 表最大值區(qū)域; 節(jié)點 A ∪ B ∪ C ∪ D ∪ G 和 E ∪ F ∪ G ∪ H 表示鞍點區(qū)域; 節(jié)點 A ∪ B 、C ∪ D 、E ∪ F 為所求 TBMR 區(qū)域。該方法僅依賴拓?fù)湫畔ⅲ耆^承形狀空間不變性,對視角變化具有魯棒性,計算速度快,與 MSER 具有相同復(fù)雜度,常用于圖像配準(zhǔn)和 3 維重建。


        2. 模板匹配:

        模板匹配是指給定一個模板( 通常是一塊小圖像區(qū)域) ,在目標(biāo)圖像中尋找與模板對應(yīng)區(qū)域的方法,被廣泛應(yīng)用于目標(biāo)跟蹤、目標(biāo)檢測及圖像拼接等領(lǐng)域。

        模板和目標(biāo)圖像子窗口間的相似性度量是模板匹配的主要部分,常采用逐像素比較的計算方式,如上述方法采用的 SAD、CSAD 和 SV-NCC,此外還有差值平方和 SSD 等,這些方法在圖像背景雜亂或發(fā)生復(fù)雜形變的情況下不再適用。

        • Korman 等人[69]提出可以處理任意仿射變換的模板匹配算法 FAST-Match ( fast affine template matching) ,該方法首先將彩色圖像灰度化,再構(gòu)建仿射變換集合,并遍歷所有可能的仿射變換,最后計算模板與變換后區(qū)域之間絕對差值的和 SAD,求取最小值作為最佳匹配位置。該方法能夠找到全局最優(yōu)匹配位置,但對彩色圖像匹配時,需預(yù)先轉(zhuǎn)換成灰度圖像,而這一過程損失了彩色空間信息,降低了圖像匹配的準(zhǔn)確率。
        • Jia 等人[70]將灰度空間的 SAD 拓展到 RGB 空間形成 CSAD( colour SAD) ,提出適合彩色圖像的模板匹配算法 CFAST-Match ( colour FAST match) 。該方法通過矢量密度聚類算法計算每個像素點所屬類別,并統(tǒng)計同類像素個數(shù)及 RGB 各通道的累計值,以此求解每個分類的矢量中心,將矢量中心作為 CSAD 的判定條件,同類像素個數(shù)的倒數(shù)作為分值系數(shù),以此建立新的相似性度量機制。
        • 上方法對存在明顯色差的區(qū)域具有較高匹配精度,但部分參數(shù)依據(jù)經(jīng)驗設(shè)置,且不適合處理大尺寸圖像。為了解決這一問題,文獻(xiàn)[71]提出一種基于分值圖的模板匹配算法。該方法依據(jù)彩色圖像的多通道特征,采用抽樣矢量歸一化互相關(guān)方法 ( SVNCC) 度量兩幅圖像間的區(qū)域一致性,以降低光照和噪聲影響。
        • Dekel 等人[72-73]基于模板與目標(biāo)圖像間的最近鄰( NN) 匹配屬性提出 一種新的 BBS( best-buddies similarity) 度量方法,采用不同圖像特征( 如顏色、深度) 通過滑動窗口方式統(tǒng)計模板點與目標(biāo)點互為 NN 的匹配數(shù)量,并將匹配數(shù)量最多的窗口視為最終匹配位置。但該算法在發(fā)生劇烈非剛性形變或處于大面積遮擋及非均勻光照等環(huán)境下匹配魯棒性差。文獻(xiàn)[74]利用曼哈頓距離代替 BBS 算法中的歐氏距離,并對生成的置信圖進行閾值篩選和濾波,能夠較好地解決光照不均勻、模板中外點較多與旋轉(zhuǎn)變形等多種復(fù)雜條件下的匹配問題。
        • 采用雙向 NN 匹配導(dǎo)致 BBS 的計算時間較長, Talmi 等人[75]提出基于單向 NN 匹配的 DDIS ( deformable diversity similarity) 方法。首先計算目標(biāo)圖像窗口點在模板中的 NN 匹配點,并統(tǒng)計對應(yīng)同一匹配點的數(shù)量,計算像素點的置信度。其次采用歐氏距離計算目標(biāo)點和對應(yīng) NN 匹配點間距離,最后 結(jié)合度量模板和目標(biāo)圖像窗口間的相似性獲得匹配結(jié)果。盡管 DDIS 降低了算法復(fù)雜度并提高了檢測精度,但當(dāng)形變程度較大時依然會影響匹配效果。
        • 由于 DDIS 對每個滑動窗口單獨計算 NN 匹配且滑動窗口的計算效率較低,導(dǎo)致模板在與較大尺寸的目標(biāo)圖像進行匹配時,處理時間較長。為此,Talker 等人[76]基于單向 NN 匹配提出 DIWU( deformable image weighted unpopularity) 方法。與 DDIS 基于目標(biāo)圖像窗口點不同,DIWU 計算整幅目標(biāo)圖像點在模板中的最近鄰匹配點,若多個像素的 NN 匹配點相同,則像素的置信分?jǐn)?shù)就低,匹配的正確性就低。DIWU 以第 1 個圖像窗口的分?jǐn)?shù)為基礎(chǔ),逐步計算之后的每個窗口分?jǐn)?shù),該方法在保證匹配準(zhǔn)確性的同時,提高了運算速度,使得基于 NN 的模板匹配適合實際應(yīng)用。
        • BBS 和 DDIS 均采用計算矩形塊間的相似性度量解決幾何形變和部分遮擋問題,但滑動窗口的使用限制了遮擋程度。Korman 等人[77]基于一致集最 大化( CSM) 提出適用于存在高度遮擋情況下的模 板匹配算法 OATM ( occlusion aware template matching) 。OATM 通過約簡方法,將單個向量和 N 個目標(biāo)向量間的匹配問題轉(zhuǎn)化為兩組 槡N 向量間的匹配問題,并基于隨機網(wǎng)格哈希算法進行匹配搜索。匹配搜索的過程為尋找 CSM 的過程,即使用閾值內(nèi)的 殘差映射進行變換搜索。OATM 提高了算法的處理 速度,較好地解決了遮擋問題。
        • 與基于歐氏距離的像素間的相似性不同,共現(xiàn)統(tǒng)計( cooccurrence statistics) 是從數(shù)據(jù)中學(xué)習(xí)像素間 的相似性。Kat 等人[78]通過統(tǒng)計模板點和目標(biāo)點在 目標(biāo)圖像窗口共同出現(xiàn)的概率提出 CoTM( cooccurrence based template matching) 。CoTM 在處理彩色 圖時,采用 k-means 聚類算法將圖像量化為 k 個類簇,根據(jù)共現(xiàn)矩陣統(tǒng)計模板和目標(biāo)圖像中的類簇對在目標(biāo)圖像中共同出現(xiàn)的次數(shù),再基于每個類簇的先驗概率進行歸一化,構(gòu)造點互信息( PMI) 矩陣,值越大表明共現(xiàn)概率越高,誤匹配率越低。最后根據(jù) PMI 計算模板類簇中的像素和目標(biāo)圖像窗口中包含的類簇中的像素之間的相關(guān)性,選出最佳匹配位置。CoTM 也適用于顏色特征之外的其他特征,如深度特征,可將共現(xiàn)統(tǒng)計( 捕獲全局統(tǒng)計) 與深度特征 ( 捕獲局部統(tǒng)計數(shù)據(jù)) 相結(jié)合,在基于標(biāo)準(zhǔn)數(shù)據(jù)集的 模板匹配中提升匹配效果。

        3. 深度學(xué)習(xí)方法-塊匹配:

        近年來,基于深度學(xué)習(xí)的圖像區(qū)域匹配成為研究熱點,卷積神經(jīng)網(wǎng)絡(luò)( CNN) 在局部圖像區(qū)域匹配的應(yīng)用中,根據(jù)是否存在度量層可以分為兩類:

        第一類為具有度量層的方法,這類網(wǎng)絡(luò)通常把圖像塊對匹配問題視為二分類問題。

        • Han 等 人[79] 提出的 MatchNet 通過 CNN 進行圖像區(qū)域特征提取和相似性度量,過程如圖 11 所示。對于每個輸入圖像塊, 特征網(wǎng)絡(luò)輸出一個固定維度特征,預(yù)處理層的輸入為灰度圖像塊,起到歸一化作用。卷積層激活函數(shù) 為 ReLU,瓶頸( bottlebeck) 層為全連接層,能夠降低特征維度并防止網(wǎng)絡(luò)過擬合。采用 3 個全連接層組 成的度量網(wǎng)絡(luò)計算特征對的匹配分?jǐn)?shù),雙塔結(jié)構(gòu)在監(jiān)督環(huán)境下聯(lián)合訓(xùn)練特征網(wǎng)絡(luò)和度量網(wǎng)絡(luò)。
        • Zagoruyko 等人[80] 提出 DeepCompare 方法,通過 CNN 比較灰度圖像塊對的相似性。該方法對基礎(chǔ)網(wǎng)絡(luò)框架 Siamese、pseudo-Siamese 和 2 通道( 2ch) 進行描述,并在此基礎(chǔ)上采用深度網(wǎng)絡(luò)、中心環(huán)繞雙 流網(wǎng)絡(luò)( central-surround two-stream,2stream) 和空間 金字塔池化( SPP) 網(wǎng)絡(luò)提升基礎(chǔ)框架性能。
        • 為了提高衛(wèi)星影像的配準(zhǔn)率,范大昭等人[81]提出基于空間尺度雙通道深度卷積神經(jīng)網(wǎng)絡(luò)方法 ( BBS-2chDCNN) 。BBS-2chDCNN 是在雙通道深度卷積神經(jīng)網(wǎng)絡(luò)( 2chDCNN) 前端加入空間尺度卷積層,以加強整體網(wǎng)絡(luò)的抗尺度特性。2chDCNN 將待匹配點對局部合成的兩通道影像作為輸入數(shù)據(jù),依次進行 4 次卷積、ReLU 操作、最大池化操作,3 次卷積和 ReLU 操作,最后進行扁平化和兩次全連接操作輸出一維標(biāo)量結(jié)果。該方法適用于處理異源、多時相、多分辨率的衛(wèi)星影像,較傳統(tǒng)匹配方法能提取到更為豐富的同名點。

        第二類方法不存在度量層,這類網(wǎng)絡(luò)的輸出即為特征描述符,在某些應(yīng)用中可以直接代替?zhèn)鹘y(tǒng)描述符。

        • Balntas 等人[82]提出的 PN-Net 采用 Triplet 網(wǎng)絡(luò)訓(xùn)練,訓(xùn)練過程如圖 14 所示。圖像塊三元組 T = { p1,p2,n} ,包 括 正 樣 本 對 ( p1,p2 ) 和 負(fù) 樣 本 對 ( p1,n) 、( p2,n) ,采用 SoftPN 損失函數(shù)計算網(wǎng)絡(luò)輸 出描述子間相似性,以確保最小負(fù)樣本對距離大于正樣本對距離。表 2 給出所采用的 CNN 體系結(jié)構(gòu) 的參數(shù),采用 32 × 32 像素的圖像塊作為輸入,括號內(nèi)的數(shù)字表示卷積核大小,箭頭后面的數(shù)字表示輸出通道數(shù),Tanh 為激活函數(shù)。與其他特征描述符相比,PN-Net 具有更高效的描述符提取及匹配性能,能顯著減少訓(xùn)練和執(zhí)行時間。
        • Yang 等人[83]提出用于圖像塊表示的一對互補描述符學(xué)習(xí)框架 DeepCD。該方法采用 Triplet 網(wǎng)絡(luò) 進行訓(xùn)練,輸出主描述符( 實值描述符) 和輔描述符 ( 二值描述符) ,如圖 15 所示,輸入圖像區(qū)域包括正樣本對 ( a,p) ,負(fù)樣本對 ( a,n) 和 ( p,n) ,L 代表 主描述符,C 代表輔描述符,Δ 代表主描述符距離, Δ 珚代表輔描述符距離。數(shù)據(jù)相關(guān)調(diào)制層( DDM) 通過學(xué)習(xí)率的動態(tài)調(diào)整實現(xiàn)輔助描述符對主導(dǎo)描述符的輔助作用。該方法能夠有效地提高圖像塊描述符在各種應(yīng)用和變換中的性能。
        • 以上這些方法都是對圖像塊對或三元組進行的處理,Tian 等人[84]提出的 L2-Net 通過 CNN 在歐氏空間將一批圖像塊轉(zhuǎn)換成一批描述符,將批處理中的最近鄰作為正確匹配描述符。如圖 16 所示,每個 卷積層左邊數(shù)字代表卷積核大小,右邊數(shù)字表示輸出通道數(shù),2 表示下采樣層的步長; 3 × 3 Conv 由卷積、批歸一化( BN) 和 ReLU( rectified linear unit) 組成; 8 × 8 Conv 由卷積和批歸一化( BN) 組成; 局部響應(yīng)歸一化層( LRN) 作為單元描述符的輸出層,獲 得 128 維描述符。CS L2-Net 由兩個獨立 L2-Net 級聯(lián)成雙塔結(jié)構(gòu),左側(cè)塔輸入和 L2-Net 相同,右側(cè)塔輸入是中心裁剪后的圖像塊。采用漸進式采樣策略,在參與訓(xùn)練的批樣本中,從每對匹配樣本中隨機抽取一個組成若干不匹配樣本,增加負(fù)樣本數(shù)量。與成對樣本和三元組樣本相比,能夠利用更多負(fù)樣本信息。


        比較



        2維點匹配


        • TILDE
          • https://cvlab.epfl.ch/research/tilde
        • 協(xié)變特征檢測[17]
          • http://dvmmweb.cs.columbia.edu/files/3129.pdf
          • https://github.com/ColumbiaDVMM/Transform_Covariant_Detector
        • DeepDesc
          • http://icwww.epfl.ch/~trulls/pdf/iccv-2015-deepdesc.pdf
          • https://github.com/etrulls/deepdesc-release
        • LIFT
          • https://arxiv.org/pdf/1603.09114.pdf
          • https://github.com/cvlab-epfl/LIFT
        • Quad-networks
          • https://arxiv.org/pdf/1611.07571.pdfGMShttp://jwbian.net/gmsVFC
          • http://www.escience.cn/people/jiayima/cxdm.html


        3維點匹配


        • PPFNet
          • http://tbirdal.me/downloads/tolga-birdal-cvpr-2018-ppfnet.pdf
        • 文獻(xiàn)[51]
          • http://cn.arxiv.org/pdf/1802.07869
        • 文獻(xiàn)[49]
          • http://cn.arxiv.org/pdf/1807.05653
        • 文獻(xiàn)[50]
          • http://openaccess.thecvf.com/content_ECCV_2018/papers/Hanyu_Wang_Learning_3D_Keypoint_ECCV_2018_paper.pdf


        語義匹配


        • 樣本LDA分類器
          • http://ci2cv.net/media/papers/2015_ICCV_Hilton.pdf
          • https://github.com/hbristow/epic
        • AnchorNet
          • http://openaccess.thecvf.com/content_cvpr_2017/papers/Novotny_AnchorNet_A_Weakly_CVPR_2017_paper.pdf
        • 文獻(xiàn)[28]
          • http://cn.arxiv.org/pdf/1711.07641


        線匹配


        • LBD
          • http://www.docin.com/p-1395717977.html
          • https://github.com/mtamburrano/LBD_Descriptor
        • 新線點投影不變量[61]
          • https://github.com/dlut-dimt/LineMatching


        模板匹配


        • FAST-Match
          • http://www.eng.tau.ac.il/~simonk/FastMatch/
        • CFAST-Match
          • https://wenku.baidu.com/view/3d96bf9127fff705cc1755270722192e453658a5.html
        • DDIS
          • https://arxiv.org/abs/1612.02190
          • https://github.com/roimehrez/DDIS
        • DIWU
          • http://liortalker.wixsite.com/liortalker/code
        • CoTM
          • http://openaccess.thecvf.com/content_cvpr_2018/CameraReady/2450.pdf
        • OATM
          • http://cn.arxiv.org/pdf/1804.02638


        塊匹配


        • MatchNet
          • http://www.cs.unc.edu/~xufeng/cs/papers/cvpr15-matchnet.pdf
          • https://github.com/hanxf/matchnet
        • DeepCompare
          • http://imagine.enpc.fr/~zagoruys/publication/deepcompare/
        • PN-Net
          • https://arxiv.org/abs/1601.05030
          • https://github.com/vbalnt/pnnet
        • L2-Net
          • http://www.nlpr.ia.ac.cn/fanbin/pub/L2-Net_CVPR17.pdf
          • https://github.com/yuruntian/L2-Net
        • DeepCD
          • https://www.csie.ntu.edu.tw/~cyy/publications/papers/Yang2017DLD.pdf
          • https://github.com/shamangary/DeepCD


        參考文獻(xiàn):

        [1] Harris C,Stephens M. A combined corner and edge detector [C]/ /Proceedings of the 4th Alvey Vision Conference. Manchester: AVC,1988: 147-151. [DOI: 10. 5244 /C. 2. 23] 

        [2] Rosten E,Drummond T. Machine learning for high-speed corner detection[C]/ /Proceedings of the 9th European Conference on Computer Vision. Graz,Austria: Springer,2006: 430-443. [DOI: 10. 1007 /11744023_34] 

        [3] Lowe D G. Distinctive image features from scale-invariantkeypoints[J]. International Journal of Computer Vision,2004, 60( 2) : 91-110. [DOI: 10. 1023 /B: VISI. 0000029664. 99615. 94]

        [4] Liu L,Zhan Y Y,Luo Y,et al. Summarization of the scale invariant feature transform[J]. Journal of Image and Graphics, 2013,18( 8) : 885-892. [劉立,詹茵茵,羅揚,等. 尺度不 變特征 變 換 算 子 綜 述[J]. 中 國 圖 象 圖 形 學(xué) 報,2013, 18( 8) : 885-892.][DOI: 10. 11834 /jig. 20130801] 

        [5] Xu Y X,Chen F. Recent advances in local image descriptor[J]. Journal of Image and Graphics,2015,20( 9) : 1133-1150. [許 允喜,陳方. 局部圖像描述符最新研究進展[J]. 中國圖象 圖形學(xué)報,2015,20( 9) : 1133-1150.][DOI: 10. 11834 /jig. 20150901]

        [6] Zhang X H,Li B,Yang D. A novel Harris multi-scale corner detection algorithm[J]. Journal of Electronics and Information Technology,2007,29 ( 7) : 1735-1738. [張小 洪,李 博,楊 丹. 一種新的 Harris 多尺度角點檢測[J]. 電子與信息學(xué)報, 2007,29 ( 7 ) : 1735-1738.] [DOI: 10. 3724 / SP. J. 1146. 2005. 01332]

        [7] He H Q,Huang S X. Improved algorithm for Harris rapid subpixel corners detection[J]. Journal of Image and Graphics, 2012,17( 7) : 853-857. [何海清,黃聲享. 改進的 Harris 亞 像素角點快速定位[J]. 中國圖象圖形學(xué)報,2012,17( 7) : 853-857.][DOI: 10. 11834 /jig. 20120715] 

        [8] Zhang L T,Huang X L,Lu L L,et al. Fast Harris corner detection based on gray difference and template[J]. Chinese Journal of Scientific Instrument,2018,39( 2) : 218-224. [張立亭,黃 曉浪,鹿琳琳,等. 基于灰度差分與模板的 Harris 角點檢測 快速算法[J]. 儀器儀表學(xué)報,2018,39( 2) : 218-224.] 

        [9] Ke Y,Sukthankar R. PCA-SIFT: a more distinctive representation for local image descriptors[C]/ /Proceedings of 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington,DC: IEEE,2004: 506-513. [DOI: 10. 1109 /CVPR. 2004. 1315206]

        [10] Bay H,Tuytelaars T,Gool L. SURF: speeded up robust features [C]/ /Proceedings of the 9th European Conference on Computer Vision. Graz,Austria: Springer,2006: 404-417. [DOI: 10. 1007 /11744023_32]

        [11] Liu L,Peng F Y,Zhao K,et al. Simplified SIFT algorithm for fast image matching[J]. Infrared and Laser Engineering,2008, 37( 1) : 181-184. [劉立,彭復(fù)員,趙坤,等. 采用簡化 SIFT 算法實 現(xiàn) 快 速 圖 像 匹 配[J]. 紅外與激光工程,2008, 37( 1) : 181-184.][DOI: 10. 3969 /j. issn. 1007-2276. 2008. 01. 042] 

        [12] Abdel-Hakim A E,F(xiàn)arag A A. CSIFT: a SIFT descriptor with color invariant characteristics[C]/ /Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York,NY: IEEE,2006: 1978-1983. [DOI: 10. 1109 /CVPR. 2006. 95] 

        [13] Mikolajczyk K,Schmid C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27 ( 10 ) : 1615-1630. [DOI: 10. 1109 /TPAMI. 2005. 188] 

        [14] Morel J M,Yu G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Imaging Sciences,2009,2( 2) : 438-469. [DOI: 10. 1137 /080732730] 

        [15] Rosten E,Porter R,Drummond T. Faster and better: a machine learning approach to corner detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32( 1) : 105- 119. [DOI: 10. 1109 /TPAMI. 2008. 275] 

        [16] Verdie Y,Yi K M,F(xiàn)ua P,et al. TILDE: a temporally invariant learned DEtector[C]/ /Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA: IEEE, 2015: 5279-5288. [DOI: 10. 1109 /CVPR. 2015. 7299165] 

        [17] Zhang X,Yu F X,Karaman S,et al. Learning discriminative and transformation covariant local feature detectors[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 4923-4931. [DOI: 10. 1109 /CVPR. 2017. 523] 

        [18] Savinov N,Seki A,Ladicky L,et al. Quad-networks: unsupervised learning to rank for interest point detection[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 3929-3937. [DOI: 10. 1109 /CVPR. 2017. 418] 

        [19] Simo-Serra E,Trulls E,F(xiàn)erraz L,et al. Discriminative learning of deep convolutional feature point descriptors[C]/ /Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago,Chile: IEEE,2015: 118-126. [DOI: 10. 1109 / ICCV. 2015. 22] 

        [20] Yi K M,Trulls E,Lepetit V,et al. LIFT: learned invariant feature transform[C]/ /Proceedings of the 14th European Conference on Computer Vision. Amsterdam,The Netherlands: Springer,2016: 467-483. [DOI: 10. 1007 /978-3-319-46466-4_28] 

        [21] Jaderberg M,Simonyan K,Zisserman A,et al. Spatial transformer networks[C]/ /Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal, Canada: ACM,2015: 2017-2025. 

        [22] Yi K M,Verdie Y,F(xiàn)ua P,et al. Learning to assign orientations to feature points[C]/ /Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV: IEEE,2016: 107-116. [DOI: 10. 1109 /CVPR. 2016. 19] 

        [23] Liu C,Yuen J,Torralba A. SIFT flow: dense correspondence across scenes and its applications[J]. IEEE Transactions on Pattern Analysisand Machine Intelligence,2011,33( 5) : 978-994. [DOI: 10. 1109 /TPAMI. 2010. 147]

        [24] Bristow H,Valmadre J,Lucey S. Dense semantic correspondence where every pixel is a classifier[C]/ /Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE,2015: 4024-4031. [DOI: 10. 1109 / ICCV. 2015. 458] 

        [25] Novotny D,Larlus D,Vedaldi A. AnchorNet: A weakly supervised network to learn geometry-sensitive features for semantic matching[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE, 2017: 2867-2876. [DOI: 10. 1109 /CVPR. 2017. 306] 

        [26] Kar A,Tulsiani S,Carreira J,et al. Category-specific object reconstruction from a single image[C]/ /Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE,2015: 1966-1974. [DOI: 10. 1109 /CVPR. 2015. 7298807] 

        [27] Thewlis J,Bilen H,Vedaldi A. Unsupervised learning of object landmarks by factorized spatial embeddings[C]/ /Proceedings of 2017 IEEE International Conference on Computer Vision. Venice,Italy: IEEE,2017: 3229-3238. [DOI: 10. 1109 / ICCV. 2017. 348]

        [28] Wang Q Q,Zhou X W,Daniilidis K. Multi-image semantic matching by mining consistent features[C]/ /Proceedings of 2018 IEEE /CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT: IEEE,2018: 685-694. [DOI: 10. 1109 /CVPR. 2018. 00078] 

        [29] Yu D D,Yang F,Yang C Y,et al. Fast rotation-free featurebased image registration using improved N-SIFT and GMM-based parallel optimization[J]. IEEE Transactions on Biomedical Engineering,2016,63 ( 8) : 1653-1664. [DOI: 10. 1109 /TBME. 2015. 2465855] 

        [30] Pock T,Urschler M,Zach C,et al. A duality based algorithm for TV - L1 - optical-flow image registration[C]/ /Proceedings of the 10th International Conference on Medical Image Computing and Computer-Assisted Intervention. Brisbane,Australia: Springer, 2007: 511-518. [DOI: 10. 1007 /978-3-540-75759-7_62] 

        [31] Zhang G M,Sun X X,Liu J X,et al. Research on TV-L1 optical flow model for image registration based on fractional-order differentiation[J]. Acta Automatica Sinica,2017,43 ( 12) : 2213- 2224. [張桂梅,孫曉旭,劉建新,等. 基于分?jǐn)?shù)階微分的 TV-L1光流 模 型 的 圖 像 配 準(zhǔn) 方 法 研 究[J]. 自 動 化 學(xué) 報, 2017,43 ( 12 ) : 2213-2224.][DOI: 0. 16383 /j. aas. 2017. c160367] 

        [32] Lu X S,Tu S X,Zhang S. A metric method using multidimensional features for nonrigid registration of medical images[J]. Acta Automatica Sinica,2016,42( 9) : 1413-1420. [陸雪松, 涂圣賢,張素. 一種面向醫(yī)學(xué)圖像非剛性配準(zhǔn)的多維特征度 量方法[J]. 自動化學(xué)報,2016,42( 9) : 1413-1420.][DOI: 10. 16383 /j. aas. 2016. c150608]

        [33] Yang W,Zhong L M,Chen Y,et al. Predicting CT image from MRI data through feature matching with learned nonlinear local descriptors[J]. IEEE Transactions on Medical Imaging,2018, 37( 4) : 977-987. [DOI: 10. 1109 /TMI. 2018. 2790962] 

        [34] Cao X H,Yang J H,Gao Y Z,et al. Region-adaptive deformable registration of CT /MRI pelvic images via learning-based image synthesis[J]. IEEE Transactions on Image Processing, 2018,27 ( 7 ) : 3500-3512. [DOI: 10. 1109 /TIP. 2018. 2820424] 

        [35] He M M,Guo Q,Li A,et al. Automatic fast feature-level image registration for high-resolution remote sensing images[J]. Journal of Remote Sensing,2018,22( 2) : 277-292. [何夢夢,郭擎, 李安,等. 特征級高分辨率遙感圖像快速自動配準(zhǔn)[J]. 遙 感 學(xué) 報,2018,22 ( 2 ) : 277-292.] [DOI: 10. 11834 /jrs. 20186420]

        [36] Fischler M A,Bolles R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM,1981, 24( 6) : 381-395. [DOI: 10. 1145 /358669. 358692] 

        [37] Torr P H S,Zisserman A. MLESAC: a new robust estimator with application to estimating image geometry[J]. Computer Vision and Image Understanding,2000,78( 1) : 138-156. [DOI: 10. 1006 /cviu. 1999. 0832]

        [38] Li X R,Hu Z Y. Rejecting mismatches by correspondence function[J]. International Journal of Computer Vision,2010, 89( 1) : 1-17. [DOI: 10. 1007 / s11263-010-0318-x] 

        [39] Liu H R,Yan S C. Common visual pattern discovery via spatially coherent correspondences[C]/ /Proceedings of 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco,CA: IEEE,2010: 1609-1616. [DOI: 10. 1109 /CVPR. 2010. 5539780] 

        [40] Liu H R,Yan S C. Robust graph mode seeking by graph shift [C]/ /Proceedings of the 27th International Conference on International Conference on Machine Learning. Haifa,Israel: ACM, 2010: 671-678. 

        [41] Lin W Y D,Cheng M M,Lu J B,et al. Bilateral functions for global motion modeling[C]/ /Proceedings of the 13th European Conference on Computer Vision. Zurich,Switzerland: Springer, 2014: 341-356. [DOI: 10. 1007 /978-3-319-10593-2_23] 

        [42] Bian J W,Lin W Y,Matsushita Y,et al. GMS: grid-based motion statistics for fast,ultra-robust feature correspondence[C]/ / Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 2828-2837. [DOI: 10. 1109 /CVPR. 2017. 302] 

        [43] Chen F J,Han J,Wang Z W,et al. Image registration algorithm based on improved GMS and weighted projection transformation [J]. Laser & Optoelectronics Progress,2018,55 ( 11 ) : 111006. [陳方杰,韓軍,王祖武,等. 基于改進 GMS 和加權(quán) 投影變換的圖像配準(zhǔn)算法[J]. 激光與光電子學(xué)進展,2018, 55( 11) : 111006.] 

        [44] Ma J Y,Zhao J,Tian J W,et al. Robust point matching via vector field consensus[J]. IEEE Transactions on Image Processing, 2014,23 ( 4 ) : 1706-1721. [DOI: 10. 1109 /TIP. 2014. 2307478] 

        [45] Aronszajn N. Theory of reproducing kernels[J]. Transactions of the American Mathematical Society,1950,68 ( 3 ) : 337-404. [DOI: 10. 2307 /1990404] 

        [46] Charles R Q,Su H,Mo K,et al. PointNet: deep learning on point sets for 3D classification and segmentation[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 77-85. [DOI: 10. 1109 /CVPR. 2017. 16] 

        [47] Qi C R,Yi L,Su H,et al. PointNet + + : deep hierarchical feature learning on point sets in a metric space[C]/ /Proceedings of the 31st Conference on Neural Information Processing Systems. Long Beach,CA: ACM,2017. 

        [48] Deng H W,Birdal T,Ilic S. PPFNet: global context aware local features for robust 3D point matching[C]/ /Proceedings of 2018 IEEE /CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT: IEEE,2018. [DOI: 10. 1109 / CVPR. 2018. 00028] 

        [49] Zhou L,Zhu S Y,Luo Z X,et al. Learning and matching multiview descriptors for registration of point clouds[C]/ /Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer,2018. [DOI: 10. 1007 /978-3-030-01267-0 _31] 

        [50] Wang H Y,Guo J W,Yan D M,et al. Learning 3D keypoint descriptors for non-rigid shape matching[C]/ /Proceedings of the 15th European Conference on Computer Vision. Munich,Germany: Springer,2018. [doi: 10. 1007 /978-3-030-01237-3_1] 

        [51] Georgakis G,Karanam S,Wu Z Y,et al. End-to-end learning of keypoint detector and descriptor for pose invariant 3D matching [C]/ /Proceedings of 2018 IEEE /CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT: IEEE, 2018. [DOI: 10. 1109 /CVPR. 2018. 00210] 

        [52] Ren S Q,He K M,Girshick R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017,39 ( 6 ) : 1137-1149. [DOI: 10. 1109 /TPAMI. 2016. 2577031] 

        [53] Wang Z H,Wu F C,Hu Z Y. MSLD: a robust descriptor for line matching[J]. Pattern Recognition,2009,42 ( 5 ) : 941- 953. [DOI: 10. 1016 /j. patcog. 2008. 08. 035] 

        [54] Wang J X,Zhang X,Zhu H,et al. MSLD descriptor combined regional affine transformation and straight line matching[J]. Journal of Signal Processing,2018,34 ( 2 ) : 183-191. [王競 雪,張雪,朱紅,等. 結(jié)合區(qū)域仿射變換的 MSLD 描述子與 直線段匹配[J]. 信號處理,2018,34( 2) : 183-191.][DOI: 10. 16798 /j. issn. 1003-0530. 2018. 02. 008]

        [55] Zhang L L,Koch R. An efficient and robust line segment matching approach based on LBD descriptor and pairwise geometric consistency[J]. Journal of Visual Communication and Image Representation,2013,24 ( 7 ) : 794-805. [DOI: 10. 1016 /j. jvcir. 2013. 05. 006] 

        [56] Wang L,Neumann U,You S Y. Wide-baseline image matching using line signatures[C]/ /Proceedings of the 12th International Conference on Computer Vision. Kyoto,Japan: IEEE,2009: 1311-1318. [DOI: 10. 1109 / ICCV. 2009. 5459316]

        [57] López J,Santos R,F(xiàn)dez-Vidal X R,et al. Two-view line matching algorithm based on context and appearance in low-textured images[J]. Pattern Recognition,2015,48 ( 7 ) : 2164-2184. [DOI: 10. 1016 /j. patcog. 2014. 11. 018] 

        [58] Fan B,Wu F C,Hu Z Y. Line matching leveraged by point correspondences[C]/ /Proceedings of 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco,CA: IEEE,2010: 390-397. [DOI: 10. 1109 / CVPR. 2010. 5540186] 

        [59] Fan B,Wu F C,Hu Z Y. Robust line matching through line-point invariants[J]. Pattern Recognition,2012,45 ( 2) : 794- 805. [DOI: 10. 1016 /j. patcog. 2011. 08. 004] 

        [60] Lourakis M I A,Halkidis S T,Orphanoudakis S C. Matching disparate views of planar surfaces using projective invariants[J]. Image and Vision Computing,2000,18 ( 9) : 673-683. [DOI: 10. 1016 / S0262-8856( 99) 00071-2]

        [61] Jia Q,Gao X K,F(xiàn)an X,et al. Novel coplanar line-points invariants for robust line matching across views[C]/ /Proceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherlands: Springer,2016: 599-611. [DOI: 10. 1007 / 978-3-319-46484-8_36] 

        [62] Luo Z X,Zhou X C,Gu D X. From a projective invariant to some new properties of algebraic hypersurfaces[J]. Science China Mathematics,2014,57( 11) : 2273-2284. [DOI: 10. 1007 / s11425-014-4877-0] 

        [63] Ouyang H,F(xiàn)an D Z,Ji S,et al. Line matching based on discrete description and conjugate point constraint[J]. Acta Geodaetica et Cartographica Sinica,2018,47 ( 10 ) : 1363-1371. [歐陽歡,范大昭,紀(jì)松,等. 結(jié)合離散化描述與同名點約束 的線特征匹配[J]. 測繪學(xué)報,2018,47( 10) : 1363-1371.] [DOI: 10. 11947 /j. AGCS. 2018. 20170231] 

        [64] Matas J,Chum O,Urban M,et al. Robust wide baseline stereo from maximally stable extremal regions[C]/ /Proceedings of the 13th British Machine Vision Conference. Cardiff: BMVC,2002: 1041-1044. 

        [65] Nistér D,Stewénius H. Linear time maximally stable extremal regions[C]/ /Proceedings of the 10th European Conference on Computer Vision. Marseille,F(xiàn)rance: Springer,2008: 183-196. [DOI: 10. 1007 /978-3-540-88688-4_14] 

        [66] Elnemr H A. Combining SURF and MSER along with color features for image retrieval system based on bag of visual words[J]. Journal of Computer Science,2016,12 ( 4) : 213-222. [DOI: 10. 3844 /jcssp. 2016. 213. 222] 

        [67] Mo H Y,Wang Z P. A feature detection method combined MSER and SIFT[J]. Journal of Donghua University: Natural Science, 2011,37( 5) : 624-628. [莫會宇,王祝萍. 一種結(jié)合 MSER 與 SIFT 算子的特征檢測方法[J]. 東華大學(xué)學(xué)報: 自然科學(xué) 版,2011,37 ( 5) : 624-628.][DOI: 10. 3969 /j. issn. 1671- 0444. 2011. 05. 017] 

        [68] Xu Y C,Monasse P,Géraud T,et al. Tree-based Morse regions: a topological approach to local feature detection[J]. IEEE Transactions on Image Processing,2014,23( 12) : 5612-5625. [DOI: 10. 1109 /TIP. 2014. 2364127] 

        [69] Korman S,Reichman D,Tsur G,et al. FasT-Match: fast affine template matching[C]/ /Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland,OR: IEEE,2013: 2331-2338. [DOI: 10. 1109 /CVPR. 2013. 302] 

        [70] Jia D,Cao J,Song W D,et al. Colour FAST ( CFAST) match: fast affine template matching for colour images[J]. Electronics Letters,2016,52( 14) : 1220-1221. [DOI: 10. 1049 /el. 2016. 1331] 

        [71] Jia D,Yang N H,Sun J G. Template selection and matching algorithm for image matching[J]. Journal of Image and Graphics, 2017,22( 11) : 1512-1520. [賈迪,楊寧華,孫勁光. 像對匹 配的模 板 選 擇 與 匹 配[J]. 中國圖象圖形學(xué)報,2017, 22( 11) : 1512-1520.][DOI: 10. 11834 /jig. 170156] 

        [72] Dekel T,Oron S,Rubinstein M,et al. Best-buddies similarity for robust template matching[C]/ /Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE,2015: 2021-2029. [DOI: 10. 1109 /CVPR. 2015. 7298813] 

        [73] Oron S,Dekel T,Xue T F,et al. Best-buddies similarity—robust template matching using mutual nearest neighbors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018,40 ( 8 ) : 1799-1813. [DOI: 10. 1109 /TPAMI. 2017. 2737424] 

        [74] Wang G,Sun X L,Shang Y,et al. A robust template matching algorithm based on best-buddies similarity[J]. Acta Optica Sinica,2017,37( 3) : 274-280. [王剛,孫曉亮,尚洋,等. 一種 基于最佳相似點對的穩(wěn)健模板匹配算法[J]. 光 學(xué) 學(xué) 報, 2017, 37 ( 3 ) : 274-280.] [DOI: 10. 3788 /aos201737. 0315003] 

        [75] Talmi I,Mechrez R,Zelnik-Manor L. Template matching with deformable diversity similarity[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 1311-1319. [DOI: 10. 1109 /CVPR. 2017. 144] 

        [76] Talker L,Moses Y,Shimshoni I. Efficient sliding window computation for NN-based template matching[C]/ /Proceedings of the 15th European Conference on Computer Vision. Munich,Germany: Springer,2018: 409-424. [DOI: 10. 1007 /978-3-030- 01249-6_25] 

        [77] Korman S,Soatto S,Milam M. OATM: occlusion aware template matching by consensus set maximization[C]/ /Proceedings of 2018 IEEE /CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT: IEEE,2018. [DOI: 10. 1109 /CVPR. 2018. 00283] 

        [78] Kat R,Jevnisek R J,Avidan S. Matching pixels using co-occurrence statistics[C]/ /Proceedings of 2018 IEEE /CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT: IEEE,2018. [DOI: 10. 1109 /CVPR. 2018. 00188] 

        [79] Han X F,Leung T,Jia Y Q,et al. MatchNet: unifying feature and metric learning for patch-based matching[C]/ /Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA: IEEE,2015: 3279-3286. [DOI: 10. 1109 /CVPR. 2015. 7298948] 

        [80] Zagoruyko S,Komodakis N. Learning to compare image patches via convolutional neural networks[C]/ /Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA: IEEE,2015: 4353-4361. [DOI: 10. 1109 / CVPR. 2015. 7299064] 

        [81] Fan D Z,Dong Y,Zhang Y S. Satellite image matching method based on deep convolution neural network[J]. Acta Geodaetica et Cartographica Sinica,2018,47( 6) : 844-853. [范大昭,董 楊,張永生. 衛(wèi)星影像匹配的深度卷積神經(jīng)網(wǎng)絡(luò)方法[J]. 測繪 學(xué) 報,2018,47 ( 6 ) : 844-853.] [DOI: 10. 11947 /j. AGCS. 2018. 20170627] 

        [82] Balntas V,Johns E,Tang L L,et al. PN-Net: conjoined triple deep network for learning local image descriptors[EB /OL]. [2018-08-09]https: / /arxiv. org / pdf /1601. 05030. pdf. 

        [83] Yang T Y,Hsu J H,Lin Y Y,et al. DeepCD: learning deep complementary descriptors for patch representations[C]/ /Proceedings of 2017 IEEE International Conference on Computer Vision. Venice,Italy: IEEE,2017: 3334-3342. [DOI: 10. 1109 / ICCV. 2017. 359] 

        [84] Tian Y R,F(xiàn)an B,Wu F C. L2-Net: deep learning of discriminative patch descriptor in Euclidean space[C]/ /Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI: IEEE,2017: 6128-6136. [DOI: 10. 1109 /CVPR. 2017. 649].



        知乎鏈接:https://zhuanlan.zhihu.com/p/108858079
        整理自:
        https://mp.weixin.qq.com/s/8ilO_X_uEfMMQDNwzLSaUQ


        編輯:黃繼彥

        校對:林亦霖

        瀏覽 160
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            中文字幕在线视频日本| 亚洲无码高清一区| 77777精品成人免费A片| 成人亚洲性情网站www在线| 在线免费观看黄色| 四川少扫搡BBBBB搡B| 一本无码中文字幕| 日韩精品中文无码| 欧美A片免费观看| 内射在线播放| 西西444WWW大胆无视频软件亮点| 日韩亚洲欧美在线观看| 亚洲中文字幕色| 亚洲色伦| 天天视频狠狠狠狠| 成人自拍视频| 黄片AAA| 最近中文字幕在线中文字幕7| 四虎在线免费视频| 成年人AV| 亚洲激情成人| 日韩一级A片| 国产精品99久久久久的广告情况| 国产又大又粗| 大香蕉在线75| 午夜福利电影AV| 揄拍成人国产精品视频| 婷婷综合缴情亚洲另类在线| 操B在线| 久草中文视频| 九色PORNY蝌蚪视频| 上海熟妇搡BBBB搡BBBB| 亚洲欧洲高清无码| 人妻少妇精品视频一区二区三区 | 欧美成在线| 日韩毛片在线播放| 色欲影音| 另类老妇奶性BBWBBwBBw| 日韩一级免费观看| 97中文在线| 日韩成人无码全裸视频| 神马午夜福利视频| av电影在线观看| 婷婷五月综合在线| 91碰碰| 欧美日韩在线视频免费| 年轻女教师高潮2| 国产1区在线观看| 翔田千里与黑人50分钟| 成人视频网站18| 在线观看国产免费视频| 久久视频免费| 人成视频在线| 好男人WWW一区二区三区| 国产午夜激情视频| 人人干超碰| 苍井空精毛片精品久久久| 午夜亚洲AV永久无码精品蜜芽 | 久色伊人| 成人精品影视| 黑人人妻黑人ThePorn| 婷婷深爱五月| 日韩AV一级| 色图15p| 国产免费AV在线观看| 国产a毛一级,a毛一级| 亚洲日韩免费在线观看| 尹人香蕉久久| 久久永久免费精品人妻专区| 亚洲中文字幕av| 插逼网站| www操逼| 91人妻人人操人人爽| 中文字幕第2页| 亚洲日韩欧美视频| 99热5| www.黄色电影| 福利国产在线| 一区二区三区免费播放| 黄a在线| 噜噜噜久久久| 亚洲第一色婷婷| 亚洲第一成网站| 粉嫩99精品99久久久久久特污兔 | 三级AV在线免费观看| 亚洲秘无码一区二区三区胖子| 亚洲天堂一区二区三区| 中文字幕国产在线| 日韩成人A片| 高清无码做爱视频| 日本国产在线观看| 白嫩外女BBwBBwBBw| 久久久精品午夜人成欧洲亚洲韩国| 日韩大鸡巴| 毛茸茸BBBBBB毛茸茸| 蜜桃传媒一区二区亚洲A| 国产激情无码免费| 69成人在线电影| 国产精品久久久久久久久借妻| 人妻熟女88AⅤ| 二级黄色毛片| 91大神在线免费观看| 特级黄色A片| 青草在线视频| 精品中文视频| 色哟哟网站| 一本色道久久综合亚洲怎么玩| 中国老熟女2老女人| 东方AV免费在线观看| 亚洲色视频在线| 中国毛片网站| 日韩无码中文字| 人妻少妇偷人精品无码免费| 2025最新偷拍| 夜夜嗨av无码一区二区三区| 亚洲欧美手机在线| 一区二区高清无码视频| 91人体视频| 精品少妇无码视频| 在线中文字幕第一页| 日本一区二区视频在线观看| 成人片网站在线观看| a在线| 欧美日韩一级二级三级| 人人爽人人操人人爱| 亚洲乱伦av| 国产一级生活片| 俺来也听听婷婷| 无码做爱视频| 骚逼综合网| 丁香婷婷激情五月| 特级婬片AAAAAAA级| 无码囯无精品毛片大码| 青青草视频黄| 婷婷丁香激情| 午夜成人精品视频| 五月天婷婷激情| 国产精品一二三| 婷婷色777777| 欧美h| 国产乱婬AV片免费| 久久久久久久久免费视频| 色哟哟网站| 五月天婷婷网址| 亚洲无码精品专区| 日韩特一级| 亚洲黄色一区| A级毛片在线观看| 男女视频网站| 91丨九色丨熟女老版| 欧美视频在线播放| 性欧美成人18| 不卡一二三区| 波多野结衣99| 四虎亚洲| 丰满熟妇人妻无码视频| 97超碰资源总站| 亚洲区在线| 热99re69精品8在线播放| 大鸡巴视频在线观看| 91成人视频18| 国产无码一区二区三区| www.爆操| 亚洲国产精品18久久久久久| 无码国产99精品久久久久网站| 日韩a在线观看| 亚洲一区二区在线播放| 欧美伊人大香蕉| 翔田AV无码秘三区| 日韩一级黄| 久久高清免费视频| 亚洲激情性爱| 无码人妻免费视频| 性爱视频99| 午夜天堂精品久久久| 国产男女无套免费视频| 躁BBB躁BBB添BBBBBB| 中文字幕在线资源| 人人摸人人爱| 国产女主播在线播放| 日日操天天操| av女人的天堂| 午夜福利影片| 久久精品国产亚洲| 欧美日韩一| 成人禁区| 色婷婷俺来也| 成人做爰黄片视频免费| 欧美A片在线播放| 国产成人大片| 亚洲第一福利视频| 日本一区二区三| 国产—级a毛—a毛免费视频| 奥门黄片| 九九香蕉视频| 国产福利精品视频| 7x7x7x人成免费观学生视频| 午夜乱伦福利| 一区二区无码免费| 国产黄| 国产成人精品AV在线观| 免费做爱视频网站| 日韩av成人| 韩国免费一级a一片在线播放| www.狠狠爱| 老司机免费福利视频| 超碰超碰| 天天夜夜爽| 尻屄视频免费| 欧美V∧| 水蜜桃视频免费观看| 无码人妻一区二区三区| 天天射夜夜骑| 国产高清无码免费在线观看| 手机av在线观看| a视频免费观看| 中文字幕在线观看亚洲| AV草逼| 色五月电影| 日韩中文字幕在线免费观看| 亚洲熟女一区| 婷婷五月天色| 国产午夜福利免费视频在线观看| 亚洲一级黄色大片| 91无码在线视频| 日韩成人无码一区二区| 欧美老女人操逼群| 97婷婷五月天| 俺去啦俺来也| 中文字幕在线观看日韩| 女神思瑞精品一区二区三区| 国产永久在线| 亚洲在线大香蕉| 无码A∨| 翔田千里被操120分钟| 伊人色色色| 性爱一级片| 亚洲色欲色欲www在线成人网| 亚洲成人无码视频| 色五月婷婷五月天激情| 日本一本草久p| 激情五月天色| 久久天堂| 2017天天干天天射| 青娱乐在线视频精品| 无码人妻丰满熟妇| 欧美色色色网| 免费无码婬片aaaa| 国产日韩欧美一区二区| 好叼操| 91白丝在线观看| 日韩在线观看中文字幕| 亚洲天堂男人| 日韩码线观看视频| 91啦丨熟女露脸| 黄色大片免费在线观看| 国产高清免费视频| 操碰人人操| 黑人巨大翔田千里AⅤ| 日韩肏屄视频| 超碰自拍私拍二区三区区| 亚洲色啪| 国产麻豆三级片| 人妻在线观看| 另类综合激情| 成人久久久久一级大黄毛片中国| 免费无码高清视频| av天天av无码av天天爽| 日本免费爱爱| 青青草99| 黄色自拍视频| 操逼逼网站| 婷婷五月天综合网| 俺来了俺去也| yw视频在线观看| 亚洲一区二区av| 亚洲无码激情在线| 国产操逼大片| 亚洲精品中文字幕无码| 日色色色| 国产三级午夜理伦三级| 日韩一区二区免费看| 蜜桃影院| 啪啪毛片| 4虎亚洲人成人网www| 久久激情av| 嘉兴少妇按摩69XX| 日本一区二区在线| 国产婷婷五月| 中文在线a∨在线| 少妇一级片| 唐嫣一级婬片A片AAA| 久热福利视频| 无码秘蜜桃一区二区| 国产精品国产三级国产| 国产又色又爽又黄又免费| 国产欧美在线综合| 无套内射在线免费观看| av逼网| 俺去也俺去啦| 日韩精品中文字幕无码| 男人天堂中文字幕| 亚洲自拍中文字幕| www.51av| 最新毛片网站〖网:.〗| 亚洲午夜在线| 九九九精品| 黄色a在线| 九一香蕉视频| 在线看片a| 中文字幕一级A片高清免| 日韩在线精品| 三级国产网站| 成人性爱在线播放| www.四虎成人网站| 日本AⅤ| 黄色小网站在线观看| 免费成人在线网站| 久久久久久久久久成人永久免费视频 | 日韩在线视频免费观看| 亚洲高清无码视频大全| av无码观看| 免费日韩AV| 各国熟女HD合集| 国产高清视频| 亚洲日韩在线中文字幕| 精品中文字幕在线观看| 亚洲熟妇在线观看| 99热这里只有精品1| 四虎在线视频观看96| 国产日逼网站| 国产精品大香蕉| 亚洲另类av| 亚洲成人AV无码| 色婷婷久久综合久色| 91香蕉国产在线观看| 天堂网婷婷| 国产成人大片| 三个黑人猛躁我一晚上| 欧美手机在线| 91人妻无码精品| 大香蕉欧美视频| 欧美性爱香蕉视频| 日韩在线看片| 无码内射视频| 国产xxxx视频| 亚洲AV成人精品日韩在线播放| 天堂网视频| 97国产免费| 成人做爱免费网站| 人人看AV| 色婷婷无码| 天堂va欧美ⅴa亚洲va一夜| 色哟哟一区二区三区| 国产欧美精品AAAAAA片| 成人h视频| 欧美日综合| 欧洲成人午夜精品无码区久久| 男女拍拍| 无码人妻少妇| 成人在线视频免费观看| 五月丁香六月激情综合| 国产av激情| av青草| 久久久久无码精品亚洲日韩| 亚洲国产成人精品女人久久| 狠狠色噜噜狠狠狠888米奇视频| 免费av大全| 人妻少妇偷人精品久久| 国产乱子伦-区二区三区| 中文字幕在线观看有码| 麻豆久久| 久操av在线| 亚洲视频日韩在线观看| 欧美一区二区三区成人片在线| 日本黄A级A片国产免费| 91嫩逼| 肉色超薄丝袜脚交一区二区| 午夜理论片| 天天做天天日| 成人在线免费视频观看| 日本aaaa片| 成人二区| 六月丁香婷| 久久精品水多多www| 国产精品福利小视频| 欧美啪啪视频| 亚洲青青草| 免费在线观看内射| 午夜国产| 国产成人大香蕉| 欧美午夜精品久久久| 超碰97在线免费观看| 3D动漫精选啪啪一期二期三期| 蜜桃精品在线观看| 91无码人妻精品一区二区三区四| 91在线无码| 欧美成人中文字幕在线| 日韩人妻无码一区二区三区七区| 91麻豆精品国产91久久久吃药| 国产精品国内自产| 足浴店少妇69XXX| 91一起草高清资源| 欧美成人毛片| 人人香蕉| 3D精品啪啪一区二区免费| 嫩草AV| 中国精品77777777| 五月天黄色电影| 一级黄色在线| 黄色自拍视频| 国产AV一区二区三区精品| 欧美激情一级| 欧美成人精品无码网站| 国产伊人在线| 粉嫩99精品99久久久久久特污兔 | 欧美黄色性爱| 色老板在线视频| 黄色影院在线观看| 成年人免费毛片| 狠狠狠操| 亚洲www在线观看| 成人无码日本动漫电影| 日本亚洲欧美| а中文在线天堂精品| 大香蕉亚洲成人| 黄片一区二区三区| 性爱视频99| 北条麻妃无码视频| 一级黄色视频免费看| 韩日综合在线| 操逼视频国产| 日本中文字幕网站| 影音先锋AV成人| 四虎黄色网| 91精品国产一区二区三区| 国产熟女一区二区三区五月婷 | 亚洲一区二区精品| 午夜激情操一操| 蝌蚪窝视频在线观看| 免费观看AV| 91亚洲在线观看| 日本色色| 欧美后门菊门交3p| 三级高清无码视频| 大地二中文在线观看免费鲁大师| 青娱乐91视频| 加勒比久久88| 久久精品人妻| 十八禁无码网站在线观看| 不卡无码中文字幕| 黄色毛片网站| 69AV在线播放| 欧美在线一级片| 激情av天堂| 一区二区免费看| 婷婷福利导航| 久久人妻视频| 午夜激情视频| 国产av资源网| 99视频在线免费| 蜜臀久久99精品久久久晴天影视| 久操欧美| 欧美一区二区三区四| 蜜桃一区二区视频在线观看| 国产Aⅴ| 午夜传媒一区二区三区| 露脸偷拍AV2025| 狠狠撸狠狠操| 激情综合视频| 欧美一级片免费看| 美女被操免费网站| 大茄子熟女AV导航| av影音先锋在线| 高清无码色播| av一级片| 日本中文视频| 91AV天天在线观看| 亚洲午夜福利视频| 亚洲色一区二区| jlzzzjlzzz国产免费观看| 久久911| 人人妻人人澡人人爽人人欧美一区 | 日韩欧美高清| 国产一区二区视频在线观看| 五月天久久久久| 亚洲AV秘无码一区在线| 少妇一级片| 亚洲内射视频| 大香蕉75在线| 日韩三级一区二区| 五月天婷婷影院| 国产一级A片免费视频| 91综合视频在线播放| 中文字幕你懂的在线三级| 少妇搡BBBB搡BBB搡视频一级| 亚洲无码人妻视频| 国产黄色片免费| 国产黄色av| 国产99re| 中国国产乱子伦| 欧美性爱A片| 免费中文字幕视频| 久久丝袜| 拍真实国产伦偷精品| 51妺嘿嘿午夜福利视频| 91丨PORNY丨在线中文| 欧美中文字幕在线观看| 五月天久久婷婷| 久久熟妇| 青娱乐A片| 天堂A片电影网站在线观看| 黄色日韩| 国产免费av片| 9无码| 色逼五月| 午夜国产在线| 日本熟妇一区二区三区| 婷婷国产精品视频| 瑟瑟免费视频| 欧美熟女性爱| 欧美丰满人妻免费视频人| 黄色一及片| 操美女视频网站| 亚洲日韩在线a成| 欧美级毛片高潮| 亚洲综合免费观看| 国产精品无码av| 日本a在线免费观看| 操逼视频91| 成人先锋AV| 欧美在线a| 男女啪啪网| 女同久久另类99精品国产91 | 欧美激情伊人| 久草黄色电影在线观看| 黄色A片网站| 亚洲成人观看| 欧美激情区| 国产精品自拍在线观看| 996视频| 国产三级网站| 高清无码在线观看18| 亚洲理论视频| 日韩无码免费电影| 黄色片视频日韩| 污视频在线免费| 国产精品视频免费观看| 日本大香蕉视频| 国产棈品久久久久久久久久九秃| 久热九九| 欧美日韩国产91| 一级黄色影院| 欧美精品成人免费片| GOGO人体做爰大胆视频| 一级片免费视频| 波多野结衣视频一区| 亚洲在线中文| 国产主播AV| 爱五月| 成人电影亚洲天堂| 国产精品视频免费| 亚洲欧美日韩国产| 一本一道伊人99久久综| 欧美黄色片网站| 久久久久黄片| 国产成人三级片在线观看| 日韩在线中文字幕亚洲| 久久久成人网| 狠狠亚洲| 欧美色999| 69AV无码| 伊人精品A片一区二区三区| 日韩欧美亚洲一区二区三区| 欧洲在线观看| 亚洲天堂在线观看网站| 天美果冻麻豆国产一区| 天天爽日日澡AAAA片| 高清视频一区二区| 伊人天天操| 永久免费无码中文字幕| 婷婷国产精品视频| 狠狠干2024| 欧美精品网| 自拍毛片| 懂色在线精品分类视频| 亚洲人成电影| 无码视频一区二区| av水果派| 亲子伦一区二区三区| 亚洲一区二区在线视频| 欧一美一婬一伦一区二区三区自慰, | 久久精品苍井空免费一区| 3D精品啪啪一区二区三区| 99热碰碰热| 日鸡吧链接| 51福利视频| 无码AV在线播放| 日韩免费无码视频| 在线观看99| 亚欧三级| 亚洲字幕在线观看| 国产操逼小视频| 国产熟女av| 久久青青操| 草逼网视频| 老熟女--91XX| 91香蕉国产成人App| 午夜福利2025| 伊人久久福利视频| 国内精品一区二区| 色天堂影院| 国产性爱AV| 天天干B| 人人妻人人色| 一本大道DVD中文字幕| 色色大香蕉| 中文字幕一区二区二三区四区| 怡春院久久| 色婷婷久综合久久一本国产AV | 无码精品一区二区三区在线| 国产日批| 91成人影片| 国产精品一二三区| 91无码在线观看| 婷婷中文字幕| 久草中文视频| 国产一二三视频| 日本免费a片| 亚洲最大无码| 牛牛影视av| 在线视频免费观看| 永久免费av| 久久亚洲免费视频| 白嫩外女BBwBBwBBw| 天天插天天日| 亚洲国产精品二二三三区| 欧美色视频一区二区三区在线观看| 国产亲子乱XXXXimim/| 日韩一区二区三区精品| 欧美亚洲成人在线观看| 100国产精品人妻无码| www.99在线| 影音先锋成人在线视频| 国产乱子伦精品久久| 成人综合在线观看| 国产香蕉视频在线播放| 亚洲AV无码久久久| 九九九视频在线观看| 91视频第一页| 国产高清无码福利| 91AV在线免费观看| AV无码一区二区三区| 九色PORNY国产成人| 韩国三级片在线| 国产熟妇码视频app| 中文字幕在线观看有码| 天天拍天天射| 日韩中文字幕在线人成网站| 成人亚洲欧美| 在线亚洲色图| 亚洲小视频在线播放| 一区二区在线看| 人人亚洲| 91麻豆精品国产91久久久吃药| a天堂8在线资源| 你懂的在线网站| 日逼网站免费观看| 97成人人妻一区二区三区| 黄色视频亚洲| www.插插插| 国产高清无码视频在线观看| 安徽妇搡BBBB搡BBBB按摩小说| 国产黄色免费网站| 亚洲一级黄色片| 日韩一级一片| 五月影院| 亚洲vs无码蜜桃少妇| 91宗合| 操逼视频试看| 少妇一级婬片内射视频| 蜜桃Av噜噜一区二区三区四区| 中文字幕日韩一级| 在线观看成人18| 国产18毛片18水多精品| 北条麻妃中文字幕在线观看| 91精品免费视频| 一本高清无码| 欧美一级婬片A片免费软件| 亚洲激情AV| 欧美日韩操| 99热久| 牛牛成人在线视频| 国内综合久久| 超碰997| 黄色免费视频网站| 操婷婷逼| 黑人巨大翔田千里AⅤ| 九九综合伊人7777777| 中文字幕高清无码视频| 欧美一级特黄A片免费| 91超碰在线免费观看| www.sese| 欧美999| 伊人春色网| 婷婷好色五月天| 一级aa免费视频| 国产我不卡| 超碰77| 天天爽天天日| 色综合一区二区| 国产一区二区三区免费播放| 久久免费精品视频| 中文字幕一级A片免费看| 欧美性爱操逼视频| 日韩视频成人| 一区二区三区四区成人| 天天日少妇| 成人免费精品| 久操福利视频| 亚洲欧美性爱视频| 久久人妻中文字幕| 爱操av| 三级国产网站| 怡红院成人在线| 国产又黄又| 精品77777| 三级在线观看视频| 国产中文字幕在线视频| 亚洲最大黄色| AV天堂影视在线观看| 日皮视频网站| 六月婷| 亚洲中文字幕在线观看| 国产在线一二三| 99精品免费| 亚洲无码中文字幕视频| 日本免费爱爱视频| 免费无码一区二区三区四区五区 | 国产成人综合电影| 欧美自拍偷拍| 无码蜜桃吴梦梦| 鸡巴网站| 日韩免费不卡| 五月丁香啪啪啪| 国产AV无码高清| 精品AV无码一区二区三区| 亚洲精品秘一区二区三小| 国产成人一区二区| 色资源站| 手机在线看片av| 一级片在线免费观看| 色婷婷老师| 少妇被躁到高潮无码| 日韩高清在线播放| 综合视频一区| 久久久9999| 91AV免费在线观看| 日本肏逼视频| 九色在线观看| 国产女人高潮毛片| 亚洲s在线| 中文字幕免费在线视频| 国产亚洲精品午夜福利巨大软件| 免费AV网站| 操操网| 亚洲黄v| 欧美猛交| 国产婷婷久久Av免费高清| 久久精品国产精品| 午夜激情操一操| 在线视频91| 亚洲大片免费看| 亚洲日韩一区二区三区| 91久久国产性奴调教| 又黄又湿的视频| 国产女人免费| 国产精品成人一区二区| www九九| 岛国av在线| 色婷婷一级A片AAA毛片| 亚洲一本色道中文无码| 青草青视频| 高清无码第一页| 中国少妇xxx| 2025国产成人精品一区| 亚洲娱乐在线| 欧美亚洲国产精品| 91亚洲精品视频| 东北老女人操逼| 日韩综合区| 亚洲精品欧美久久婷婷| 91av免费观看| 黄片51| 午夜亚洲AⅤ无码高潮片苍井空| 淫秽视频免费看| www.国产视频| 成人免费视频国产在线观看| 91欧美精品成人AAA片| AV天堂影视在线观看| 丁香五月AV| 一区二区三区四区免费看| 欧美日韩在线视频免费播放| 伊人激情| 国产欧美日本| 亚洲区一区二| 成人一二区| 日韩色| 黄片免费视频观看| 91国产精品| 欧一美一婬一伦一区二区三区黑人| 亚洲无码专区视频| 亚洲一级无码视频| 日韩成人无码一区二区视频| 18国产免费视频在线观看| 日韩激情一区| 久久久久久久久久久国产精品| 天天视频色版免费观看视频| 白浆AV| 91麻豆福利视频| 亚洲高清电影| 日本绿色精品视频| 一欧美日韩免费/看| 91精品久久香蕉国产线看观看| 国产香蕉精品视频| 女生自慰网站免费| 欧美大胆a| 亚洲婷婷三级成人网| 蜜桃久久99精品久久久酒店| ppypp电影频道| 人人上人人摸| 夜夜精品视频| 北条麻妃一区二区三区在线观看 | 日本综合视频| 51妺嘿嘿在线电影免费观看| 高潮91PORN蝌蚪九色| 人人操人人爱人人拍| 亚洲狠狠干| 国产免费一区二区| 日韩一区二区高清无码| 三级高清无码视频| 91麻豆精品A片国产在线观看| 婷婷五月天中文字幕| www.国产在线| 第四色激情网| 婷婷综合亚洲| 成人一区在线观看| 狠狠撸天天操| 激情A| 亚洲色图p| 欧美日韩中文| 在线无码一区| 艹逼视频网站| 综合色婷婷| 亚洲精品国偷拍自产在线观看蜜桃 | 美女91网站色| 色婷婷综合视频| 色五月婷婷五月天激情| 久久久国产精品人人片| 操逼视频在线观看| 91精品电影18| 中文字幕在线观看免费高清完整版在线观看 | 国产精品一级无码免费播放| 午夜无码鲁丝午夜免费| 亚洲高清免费| 免费无码国产在线53| 亚洲精品资源| 国产黄A片免费网站免费| 精品免费国产一区二区三区四区| 国产精品久久久久精| 青青草精品在线视频| 日韩三级网| 猛男大粗猛爽H男人味| 久久久久久久9999| 国产婬片lA片www777| 麻豆视频在线播放| 丁香花在线高清完整版视频 | 国产精品色哟哟| av中文在线观看| 老熟女乱伦| 国产精品国产成人国产三级| 亚洲色情在线观看| 国产艹逼视频| 国产高清一区二区三区| 国产成人精品电影| 色婷婷视频在线播放| 国产精品成人无码a无码| 无码狠狠躁久久久久久久91| 中文字幕一区二区三区四区五区六区 | 夜夜夜久久久| 色天堂色男人| 色综合网址| 免费日韩AV| 小小拗女BBw搡BBBB搡| 一本色道久久88亚洲精品综合| 最新毛片网站〖网:.〗| 国产噜噜噜噜噜久久久久久久久 | 大香蕉亚洲| 国产操| 嘿咻无码推油|