1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        基于 CNN 特征區(qū)域進(jìn)行目標(biāo)檢測(cè)

        共 2041字,需瀏覽 5分鐘

         ·

        2021-07-28 00:06

        點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

        重磅干貨,第一時(shí)間送達(dá)

        目標(biāo)檢測(cè)是目前計(jì)算機(jī)視覺(jué)領(lǐng)域最熱門(mén)的技術(shù)之一,該領(lǐng)域的研究一直在以非??斓乃俣冗M(jìn)行。

        但究竟什么是物體檢測(cè)?對(duì)象檢測(cè)處理通過(guò)給定輸入(圖像或視頻)中的邊界識(shí)別和定位某些類(lèi)的對(duì)象。


        截至目前,一些最成功的對(duì)象檢測(cè)算法如下:
        1. 基于區(qū)域的 CNN:RCNN、Fast RCNN、Faster RCNN
        2. YOLO
        3. SSD


        一、R-CNN:

        該算法在圖像中查找可能包含對(duì)象的特定區(qū)域(使用選擇性搜索)并通過(guò) CNN 提取特征,提取的特征用于預(yù)測(cè)它們周?chē)念?lèi)和邊界框。


         RCNN 基礎(chǔ)步驟:

        1. 從輸入圖像中提取了大約 2000 個(gè)自下而上的區(qū)域。
        2. 無(wú)論候選區(qū)域的大小或縱橫比如何,我們都將圍繞邊界框中的所有像素扭曲到所需的大小。對(duì)于每個(gè)提議,它使用大型 CNN 計(jì)算特征。
        3. 它使用特定類(lèi)的線性 SVM 對(duì)每個(gè)區(qū)域進(jìn)行分類(lèi)。
        4. 該算法還預(yù)測(cè)了四個(gè)偏移值,以提高邊界框的精度。



        缺點(diǎn):

        1. 訓(xùn)練緩慢:每張圖像應(yīng)該分類(lèi)大約 2000 個(gè)區(qū)域建議,這需要大量時(shí)間。
        2. 推理速度慢:使用 VGG16 大約需要 47 秒/每張圖像。


        二、Fast R-CNN :

        Fast R-CNN 是 R-CNN 算法的繼承者。與之前討論的 R-CNN 相比,F(xiàn)ast R-CNN 多項(xiàng)更改,使其更快、更準(zhǔn)確。R-CNN 的主要問(wèn)題是它在不共享計(jì)算的情況下為每個(gè)區(qū)域提議執(zhí)行 CNN 傳遞。Fast R-CNN 通過(guò)通過(guò) CNN 轉(zhuǎn)發(fā)整個(gè)圖像來(lái)改進(jìn) R-CNN。


        它包括以下步驟:

        1. 整個(gè)圖像通過(guò)CNN向前傳遞,生成卷積特征圖。
        2. 從卷積特征圖中識(shí)別感興趣的區(qū)域,并在其上應(yīng)用ROI 池化層以將它們?nèi)恐厮転橄嗤拇笮 H缓髮⒚總€(gè)建議傳遞給一個(gè)完全連接的層。
        3. 然后并行使用 Softmax 層和線性回歸層來(lái)輸出類(lèi)和邊界框。



        缺點(diǎn):

        盡管 Fast R-CNN 在速度和準(zhǔn)確性方面是對(duì) R-CNN 的改進(jìn),但它仍然使用選擇性搜索區(qū)域提議,這實(shí)際上是一個(gè)耗時(shí)的過(guò)程。


        三、Faster R-CNN :

        Faster R-CNN 是對(duì) Fast R-CNN 的進(jìn)一步改進(jìn)。Fast R-CNN 和 Faster R-CNN 之間的主要區(qū)別在于它使用區(qū)域提議網(wǎng)絡(luò) (RPN) 來(lái)生成感興趣的區(qū)域。

        以下是Faster R-CNN的步驟:

        1. 整個(gè)圖像通過(guò) CNN 向前傳遞以生成卷積特征圖(就像我們?cè)?Fast R-CNN 的情況下所做的那樣)。

        2. 通過(guò)在這些特征圖上應(yīng)用區(qū)域提議網(wǎng)絡(luò) (RPN) 來(lái)識(shí)別感興趣的區(qū)域,這些特征圖返回具有對(duì)象性分?jǐn)?shù)的對(duì)象提議。

        3. 對(duì)它們應(yīng)用ROI池化層使它們具有相同的大小,然后將提案?jìng)鬟f到全連接層。

        4.在其頂部應(yīng)用Softmax層和線性回歸層對(duì)邊界框進(jìn)行分類(lèi)和輸出。

        Faster R-CNN 是我們?cè)诒疚闹杏懻摰膶?duì)象檢測(cè)算法中最好的,對(duì)象檢測(cè)不僅限于基于區(qū)域的 CNN。


        參考:

        1. http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture11.pdf

        2. https://arxiv.org/pdf/1311.2524.pdf

        3. https://arxiv.org/pdf/1504.08083.pdf



        下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
        在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

        下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
        小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目,即可下載包括圖像分割、口罩檢測(cè)、車(chē)道線檢測(cè)、車(chē)輛計(jì)數(shù)、添加眼線、車(chē)牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

        下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
        小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

        交流群


        歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


        瀏覽 54
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        評(píng)論
        圖片
        表情
        推薦
        點(diǎn)贊
        評(píng)論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報(bào)
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            国产黄色一区二区 | 开心久久网 | 日日操夜夜操ⅩⅩXo00 | 欧美三级大片在线观看 | 疯狂抽插视频 | 成人网站在线精品国产免费 | 爱爱小电影久久网 | 好爽快点弄我视频 | 空姐性爱视频 | 999精品久久久 |