反卷積,上采樣,上池化的理解

向AI轉(zhuǎn)型的程序員都關(guān)注了這個(gè)號(hào)??????
機(jī)器學(xué)習(xí)AI算法工程?? 公眾號(hào):datayx
上采樣與上池化
圖示理解,使用三張圖進(jìn)行說(shuō)明:?

圖(a)表示UnPooling的過(guò)程,特點(diǎn)是在Maxpooling的時(shí)候保留最大值的位置信息,之后在unPooling階段使用該信息擴(kuò)充Feature Map,除最大值位置以外,其余補(bǔ)0。
Unpooling是在CNN中常用的來(lái)表示max pooling的逆操作。
鑒于max pooling不可逆,因此使用近似的方式來(lái)反轉(zhuǎn)得到max pooling操作之前的原始情況。
簡(jiǎn)單來(lái)說(shuō),記住做max pooling的時(shí)候的最大item的位置,比如一個(gè)3x3的矩陣,max pooling的size為2x2,stride為1,反卷積記住其位置,其余位置至為0就行:


與圖(a)相對(duì)的是圖(b),兩者的區(qū)別在于UnSampling階段沒(méi)有使用MaxPooling時(shí)的位置信息,而是直接將內(nèi)容復(fù)制來(lái)擴(kuò)充Feature Map。從圖中即可看到兩者結(jié)果的不同。
簡(jiǎn)單來(lái)說(shuō):上采樣指的是任何可以讓你的圖像變成更高分辨率的技術(shù)。
最簡(jiǎn)單的方式是重采樣和插值:將輸入圖片進(jìn)行rescale到一個(gè)想要的尺寸,而且計(jì)算每個(gè)點(diǎn)的像素點(diǎn),使用如***雙線(xiàn)性插值***等插值方法對(duì)其余點(diǎn)進(jìn)行插值來(lái)完成上采樣過(guò)程。在FCN、U-net等網(wǎng)絡(luò)結(jié)構(gòu)中,我們見(jiàn)識(shí)到了上采樣這個(gè)東西。

圖(c)為反卷積的過(guò)程,反卷積是卷積的逆過(guò)程,又稱(chēng)作轉(zhuǎn)置卷積。最大的區(qū)別在于反卷積過(guò)程是有參數(shù)要進(jìn)行學(xué)習(xí)的(類(lèi)似卷積過(guò)程),理論是反卷積可以實(shí)現(xiàn)UnPooling和unSampling,只要卷積核的參數(shù)設(shè)置的合理。
如下圖所示,我們要從一個(gè)2x2的矩陣,反推出一個(gè)4x4的矩陣

如何進(jìn)行這樣的反卷積操作?
https://blog.csdn.net/jasonleesjtu/article/details/89791528
如何理解深度學(xué)習(xí)中的deconvolution networks?
https://www.zhihu.com/question/43609045/answer/132235276
可視化的結(jié)果:

圖(a)是輸入層;
圖(b)是14*14反卷積的結(jié)果;
圖(c)是28*28的UnPooling結(jié)果;
圖(d)是28*28的反卷積結(jié)果;
圖(e)是56*56的Unpooling結(jié)果;
圖(f)是56*56反卷積的結(jié)果;
圖(g)是112*112 UnPooling的結(jié)果;
圖(h)是112*112的反卷積的結(jié)果;
圖(i)和圖(j)分別是224*224的UnPooling和反卷積的結(jié)果。兩者各有特點(diǎn)。
附錄
反卷積(Deconvolution)、上采樣(UNSampling)與上池化(UnPooling)、可視化代碼:
https://github.com/heuritech/convnets-keras
https://github.com/kvfrans/feature-visualization
https://github.com/FHainzl/Visualizing_Understanding_CNN_Implementation
機(jī)器學(xué)習(xí)算法AI大數(shù)據(jù)技術(shù)
?搜索公眾號(hào)添加:?datanlp
長(zhǎng)按圖片,識(shí)別二維碼
閱讀過(guò)本文的人還看了以下文章:
TensorFlow 2.0深度學(xué)習(xí)案例實(shí)戰(zhàn)
基于40萬(wàn)表格數(shù)據(jù)集TableBank,用MaskRCNN做表格檢測(cè)
《基于深度學(xué)習(xí)的自然語(yǔ)言處理》中/英PDF
Deep Learning 中文版初版-周志華團(tuán)隊(duì)
【全套視頻課】最全的目標(biāo)檢測(cè)算法系列講解,通俗易懂!
《美團(tuán)機(jī)器學(xué)習(xí)實(shí)踐》_美團(tuán)算法團(tuán)隊(duì).pdf
《深度學(xué)習(xí)入門(mén):基于Python的理論與實(shí)現(xiàn)》高清中文PDF+源碼
《深度學(xué)習(xí):基于Keras的Python實(shí)踐》PDF和代碼
python就業(yè)班學(xué)習(xí)視頻,從入門(mén)到實(shí)戰(zhàn)項(xiàng)目
2019最新《PyTorch自然語(yǔ)言處理》英、中文版PDF+源碼
《21個(gè)項(xiàng)目玩轉(zhuǎn)深度學(xué)習(xí):基于TensorFlow的實(shí)踐詳解》完整版PDF+附書(shū)代碼
《深度學(xué)習(xí)之pytorch》pdf+附書(shū)源碼
PyTorch深度學(xué)習(xí)快速實(shí)戰(zhàn)入門(mén)《pytorch-handbook》
【下載】豆瓣評(píng)分8.1,《機(jī)器學(xué)習(xí)實(shí)戰(zhàn):基于Scikit-Learn和TensorFlow》
《Python數(shù)據(jù)分析與挖掘?qū)崙?zhàn)》PDF+完整源碼
汽車(chē)行業(yè)完整知識(shí)圖譜項(xiàng)目實(shí)戰(zhàn)視頻(全23課)
李沐大神開(kāi)源《動(dòng)手學(xué)深度學(xué)習(xí)》,加州伯克利深度學(xué)習(xí)(2019春)教材
筆記、代碼清晰易懂!李航《統(tǒng)計(jì)學(xué)習(xí)方法》最新資源全套!
《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》最新2018版中英PDF+源碼
將機(jī)器學(xué)習(xí)模型部署為REST API
FashionAI服裝屬性標(biāo)簽圖像識(shí)別Top1-5方案分享
重要開(kāi)源!CNN-RNN-CTC 實(shí)現(xiàn)手寫(xiě)漢字識(shí)別
同樣是機(jī)器學(xué)習(xí)算法工程師,你的面試為什么過(guò)不了?
前海征信大數(shù)據(jù)算法:風(fēng)險(xiǎn)概率預(yù)測(cè)
【Keras】完整實(shí)現(xiàn)‘交通標(biāo)志’分類(lèi)、‘票據(jù)’分類(lèi)兩個(gè)項(xiàng)目,讓你掌握深度學(xué)習(xí)圖像分類(lèi)
VGG16遷移學(xué)習(xí),實(shí)現(xiàn)醫(yī)學(xué)圖像識(shí)別分類(lèi)工程項(xiàng)目
特征工程(二) :文本數(shù)據(jù)的展開(kāi)、過(guò)濾和分塊
如何利用全新的決策樹(shù)集成級(jí)聯(lián)結(jié)構(gòu)gcForest做特征工程并打分?
Machine Learning Yearning 中文翻譯稿
全球AI挑戰(zhàn)-場(chǎng)景分類(lèi)的比賽源碼(多模型融合)
斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)
python+flask搭建CNN在線(xiàn)識(shí)別手寫(xiě)中文網(wǎng)站
中科院Kaggle全球文本匹配競(jìng)賽華人第1名團(tuán)隊(duì)-深度學(xué)習(xí)與特征工程
不斷更新資源
深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析、python
?搜索公眾號(hào)添加:?datayx??
