1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        2020年計(jì)算機(jī)視覺(jué)技術(shù)最新學(xué)習(xí)路線總結(jié) (含時(shí)間分配建議)

        共 8349字,需瀏覽 17分鐘

         ·

        2020-08-27 20:41

        點(diǎn)擊上方AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”

        重磅干貨,第一時(shí)間送達(dá)

        本文轉(zhuǎn)載自:深度學(xué)習(xí)與計(jì)算機(jī)視覺(jué)

        介紹
        如今有大量的資源可以用來(lái)學(xué)習(xí)計(jì)算機(jī)視覺(jué)技術(shù),那我們?nèi)绾螐谋姸嘟坛讨羞M(jìn)行選擇呢?哪個(gè)值得我們?nèi)ネ度霑r(shí)間呢?
        如果你也遇到這些問(wèn)題,那么恭喜你來(lái)對(duì)地方了。我們通過(guò)理解數(shù)百種資源來(lái)選擇值得你花費(fèi)時(shí)間的資源-這就是我們首先推出本文的主要原因之一。
        去年,我們廣泛地專注于兩個(gè)技術(shù)的學(xué)習(xí)方法——機(jī)器學(xué)習(xí)和深度學(xué)習(xí),但是我們的社區(qū)需要更細(xì)化的學(xué)習(xí)路徑——一個(gè)結(jié)構(gòu)化的計(jì)算機(jī)視覺(jué)學(xué)習(xí)路徑
        這是可以理解的,因?yàn)橛?jì)算機(jī)視覺(jué)專家的需求和價(jià)值在業(yè)界遙遙領(lǐng)先。專門(mén)研究計(jì)算機(jī)視覺(jué)及其不同方面,你會(huì)看到大量招聘人員試圖接近你。
        我記得當(dāng)我開(kāi)始自己的計(jì)算機(jī)視覺(jué)之旅時(shí),我同時(shí)參考了多種資源——書(shū)籍、文章(當(dāng)時(shí)并不多)、YouTube視頻等等。
        因此,我很高興有機(jī)會(huì)為你整理這種結(jié)構(gòu)化的計(jì)算機(jī)視覺(jué)學(xué)習(xí)路徑。在開(kāi)始學(xué)習(xí)之前,讓我們了解一下為簡(jiǎn)化你的學(xué)習(xí)過(guò)程而構(gòu)建的框架。

        我們的計(jì)算機(jī)視覺(jué)學(xué)習(xí)路徑框架

        每個(gè)月都要有其對(duì)應(yīng)的學(xué)習(xí)結(jié)構(gòu),這是我們對(duì)每個(gè)月需要了解的不同方面進(jìn)行分類的方式:
        • 目標(biāo):這個(gè)月你會(huì)學(xué)到什么?關(guān)鍵要點(diǎn)是什么?你的計(jì)算機(jī)視覺(jué)之旅將如何進(jìn)行?我們會(huì)在每個(gè)月初提及此問(wèn)題,以確保你知道該月底的立場(chǎng)以及所處的位置
        • 建議時(shí)間:你每周平均應(yīng)在該部分上花費(fèi)多少時(shí)間
        • 學(xué)習(xí)資源:該月你將學(xué)習(xí)的計(jì)算機(jī)視覺(jué)主題的頂級(jí)資源集合,其中包括文章,教程,視頻,研究論文和其他類似資源
        你可以在此處下載該學(xué)習(xí)路徑的相應(yīng)信息圖。
        • https://discuss.analyticsvidhya.com/t/heres-your-learning-path-to-master-computer-vision-in-2020/87785
        在數(shù)據(jù)科學(xué)領(lǐng)域?qū)ふ移渌麑W(xué)習(xí)途徑?別擔(dān)心,我們?yōu)槟闾峁┝耍?/span>
        • 2020年成為數(shù)據(jù)科學(xué)家和掌握機(jī)器學(xué)習(xí)的學(xué)習(xí)之路
          • https://www.analyticsvidhya.com/blog/2020/01/learning-path-data-scientist-machine-learning-2020
        • 2020年掌握深度學(xué)習(xí)的學(xué)習(xí)道路
          • https://www.analyticsvidhya.com/blog/2020/01/comprehensive-learning-path-deep-learning-2020
        • 自然語(yǔ)言處理(NLP)學(xué)習(xí)路徑
          • https://www.analyticsvidhya.com/blog/2020/01/learning-path-nlp-2020

        第1個(gè)月 – 涵蓋基礎(chǔ)知識(shí):Python與統(tǒng)計(jì)

        目標(biāo):到第一個(gè)月末,你將對(duì)什么是計(jì)算機(jī)視覺(jué)有基本的了解。你還將對(duì)Python和Statistics(計(jì)算機(jī)視覺(jué)之旅中的兩個(gè)核心主題)有一定的知識(shí)儲(chǔ)備。
        建議時(shí)間:每周5-6小時(shí)
        計(jì)算機(jī)視覺(jué)的介紹和動(dòng)機(jī):SAS計(jì)算機(jī)視覺(jué)教程:它是什么,它為什么重要:https://www.sas.com/en_in/insights/analytics/computer-vision.html

        OpenCV中文官方教程v4.1(可選):

        http://woshicver.com

        先決條件
        Python:Analytics Vidhya撰寫(xiě)的Python課程
        • https://courses.analyticsvidhya.com/courses/introduction-to-data-science
        統(tǒng)計(jì):可汗學(xué)院的描述性統(tǒng)計(jì)
        • https://www.khanacademy.org/math/engageny-alg-1/alg1-2

        第2個(gè)月 – 使用機(jī)器學(xué)習(xí)解決圖像分類問(wèn)題

        目標(biāo):你將對(duì)機(jī)器學(xué)習(xí)有基本的了解。你應(yīng)該熟悉不同的圖像預(yù)處理技術(shù),并能夠使用機(jī)器學(xué)習(xí)模型解決圖像分類問(wèn)題。
        建議時(shí)間:每周5-6小時(shí)
        機(jī)器學(xué)習(xí)基礎(chǔ)
        • 機(jī)器學(xué)習(xí)基礎(chǔ)
          • https://www.analyticsvidhya.com/blog/2015/06/machine-learning-basics/
        • sklearn中文官方教程0.22.1(可選):
          • http://sklearn123.com
        • 線性回歸
          • https://www.analyticsvidhya.com/blog/2017/06/a-comprehensive-guide-for-linear-ridge-and-lasso-regression/
        • 邏輯回歸
          • https://www.analyticsvidhya.com/blog/2015/10/basics-logistic-regression/
        • 斯坦福大學(xué)-機(jī)器學(xué)習(xí)的動(dòng)機(jī)與應(yīng)用
          • https://see.stanford.edu/Course/CS229/47
        • 斯坦福大學(xué)的“過(guò)擬合”和“過(guò)擬合”的概念
          • https://see.stanford.edu/Course/CS229/42
          圖像預(yù)處理:
          • 從圖像中提取特征的3種技術(shù)
            • https://www.analyticsvidhya.com/blog/2019/08/3-techniques-extract-features-from-image-data-machine-learning-python/
          • HOG特征
            • https://www.analyticsvidhya.com/blog/2019/09/feature-engineering-images-introduction-hog-feature-descriptor/
          • SIFT特征
            • https://www.analyticsvidhya.com/blog/2019/10/detailed-guide-powerful-sift-technique-image-matching-python/
          使用機(jī)器學(xué)習(xí)進(jìn)行圖像分類:
          • 使用邏輯回歸進(jìn)行圖像分類
            • https://www.kaggle.com/gulsahdemiryurek/image-classification-with-logistic-regression
          • 使用Logistic回歸進(jìn)行圖像分類
            • https://mmlind.github.io/Using_Logistic_Regression_to_solve_MNIST/
          項(xiàng)目:識(shí)別服裝
          • https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/

          第三個(gè)月 – ?Keras和神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

          目標(biāo):你將學(xué)習(xí)最常用的深度學(xué)習(xí)工具之一-Keras,你還將了解什么是神經(jīng)網(wǎng)絡(luò)以及它們?nèi)绾喂ぷ鳎饺碌?,你將能夠使用神?jīng)網(wǎng)絡(luò)解決圖像分類問(wèn)題。
          建議時(shí)間:每周4-5小時(shí)
          學(xué)習(xí)Keras
          • Keras文檔
            • https://keras.io/
          • 使用Keras構(gòu)建神經(jīng)網(wǎng)絡(luò)
            • https://www.analyticsvidhya.com/blog/2016/10/tutorial-optimizing-neural-networks-using-keras-with-image-recognition-case-study/
          神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
          • 從零開(kāi)始的神經(jīng)網(wǎng)絡(luò)
            • https://www.analyticsvidhya.com/blog/2017/05/neural-network-from-scratch-in-python-and-r/
          • 斯坦福大學(xué)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
            • https://youtu.be/d14TUNcbn1k
          • 3Blue1Brown的神經(jīng)網(wǎng)絡(luò):
            • https://youtu.be/aircAruvnKk
          項(xiàng)目:識(shí)別服裝
          • https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/

          第4個(gè)月 – 了解卷積神經(jīng)網(wǎng)絡(luò)(CNN),遷移學(xué)習(xí)和參加比賽

          目標(biāo):我想將其稱為計(jì)算機(jī)視覺(jué)之旅中的“進(jìn)階”月份。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的引入,學(xué)習(xí)也更上一層樓,這些cnn是我們最近看到的許多計(jì)算機(jī)視覺(jué)應(yīng)用的幕后推手,包括目標(biāo)檢測(cè)。在你的旅程中,你也應(yīng)該通過(guò)參加比賽來(lái)鍛煉自己。
          建議時(shí)間:每周6-7小時(shí)
          卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡(jiǎn)介
          • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡(jiǎn)化
            • https://www.analyticsvidhya.com/blog/2017/06/architecture-of-convolutional-neural-networks-simplified-demystified
          • 斯坦福大學(xué)的卷積神經(jīng)網(wǎng)絡(luò):
            • https://youtu.be/bNb2fEVKeEo
          遷移學(xué)習(xí)簡(jiǎn)介
          • 掌握遷移學(xué)習(xí)
            • https://www.analyticsvidhya.com/blog/2017/06/transfer-learning-the-art-of-fine-tuning-a-pre-trained-model
          • 斯坦福大學(xué)實(shí)踐中的ConvNets:
            • https://youtu.be/dUTzeP_HTZg
          項(xiàng)目:識(shí)別數(shù)字:https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-digits
          參加比賽:
          • DataHack
            • https://datahack.analyticsvidhya.com/contest/all
          • Kaggle
            • https://www.kaggle.com/competitions

          第5個(gè)月 – 解決對(duì)象檢測(cè)問(wèn)題

          目標(biāo):對(duì)象檢測(cè)是一種廣泛使用的計(jì)算機(jī)視覺(jué)技術(shù)(也許是使用最廣泛的技術(shù))。這是吸引我使用計(jì)算機(jī)視覺(jué)的原因!這個(gè)月就是要熟悉不同的對(duì)象檢測(cè)算法。另外,我強(qiáng)烈建議你撰寫(xiě)到目前為止所學(xué)概念的文章。
          建議時(shí)間:每周6-7小時(shí)
          解決對(duì)象檢測(cè)問(wèn)題
          • 目標(biāo)檢測(cè)技術(shù)的分步介紹
            • https://www.analyticsvidhya.com/blog/2018/10/a-step-by-step-introduction-to-the-basic-object-detection-algorithms-part-1
          • 實(shí)現(xiàn)faster RCNN用于目標(biāo)檢測(cè)
            • https://www.analyticsvidhya.com/blog/2018/11/implementation-faster-r-cnn-python-object-detection
          • 使用YOLO進(jìn)行物體檢測(cè)
            • https://www.analyticsvidhya.com/blog/2018/12/practical-guide-object-detection-yolo-framewor-python
          • 斯坦福大學(xué)的物體檢測(cè):
            • https://youtu.be/nDPWywWRIRo
          • YOLO論文
            • https://arxiv.org/pdf/1506.02640.pdf
          • YOLO預(yù)訓(xùn)練模型
            • https://pjreddie.com/darknet/yolo/
          項(xiàng)目
          • 數(shù)臉挑戰(zhàn)
            • https://datahack.analyticsvidhya.com/contest/vista-codefest-computer-vision-1
          • COCO物體檢測(cè)挑戰(zhàn)
            • http://cocodataset.org/#download
          開(kāi)始撰寫(xiě)文章,與社區(qū)互動(dòng)吧!

          第6個(gè)月 – 了解圖像分割和注意力模型

          目標(biāo):六月,你將學(xué)習(xí)如何解決圖像分割問(wèn)題,同時(shí)你還將了解什么是注意力模型(無(wú)論在理論上還是在實(shí)踐上)。在這里,你對(duì)計(jì)算機(jī)視覺(jué)的深入了解才真正開(kāi)始獲得回報(bào)。
          建議時(shí)間:每周6-7小時(shí)
          圖像分割簡(jiǎn)介:
          • 圖像分割技術(shù)的分步介紹
            • https://www.analyticsvidhya.com/blog/2019/04/introduction-image-segmentation-techniques-python
          • 實(shí)現(xiàn)Mask R-CNN進(jìn)行圖像分割
            • https://www.analyticsvidhya.com/blog/2019/07/computer-vision-implementing-mask-r-cnn-image-segmentation
          • Mask R-CNN論文
            • https://arxiv.org/pdf/1703.06870.pdf
          • Mask R-CNN GitHub存儲(chǔ)庫(kù)
            • https://github.com/matterport/Mask_RCNN
          項(xiàng)目:COCO分割挑戰(zhàn)
          • http://cocodataset.org/#download
          Attention 模型
          • Sequence-to-Sequence Modeling with Attention
            • https://www.analyticsvidhya.com/blog/2018/03/essentials-of-deep-learning-sequence-to-sequence-modelling-with-attention-part-i
          • Sequence-to-Sequence Models by Stanford
            • https://nlp.stanford.edu/~johnhew/public/14-seq2seq.pdf

          第7個(gè)月 – 探索深度學(xué)習(xí)工具

          目標(biāo):這是一個(gè)非常有趣的學(xué)習(xí)月!到目前為止,我們已經(jīng)涵蓋了許多計(jì)算機(jī)視覺(jué)概念,現(xiàn)在是時(shí)候動(dòng)手使用最先進(jìn)的深度學(xué)習(xí)框架了!這取決于你自己的選擇,但我們建議你現(xiàn)在使用行業(yè)中最常見(jiàn)的兩種工具——PyTorch和TensorFlow。嘗試使用這兩種工具中的任何一種來(lái)實(shí)現(xiàn)你到目前為止所涵蓋的所有概念。
          建議時(shí)間:每周6-7小時(shí)
          PyTorch:
          • PyTorch教程
            • https://pytorch.org/tutorials/
          • PyTorch的初學(xué)者友好指南
            • https://www.analyticsvidhya.com/blog/2019/09/introduction-to-pytorch-from-scratch
          • PyTorch中文官方教程(可選)
            • http://pytorch123.com

          TensorFlow:

          • TensorFlow教程
            • https://www.tensorflow.org/tutorials
          • TensorFlow簡(jiǎn)介
            • https://www.analyticsvidhya.com/blog/2016/10/an-introduction-to-implementing-neural-networks-using-tensorflow

          第8個(gè)月 – 了解NLP和圖像字幕的基礎(chǔ)

          目標(biāo):這是你專業(yè)化的開(kāi)始。這是將你的深度學(xué)習(xí)知識(shí)與自然語(yǔ)言處理(NLP)概念結(jié)合起來(lái)來(lái)解決圖像字幕項(xiàng)目。
          建議時(shí)間:每周6-7小時(shí)
          自然語(yǔ)言處理(NLP)的基礎(chǔ)知識(shí):
          • 斯坦福-詞嵌入:
            • https://youtu.be/ERibwqs9p38
          • 遞歸神經(jīng)網(wǎng)絡(luò)(RNN)簡(jiǎn)介:
            • https://youtu.be/UNmqTiOnRfg
          • RNN教程
            • http://www.wildml.com/2015/10/recurrent-neural-networks-tutorial-part-3-backpropagation-through-time-and-vanishing-gradients/
          了解圖像字幕
          • 自動(dòng)圖像字幕
            • https://cs.stanford.edu/people/karpathy/sfmltalk.pdf
          • 使用深度學(xué)習(xí)的圖像字幕
            • https://www.analyticsvidhya.com/blog/2018/04/solving-an-image-captioning-task-using-deep-learning
          項(xiàng)目:COCO字幕挑戰(zhàn)賽
          • http://cocodataset.org/#download

          第9個(gè)月 – 熟悉生成對(duì)抗網(wǎng)絡(luò)(GAN)

          目標(biāo):9月,你將了解生成對(duì)抗網(wǎng)絡(luò)(GAN)。自從Ian Goodfellow于2014年正式推出GAN以來(lái),GANs就火爆了起來(lái)。目前,GANs的實(shí)際應(yīng)用很多,包括修復(fù)、生成圖像等。
          建議時(shí)間:每周6-7小時(shí)
          了解生成對(duì)抗網(wǎng)絡(luò)(GAN):
          • Ian Goodfellow的生成對(duì)抗網(wǎng)絡(luò)(GAN):
            • https://youtu.be/HGYYEUSm-0Q
          • GAN 論文
            • https://arxiv.org/pdf/1406.2661.pdf
          • 生成對(duì)抗網(wǎng)絡(luò)的最新進(jìn)展
            • https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8667290
          • Keras-GAN
            • https://github.com/eriklindernoren/Keras-GAN

          第10個(gè)月 – 視頻分析簡(jiǎn)介

          目標(biāo):視頻分析是計(jì)算機(jī)視覺(jué)中一個(gè)蓬勃發(fā)展的應(yīng)用。到2020年(及以后),對(duì)這項(xiàng)技能的需求只增不減,因此學(xué)習(xí)如何使用視頻數(shù)據(jù)集的知識(shí)是必要的。
          建議時(shí)間:每周5-6小時(shí)
          視頻分析簡(jiǎn)介:
          • 計(jì)算視頻中演員的放映時(shí)間
            • https://www.analyticsvidhya.com/blog/2018/09/deep-learning-video-classification-python
          • 建立視頻分類模型
            • https://www.analyticsvidhya.com/blog/2019/09/step-by-step-deep-learning-tutorial-video-classification-python
          • 通過(guò)視頻進(jìn)行人臉檢測(cè)
            • https://www.analyticsvidhya.com/blog/2018/12/introduction-face-detection-video-deep-learning-python

          第11個(gè)月和第12個(gè)月 – 解決項(xiàng)目并參加競(jìng)賽

          目標(biāo):最后兩個(gè)月都是關(guān)于參加多個(gè)項(xiàng)目和競(jìng)賽來(lái)獲得實(shí)踐經(jīng)驗(yàn)的。到目前為止,我們除了學(xué)習(xí)概念外,還涵蓋了多個(gè)項(xiàng)目——現(xiàn)在是時(shí)候在真實(shí)的數(shù)據(jù)集上檢驗(yàn)?zāi)愕膶W(xué)習(xí)成果了。
          建議時(shí)間:每周5-6小時(shí)
          • 數(shù)字識(shí)別器
            • https://www.kaggle.com/c/digit-recognizer
          • ImageNet對(duì)象定位挑戰(zhàn)
            • https://www.kaggle.com/c/imagenet-object-localization-challenge
          • 年齡檢測(cè)
            • https://datahack.analyticsvidhya.com/contest/practice-problem-age-detection
          • 空中仙人掌鑒定
            • https://www.kaggle.com/c/aerial-cactus-identification
          • 超聲神經(jīng)分割
            • https://www.kaggle.com/c/ultrasound-nerve-segmentation
          • 對(duì)抗性攻擊防御
            • https://www.kaggle.com/c/nips-2017-defense-against-adversarial-attack/overview

          信息圖– 2020年計(jì)算機(jī)視覺(jué)學(xué)習(xí)之路

          學(xué)習(xí)新事物時(shí)跟蹤進(jìn)度是結(jié)構(gòu)化學(xué)習(xí)過(guò)程的關(guān)鍵。為了方便在深入研究領(lǐng)域時(shí)勾選所有事項(xiàng)。還有什么比一個(gè)有插圖的清單更好的呢?它逐月列出了計(jì)算機(jī)視覺(jué)學(xué)習(xí)的路徑,請(qǐng)看下圖:
          參考鏈接:https://www.analyticsvidhya.com/blog/2020/01/computer-vision-learning-path-2020/

          下載1:動(dòng)手學(xué)深度學(xué)習(xí)


          AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):動(dòng)手學(xué)深度學(xué)習(xí),即可下載547頁(yè)《動(dòng)手學(xué)深度學(xué)習(xí)》電子書(shū)和源碼。該書(shū)是面向中文讀者的能運(yùn)行、可討論的深度學(xué)習(xí)教科書(shū),它將文字、公式、圖像、代碼和運(yùn)行結(jié)果結(jié)合在一起。本書(shū)將全面介紹深度學(xué)習(xí)從模型構(gòu)造到模型訓(xùn)練,以及它們?cè)谟?jì)算機(jī)視覺(jué)和自然語(yǔ)言處理中的應(yīng)用。



          下載2
          AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載20個(gè)有趣的OpenCV實(shí)戰(zhàn)項(xiàng)目
          個(gè)人微信(如果沒(méi)有備注不拉群!
          請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱

          瀏覽 56
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          1. <strong id="7actg"></strong>
          2. <table id="7actg"></table>

          3. <address id="7actg"></address>
            <address id="7actg"></address>
            1. <object id="7actg"><tt id="7actg"></tt></object>
              国产精品久久久久网站 | 日韩有码视频在线 | 俺去也com | 国内精品久久久久影视老司机 | 久久婷婷无码视频 | 精品视频一区二区三区四区乐趣播 | 午夜激情福利 | 屄视频免费 | 性爱小说网址 | 1024手机在线观看 |