1. 零基礎入門機器學習算法(附圖)

        共 2403字,需瀏覽 5分鐘

         ·

        2021-09-13 09:45



        本篇內(nèi)容主要是面向機器學習初學者,介紹常見的機器學習算法,當然,歡迎同行交流。


        哲學要回答的基本問題是從哪里來、我是誰、到哪里去,尋找答案的過程或許可以借鑒機器學習的套路:組織數(shù)據(jù)->挖掘知識->預測未來。組織數(shù)據(jù)即為設計特征,生成滿足特定格式要求的樣本,挖掘知識即建模,而預測未來就是對模型的應用。

        特征設計依賴于對業(yè)務場景的理解,可分為連續(xù)特征、離散特征和組合高階特征。本篇重點是機器學習算法的介紹,可以分為監(jiān)督學習和無監(jiān)督學習兩大類。

        無監(jiān)督學習算法很多,最近幾年業(yè)界比較關注主題模型,LSA->PLSA->LDA為主題模型三個發(fā)展階段的典型算法,它們主要是建模假設條件上存在差異。LSA假設文檔只有一個主題,PLSA假設各個主題的概率分布不變(theta都是固定的),LDA假設每個文檔和詞的主題概率是可變的。

        LDA算法本質(zhì)可以借助上帝擲骰子幫助理解,詳細內(nèi)容可參加Rickjin寫的《LDA數(shù)據(jù)八卦》文章,淺顯易懂,順便也科普了很多數(shù)學知識,非常推薦。


        監(jiān)督學習可分為分類和回歸,感知器是最簡單的線性分類器,現(xiàn)在實際應用比較少,但它是神經(jīng)網(wǎng)絡、深度學習的基本單元。


        線性函數(shù)擬合數(shù)據(jù)并基于閾值分類時,很容易受噪聲樣本的干擾,影響分類的準確性。邏輯回歸(Logistic Regression)利用sigmoid函數(shù)將模型輸出約束在0到1之間,能夠有效弱化噪聲數(shù)據(jù)的負面影響,被廣泛應用于互聯(lián)網(wǎng)廣告點擊率預估。

         


        邏輯回歸模型參數(shù)可以通過最大似然求解,首先定義目標函數(shù)L(theta),然后log處理將目標函數(shù)的乘法邏輯轉(zhuǎn)化為求和邏輯(最大化似然概率 -> 最小化損失函數(shù)),最后采用梯度下降求解。

        相比于線性分類去,決策樹等非線性分類器具有更強的分類能力,ID3和C4.5是典型的決策樹算法,建模流程基本相似,兩者主要在增益函數(shù)(目標函數(shù))的定義不同。


        線性回歸和線性分類在表達形式上是類似的,本質(zhì)區(qū)別是分類的目標函數(shù)是離散值,而回歸的目標函數(shù)是連續(xù)值。目標函數(shù)的不同導致回歸通?;谧钚《硕x目標函數(shù),當然,在觀測誤差滿足高斯分布的假設情況下,最小二乘和最大似然可以等價。

        當梯度下降求解模型參數(shù)時,可以采用Batch模式或者Stochastic模式,通常而言,Batch模式準確性更高,Stochastic模式復雜度更低。


        上文已經(jīng)提到,感知器雖然是最簡單的線性分類器,但是可以視為深度學習的基本單元,模型參數(shù)可以由自動編碼(Auto Encoder)等方法求解。


        深度學習的優(yōu)勢之一可以理解為特征抽象,從底層特征學習獲得高階特征,描述更為復雜的信息結構。例如,從像素層特征學習抽象出描述紋理結構的邊緣輪廓特征,更進一步學習獲得表征物體局部的更高階特征。

         

        俗話說三個臭皮匠賽過諸葛亮,無論是線性分類還是深度學習,都是單個模型算法單打獨斗,有沒有一種集百家之長的方法,將模型處理數(shù)據(jù)的精度更進一步提升呢?當然,Model Ensembel就是解決這個問題。Bagging為方法之一,對于給定數(shù)據(jù)處理任務,采用不同模型/參數(shù)/特征訓練多組模型參數(shù),最后采用投票或者加權平均的方式輸出最終結果。

        Boosting為Model Ensemble的另外一種方法,其思想為模型每次迭代時通過調(diào)整錯誤樣本的損失權重提升對數(shù)據(jù)樣本整體的處理精度,典型算法包括AdaBoost、GBDT等。

        不同的數(shù)據(jù)任務場景,可以選擇不同的Model Ensemble方法,對于深度學習,可以對隱層節(jié)點采用DropOut的方法實現(xiàn)類似的效果。


         


        介紹了這么多機器學習基礎算法,說一說評價模型優(yōu)劣的基本準則。欠擬合和過擬合是經(jīng)常出現(xiàn)的兩種情況,簡單的判定方法是比較訓練誤差和測試誤差的關系,當欠擬合時,可以設計更多特征來提升模型訓練精度,當過擬合時,可以優(yōu)化特征量降低模型復雜度來提升模型測試精度。


        特征量是模型復雜度的直觀反映,模型訓練之前設定輸入的特征量是一種方法,另外一種比較常用的方法是在模型訓練過程中,將特征參數(shù)的正則約束項引入目標函數(shù)/損失函數(shù),基于訓練過程篩選優(yōu)質(zhì)特征。


        模型調(diào)優(yōu)是一個細致活,最終還是需要能夠?qū)嶋H場景給出可靠的預測結果,解決實際問題。期待學以致用!


        全文下載:電源管理芯片研究框架
        異構芯片研究框架合集
        1、EDA行業(yè)研究框架
        2、半導體大硅片研究框架
        3、封測行業(yè)研究框架
        4、光刻機行業(yè)研究框架
        4、國產(chǎn)FPGA研究框架
        5、國產(chǎn)基帶芯片研究框架
        6、深度報告:NOR存儲芯片研究框架

        CPU和GPU研究框架合集
        1、行業(yè)深度報告:GPU研究框架

        2、信創(chuàng)產(chǎn)業(yè)研究框架

        3、ARM行業(yè)研究框架

        4、CPU研究框架

        5、國產(chǎn)CPU研究框架

        6、行業(yè)深度報告:GPU研究框架


        信創(chuàng)研究專題框架

        1、2020信創(chuàng)發(fā)展研究報告 

        2、中國信創(chuàng)產(chǎn)業(yè)發(fā)展白皮書(2021) 

        3、信創(chuàng)研究框架 

        4、云計算行業(yè):新基建和信創(chuàng)云計算進階 

        5、深度研究:云計算與信創(chuàng)產(chǎn)業(yè)持續(xù)快速發(fā)展 

        6、深度:信創(chuàng)產(chǎn)業(yè)系列專題(總篇) 

        7、計算機行業(yè)研究:信創(chuàng)和鯤鵬計算產(chǎn)業(yè)鏈

        本號資料全部上傳至知識星球,更多內(nèi)容請登錄全棧云技術知識星球下載全部資料。


        <服務器基礎知識全解(終極版)>,提供182頁完整版付費下載。

        獲取方式:點擊“閱讀原文”即可查看詳情,提供PPT可編輯版本和PDF閱讀版本。



        溫馨提示:

        請搜索“AI_Architect”或“掃碼”關注公眾號實時掌握深度技術分享,點擊“閱讀原文”獲取更多精彩技術干貨。


        瀏覽 50
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
          
          

            1. 欧美区一区二 | 插菊综合网 | 另类国产TS人妖高潮系列视频 | 蜜桃成人 | 宫部凉花av一区二区 |