一文了解機器學(xué)習(xí)
來源:DeepHub IMBA
本文約2300字,建議閱讀8分鐘?
本文介紹了機器學(xué)習(xí)的種類。
機器學(xué)習(xí)
機器學(xué)習(xí)根據(jù)不同的任務(wù)類型可以分為以下三大類型:
有監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)
強化學(xué)習(xí)

有監(jiān)督學(xué)習(xí)
在這種類型中,機器學(xué)習(xí)算法是在標記數(shù)據(jù)上訓(xùn)練的。盡管這種方法需要準確地標記數(shù)據(jù),但在適當(dāng)?shù)那闆r下使用監(jiān)督學(xué)習(xí)是非常有效的。
開始時,系統(tǒng)接收輸入數(shù)據(jù)和輸出數(shù)據(jù)。它的任務(wù)是創(chuàng)建適當(dāng)?shù)囊?guī)則,將輸入映射到輸出。訓(xùn)練過程應(yīng)該持續(xù),直到表現(xiàn)水平足夠高為止。
在訓(xùn)練之后,系統(tǒng)應(yīng)該能夠分配一個在訓(xùn)練階段沒有看到的輸出對象。在大多數(shù)情況下,這個過程是非常快速和準確的。
監(jiān)督學(xué)習(xí)的類型:
Regression:回歸,輸出是連續(xù)值
Classification:分類,輸出是離散值
回歸
回歸是一種有監(jiān)督的機器學(xué)習(xí)技術(shù),用于預(yù)測連續(xù)值。例如,我們可以用它來預(yù)測某種產(chǎn)品的價格,比如某個城市的房價或股票的價值。
機器學(xué)習(xí)中的回歸由數(shù)學(xué)方法組成,數(shù)據(jù)科學(xué)家可以根據(jù)一個或多個預(yù)測變量(x)的值預(yù)測一個連續(xù)的結(jié)果(y)。線性回歸可能是回歸分析中最流行的形式,因為它在預(yù)測和預(yù)測中很容易使用。
分類
分類是一種旨在重現(xiàn)類別分配的技術(shù)。它可以預(yù)測響應(yīng)值,并將數(shù)據(jù)分成“類”。例如識別照片中的汽車類型,鑒別垃圾郵件,檢測表情,人臉識別等等。
分類的三種主要類型是:
二元分類 Binary Classification
它是分類的過程或任務(wù),其中將給定的數(shù)據(jù)分為兩類。它基本上是一種關(guān)于事物屬于兩個群體中的哪一個的預(yù)測。
假設(shè)有兩封電子郵件發(fā)送給您,一封是由不斷發(fā)送廣告的保險公司發(fā)送的,另一封是您的銀行發(fā)送的關(guān)于您的信用卡賬單的電子郵件。
電子郵件服務(wù)提供商將對兩封電子郵件進行分類,第一封將發(fā)送到垃圾郵件文件夾,第二封將保留在主郵件中。這個過程被稱為二元分類,因為有兩個離散的類,一個是垃圾郵件,另一個不是垃圾郵件的。所以這是一個二元分類的問題。
算法:
邏輯回歸
KNN
決策樹/隨機森林/提升樹
支持向量機 SVM
樸素貝葉斯
多層感知機

多分類 Multi-class Classification
多類分類是指那些具有兩個以上類標簽,但是輸入數(shù)據(jù)只對應(yīng)一個類標簽的分類任務(wù)。
算法:
KNN
決策樹/隨機森林/提升樹
樸素貝葉斯
多層感知機
注:這里去掉了SVM和邏輯回歸,因為他們只支持二分類,但是可以通過其他方法實現(xiàn)多分類,一般情況下會構(gòu)建與分類數(shù)相同的模型并進行二元分類,比如數(shù)字識別0-9,SVM會訓(xùn)練10個二元模型,分別判斷是否是1,是否是2,邏輯回歸也是同理。

多標簽分類 Multi-Label Classification
多標簽分類是指那些具有兩個或多個類標簽的分類任務(wù),其中每個示例可以預(yù)測一個或多個類標簽。
多分類可以叫做單標簽多分類,是一對一的關(guān)系,而多標簽分類是一對多的關(guān)系。
通俗的講,一張照片里面有貓和狗,如果使用多分類來說,他只能將照片分成1類,貓或狗(一對一),但是對于多標簽來說,會同時輸出貓和夠(一對多)
無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)算法可以執(zhí)行比監(jiān)督學(xué)習(xí)系統(tǒng)更復(fù)雜的處理任務(wù)。
無監(jiān)督學(xué)習(xí)的類型:
A.聚類
聚類是指自動將具有相似特征的數(shù)據(jù)點組合在一起并將它們分配給“簇”的過程。
常用算法:
K-Means(K均值)
DBSCAN
使用高斯混合模型(GMM)
B.關(guān)聯(lián)
關(guān)聯(lián)規(guī)則學(xué)習(xí)是一種無監(jiān)督學(xué)習(xí)技術(shù),它在大型數(shù)據(jù)中檢查一個數(shù)據(jù)項對另一個數(shù)據(jù)項的依賴性 ,它試圖在數(shù)據(jù)集的變量之間找到一些有趣的關(guān)系或關(guān)聯(lián)。根據(jù)不同的規(guī)則來發(fā)現(xiàn)數(shù)據(jù)中變量之間的有趣關(guān)系。
常用算法:
Apriori算法
PCY算法
FP-Tree算法
XFP-Tree算法
GPApriori算法
市場分析:是關(guān)聯(lián)規(guī)則挖掘的流行示例和應(yīng)用之一。大型零售商通常使用這種技術(shù)來確定商品之間的關(guān)聯(lián)。(啤酒尿布)
醫(yī)學(xué)診斷:關(guān)聯(lián)規(guī)則有助于識別特定疾病的患病概率。
蛋白質(zhì)序列:關(guān)聯(lián)規(guī)則有助于確定人工蛋白質(zhì)的合成。
強化學(xué)習(xí)
盡管監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)都使用輸入和輸出之間的映射,但與向代理提供的反饋是執(zhí)行任務(wù)的正確動作集的監(jiān)督學(xué)習(xí)不同,強化學(xué)習(xí)使用獎勵和懲罰作為積極和消極行為的信號。
與無監(jiān)督學(xué)習(xí)相比,強化學(xué)習(xí)在目標方面有所不同。雖然無監(jiān)督學(xué)習(xí)的目標是找到數(shù)據(jù)點之間的異同,但在強化學(xué)習(xí)的情況下,目標是找到一個合適的動作模型,使代理的總累積獎勵最大化。

描述 RL 問題基本要素的一些關(guān)鍵術(shù)語是:
- 環(huán)境Environment ——代理運行的物理世界
- 代理Agent ——也叫智能體,就是我們所寫的算法
- 行動Action——代理產(chǎn)生的動作
- 狀態(tài)State——代理的狀態(tài)
- 獎勵Reward——來自環(huán)境的反饋,好的還是壞的
- 策略Policy ——將代理的狀態(tài)映射到動作的方法,通過狀態(tài)選擇做什么行動
- 價值Value ——代理在特定狀態(tài)下采取行動將獲得的未來獎勵
deephub譯者注
對于實現(xiàn)的方法,我們還可以根據(jù)模型分成不同的實現(xiàn)方法,例如:
傳統(tǒng)的機器學(xué)習(xí):各種回歸
核方法:SVM等
貝葉斯模型:概率相關(guān)
樹型模型:決策樹、隨機森林、各種boosting
神經(jīng)網(wǎng)絡(luò):多層感知機、各種NN
以上分類并不沖突并且是交叉的。最簡單的就是我們在使用神經(jīng)網(wǎng)絡(luò)分類和回歸的時候,最后一層一般都會使用線性層(有的也叫稠密層)這一層使用的算法就是線性回歸,再例如我們也可以使用神經(jīng)網(wǎng)絡(luò)來進行聚類算法,比如deepCluster。
本文內(nèi)容來源以上網(wǎng)址及公眾號。以上內(nèi)容僅供學(xué)習(xí)使用,不作其它用途,如有侵權(quán),請留言聯(lián)系,作刪除處理!
有任何疑問及建議,掃描以下公眾號二維碼添加交流:
評論
圖片
表情
