如何 Get 機器學習必備的數(shù)學技能?(文末贈書)
1
數(shù)學對機器學習與深度學習的重要性
數(shù)學。這兩本書里密集的出現(xiàn)數(shù)學概念和公式,對大部分讀者來說都是很困難的,尤其是不少數(shù)學知識超出了理工科本科“微積分”,“線性代數(shù)”,“概率論與數(shù)理統(tǒng)計”3門課的范圍。陌生的數(shù)學符號和公式讓大家茫然不知所措。 機器學習和深度學習中的一些思想不易理解。有些復雜的算法,比如支持向量機、反向傳播算法、EM算法、概率圖模型、變分推斷,它們到底解決了什么問題,為什么要這樣做,這些書里解釋的不太清楚,這就造成了讀者不知其所以然。 抽象。有些機器學習算法是很抽象的,比如流形學習、譜聚類算法等。如果不給出直觀的解釋,也是難以理解的。 不能和應(yīng)用結(jié)合。很多教材普遍存在的一個問題是沒有講清楚這個方法到底有什么用,應(yīng)該怎么用。
2
西瓜書中的數(shù)學
最優(yōu)化方法
信息論
隨機過程
圖論
3
花書中的數(shù)學
線性代數(shù)
概率論與信息論
數(shù)值計算
線性因子模型
自編碼器
表示學習
深度學習中的結(jié)構(gòu)化概率模型
蒙特卡洛方法
直面配分函數(shù)
近似推斷
深度生成模型
MCMC采樣算法;
EM算法;
近似推斷和變分推斷;
變分法;
RBM的訓練算法
最優(yōu)化方法
信息論
隨機過程
圖論

4
究竟需要哪些數(shù)學知識
微積分
線性代數(shù)
概率論
最優(yōu)化方法
信息論
隨機過程
圖論

微積分






決策樹的訓練過程中需要使用熵作為指標 在深度學習中經(jīng)常會使用交叉熵、KL散度、JS散度、互信息等概念 變分推斷的推導需要以KL散度為基礎(chǔ) 距離度量學習、流形降維等算法也需要信息論的知識



4
《機器學習的數(shù)學》是你的一個好選擇
使用圖/表等方式降低理解難度。

強化學習中為什么需要用馬爾可夫決策過程進行建模? 為什么需要用狀態(tài)轉(zhuǎn)移概率? 為什么獎勵函數(shù)與狀態(tài)轉(zhuǎn)移有關(guān)? 確定性策略,非確定性策略到底是怎么回事?


為什么用Householder變換可以將矩陣變換為近似對角的矩陣? Householder變換的變換矩陣是怎樣構(gòu)造的,為什么要這么構(gòu)造? 為何不直接將對稱矩陣變換為對角矩陣?


4
配套的高質(zhì)量課程

分享
收藏
點贊
在看

評論
圖片
表情
