詳盡!統(tǒng)計學知識大梳理
點擊上方“機器學習與生成對抗網(wǎng)絡”,關注星標
獲取有趣、好玩的前沿干貨!
來源:海豚數(shù)據(jù)科學實驗室 編輯:深度學習沖鴨
著作權歸作者所有,文僅分享,侵權
道德經(jīng)云:”道生一,一生二,二生三,三生萬物“。學習知識亦是如此,一個概念衍生出兩個概念,兩個概念演化出更小的子概念,接著衍生出整個知識體系。
筆者結合自己對統(tǒng)計學和概率論知識的理解寫了這篇文章,有以下幾個目標。
目標一:構建出可以讓人理解的知識架構,讓讀者對這個知識體系一覽無余
目標二:盡l量闡述每個知識在數(shù)據(jù)分析工作中的使用場景及邊界條件
目標三:為讀者搭建從“理論”到“實踐"的橋梁
你的“對象” 是誰?






Q1:第一四分位數(shù) (Q1),又稱“較小四分位數(shù)”,等于該樣本中所有數(shù)值由小到大排列后第25%的數(shù)字。 Q2:第二四分位數(shù) (Q2),又稱“中位數(shù)”,等于該樣本中所有數(shù)值由小到大排列后第50%的數(shù)字。 Q3:第三四分位數(shù) (Q3),又稱“較大四分位數(shù)”,等于該樣本中所有數(shù)值由小到大排列后第75%的數(shù)字。



事件:有概率可言的一件事情,一個事情可能會發(fā)生很多結果,結果和結果之間要完全窮盡,相互獨立。 概率:每一種結果發(fā)生的可能性。所有結果的可能性相加等于1,也就是必然!??! 概率分布:我們把事件和事件所對應的概率組織起來,就是這個事件的概率分布。




離散數(shù)據(jù): 一個粒兒,一個粒兒的數(shù)據(jù)就是離散型數(shù)據(jù)。 連續(xù)數(shù)據(jù): 一個串兒,一個串兒的數(shù)據(jù)就是連續(xù)型數(shù)據(jù)。


f(x)----是該關于事件X的概率密度函數(shù) μ --- 均值 σ^2 ---方差 σ ---標準差
step1 --- 確定分布和范圍 ,求出均值和方差 step2 --- 利用標準分將正態(tài)分布轉化為標準正態(tài)分布 (還記得 第一部分的標準分嗎?) step3 ---查表找概率

對立事件:如果一個事件,A’包含所有A不包含的可能性,那么我們稱A’和A是互為對立事件 窮盡事件:如何A和B為窮盡事件,那么A和B的并集為1 互斥事件:如何A和B為互斥事件,那么A和B沒有任何交集 獨立事件:如果A件事的結果不會影響B(tài)事件結果的概率分布那么A和B互為獨立事件。




總體:你研究的所有事件的集合 樣本:總體中選取相對較小的集合,用于做出關于總體本身的結論 偏倚:樣本不能代表目標總體,說明該樣本存在偏倚 簡單隨機抽樣: 隨機抽取單位形成樣本。 分成抽樣: 總體分成幾組或者幾層,對每一層執(zhí)行簡單隨機抽樣 系統(tǒng)抽樣:選取一個參數(shù)K,每到第K個抽樣單位,抽樣一次。







用途1:用于檢驗擬合優(yōu)度。也就是檢驗一組給定的數(shù)據(jù)與指定分布的吻合程度; 用途2:檢驗兩個變量的獨立性。通過卡方分布可以檢查變量之間是否存在某種關聯(lián):


第一類錯誤: 拒絕了一個正確的假設,錯殺了一個好人 第二類錯誤:接收了一個錯誤的假設,放過了一個壞人



猜您喜歡:
附下載 | 經(jīng)典《Think Python》中文版
附下載 |《TensorFlow 2.0 深度學習算法實戰(zhàn)》
評論
圖片
表情
