決策樹(shù)、隨機(jī)森林、bagging、boosting、Adaboost、GBDT、XGBoost總結(jié)
一. 決策樹(shù)
信息熵越小,數(shù)據(jù)集
的純度越大
上建立決策樹(shù),數(shù)據(jù)有
個(gè)類(lèi)別:
表示第K類(lèi)樣本的總數(shù)占數(shù)據(jù)集D樣本總數(shù)的比例。
,
二. 隨機(jī)森林
三. GBDT和XGBoost
計(jì)算的是當(dāng)前數(shù)據(jù)下,模型的分類(lèi)誤差率,模型的系數(shù)值是基于分類(lèi)誤差率的
point的候選,遍歷所有的候選分裂點(diǎn)來(lái)找到最佳分裂點(diǎn)。
來(lái)源:https://zhuanlan.zhihu.com/p/75468124
評(píng)論
圖片
表情
