附pdf下載 | 中文版《可解釋的機(jī)器學(xué)習(xí)》
可解釋性是當(dāng)下機(jī)器學(xué)習(xí)研究特點(diǎn)之一。最近,來自復(fù)旦大學(xué)的研究生朱明超,將《Interpretable Machine Learning》翻譯成了中文。本文推介由朱明超同學(xué)親自撰寫。
這本書最初是由德國慕尼黑大學(xué)博士Christoph Molnar耗時兩年完成的,長達(dá)250頁,是僅有的一本系統(tǒng)介紹可解釋性機(jī)器學(xué)習(xí)的書籍。
這本書最初是由Christoph Molnar耗時兩年完成的《Interpretable Machine Learning》,長達(dá)250頁,在公開至今該書得到密切關(guān)注,這是在可解釋性領(lǐng)域可以找到的僅有的一本書。

“可解釋”是這本書的核心論題。作者M(jìn)olnar認(rèn)為,可解釋性在機(jī)器學(xué)習(xí)甚至日常生活中都是相當(dāng)重要的一個問題。建議機(jī)器學(xué)習(xí)從業(yè)者、數(shù)據(jù)科學(xué)家、統(tǒng)計(jì)學(xué)家和任何對使機(jī)器學(xué)習(xí)模型可解釋的人閱讀本書。
Molnar表示,雖然數(shù)據(jù)集與黑盒機(jī)器學(xué)習(xí)解決了很多問題,但這不是最好的使用姿勢,現(xiàn)在模型本身代替了數(shù)據(jù)成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。當(dāng)我們的日常生活中全都是機(jī)器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學(xué)家都研究不透“黑盒”,怎樣讓普通人完全信任模型做出的決策呢?
這本書的重點(diǎn)是機(jī)器學(xué)習(xí)的可解釋性。你將學(xué)習(xí)簡單的、可解釋的模型,如線性回歸、決策樹和決策規(guī)則等。后面幾章重點(diǎn)介紹了解釋黑盒模型的模型無關(guān)的一般方法,如特征重要性和累積局部效應(yīng),以及用 Shapley 值和 LIME 解釋單個實(shí)例預(yù)測。
對各種解釋方法進(jìn)行了深入的解釋和批判性的討論。它們是如何工作的?優(yōu)點(diǎn)和缺點(diǎn)是什么?如何解釋它們的輸出?本書將使你能夠選擇并正確應(yīng)用最適合你的機(jī)器學(xué)習(xí)項(xiàng)目的解釋方法。你閱讀本書后,內(nèi)化知識還使你能夠更好地理解和評估arxiv.org上發(fā)表的有關(guān)可解釋性的新論文。
這本書中用許多平實(shí)的語言,結(jié)合各類現(xiàn)實(shí)生活中的例子介紹了相關(guān)的概念,還配了參考鏈接可以進(jìn)一步學(xué)習(xí)了解。
《可解釋的機(jī)器學(xué)習(xí)》該書總共包含 7 章內(nèi)容。章節(jié)目錄如下:
第一章:前言
第二章:可解釋性
第三章:數(shù)據(jù)集
第四章:可解釋的模型
第五章:模型無關(guān)方法
第六章:基于樣本的解釋
第七章:水晶球
部分截圖如下:

