深度學(xué)習(xí)500問
深度學(xué)習(xí)500問,以問答形式對常用的概率知識、線性代數(shù)、機器學(xué)習(xí)、深度學(xué)習(xí)、計算機視覺等熱點問題進行闡述,以幫助自己及有需要的讀者。 全書分為18個章節(jié),近30萬字。
1. 版權(quán)聲明
請尊重作者的知識產(chǎn)權(quán),版權(quán)所有,翻版必究。 未經(jīng)許可,嚴禁轉(zhuǎn)發(fā)內(nèi)容!
請大家一起維護自己的勞動成果,進行監(jiān)督。 未經(jīng)許可, 嚴禁轉(zhuǎn)發(fā)內(nèi)容! 2018.6.27 TanJiyong
2. 概述
本項目是大家對AI的相關(guān)知識進行整合,集思廣益, 以便形成 內(nèi)容充實,覆蓋全面的文集。
3. 加入以及文檔規(guī)范
1、尋求有愿意繼續(xù)完善的朋友、編輯、寫手;如有意合作,完善出書(成為共同作者)。
2、所有提交內(nèi)容的貢獻者,將會在文中體現(xiàn)貢獻者個人信息(例: 大佬-西湖大學(xué))
3、為了讓內(nèi)容更充實完善,集思廣益,歡迎Fork該項目并參與編寫。請在修改MD文件的同時(或直接留言)備注自己的姓名-單位(大佬-斯坦福大學(xué)),一經(jīng)采納,會在原文中顯示貢獻者的信息,謝謝!
4、推薦使用typora-Markdown閱讀器:https://typora.io/
例子:
### 3.3.2 如何尋找超參數(shù)的最優(yōu)值?(貢獻者:大佬-斯坦福大學(xué)) 在使用機器學(xué)習(xí)算法時,總有一些難搞的超參數(shù)。例如權(quán)重衰減大小,高斯核寬度等等。算法不會設(shè)置這些參數(shù),而是需要你去設(shè)置它們的值。設(shè)置的值對結(jié)果產(chǎn)生較大影響。常見設(shè)置超參數(shù)的做法有: 1. 猜測和檢查:根據(jù)經(jīng)驗或直覺,選擇參數(shù),一直迭代。 2. 網(wǎng)格搜索:讓計算機嘗試在一定范圍內(nèi)均勻分布的一組值。 3. 隨機搜索:讓計算機隨機挑選一組值。 4. 貝葉斯優(yōu)化:使用貝葉斯優(yōu)化超參數(shù),會遇到貝葉斯優(yōu)化算法本身就需要很多的參數(shù)的困難。 5. 在良好初始猜測的前提下進行局部優(yōu)化:這就是 MITIE 的方法,它使用 BOBYQA 算法,并有一個精心選擇的起始點。由于 BOBYQA 只尋找最近的局部最優(yōu)解,所以這個方法是否成功很大程度上取決于是否有一個好的起點。在 MITIE 的情下,我們知道一個好的起點,但這不是一個普遍的解決方案,因為通常你不會知道好的起點在哪里。從好的方面來說,這種方法非常適合尋找局部最優(yōu)解。稍后我會再討論這一點。 6. 最新提出的 LIPO 的全局優(yōu)化方法。這個方法沒有參數(shù),而且經(jīng)驗證比隨機搜索方法好。
4. 貢獻與項目概覽
已提交MD版本章節(jié):請查看MarkDown
評論
圖片
表情
