大模型榜單再次刷新,比Llama 2更強(qiáng)的大模型來了
-
Open-Platypus 是一個(gè)小規(guī)模的數(shù)據(jù)集,由公共文本數(shù)據(jù)集的精選子集組成。該數(shù)據(jù)集由 11 個(gè)開源數(shù)據(jù)集組成,重點(diǎn)是提高 LLM 的 STEM 和邏輯知識(shí)。它主要由人類設(shè)計(jì)的問題組成,只有 10% 的問題是由 LLM 生成的。Open-Platypus 的主要優(yōu)勢(shì)在于其規(guī)模和質(zhì)量,它可以在很短的時(shí)間內(nèi)實(shí)現(xiàn)非常高的性能,并且微調(diào)的時(shí)間和成本都很低。具體來說,在單個(gè) A100 GPU 上使用 25k 個(gè)問題訓(xùn)練 13B 模型只需 5 個(gè)小時(shí)。 -
描述了相似性排除過程,減少數(shù)據(jù)集的大小,并減少數(shù)據(jù)冗余。 -
詳細(xì)分析了始終存在的開放 LLM 訓(xùn)練集與重要 LLM 測(cè)試集中包含的數(shù)據(jù)相污染的現(xiàn)象,并介紹了作者避免這一隱患的訓(xùn)練數(shù)據(jù)過濾過程。 -
介紹了對(duì)專門的微調(diào) LoRA 模塊進(jìn)行選擇和合并的過程。
分享
收藏
點(diǎn)贊
在看
評(píng)論
圖片
表情
