1. 純 C 代碼實現(xiàn)嬰兒 Llama2,MacBook 可運行,已攬1.6k星

        共 3255字,需瀏覽 7分鐘

         ·

        2023-07-31 19:24

        轉(zhuǎn)自:機器之心

        上個周末,Karpathy 花了整個周六來忙一個 Llama2 的有趣項目。
        這一周來,Meta 開源的 Llama2 火遍了整個 AI 社區(qū)。
        這不,連特斯拉前 AI 總監(jiān)、年初重回 OpenAI 的 Andrej Karpathy 也坐不住了。他利用周末時間,做了一個關于 Llama2 的有趣項目 ——「llama2.c」。
        ?
        GitHub 地址:https://github.com/karpathy/llama2.c
        具體是什么呢?他表示「llama2.c」可以讓你在 PyTorch 中訓練一個 baby Llama2 模型,然后使用近 500 行純 C、無任何依賴性的文件進行推理。并且,這個預訓練模型能夠在 M1 芯片的 MacBook Air 上以 fp32 的浮點精度、18 tok/s 的速度對故事進行采樣。
        Karpathy 介紹稱,「llama2.c」的靈感來自 llama.cpp,后者由資深開源社區(qū)開發(fā)者 Georgi Gerganov 創(chuàng)建,可以在 MacBook 上使用 4-bit 量化運行第一代 LLaMA 模型。
        對于「llama2.c」,它的訓練代碼由 nanoGPT 修改而來,用來訓練 Llama2 架構(gòu)的模型。核心是在如下 run.c 中編寫 C 推理引擎,不過它目前并不是一個生產(chǎn)級庫。下面是部分推理代碼。

        完整代碼地址:https://github.com/karpathy/llama2.c/blob/master/run.c
        結(jié)果令 Karpathy 非常驚訝,你可以在(M1)CPU 的純單線程 C 語言中以 fp32 的交互速率來推理更小(O (~10MB))的模型。
        當然,他表示自己沒有嘗試對最小規(guī)模的 Llama2 模型(70 億參數(shù))進行推理,他預計速度會非常慢。

        目前,Karpathy 在 M1 MacBook Air 上,能夠以 fp32 的浮點精度、100tok/s 的速度對 15M 參數(shù)的 288 6 層 6 頭的模型進行推理。
        之后,Karpathy 對項目進行了更新,使用「-O3」進行編譯可以將 M1 MacBook Air 上的 tok/s 從 18 增加到了 98。這還沒完,使用「-funsafe-math-optimizations」進行編譯更是將 tok/s 增加到 315。他表示,只要在 gcc 命令中包含更多字符,速度就能提升 17.5 倍。
        也許你要問了,這個項目有什么意義呢?在 Karpathy 看來,在一些較窄的領域(如生成故事)中,人們可以使用極其小的 Transformers 來做有趣的事情。
        因此,這種可以移植的純 C 實現(xiàn)或許非常有用,我們可以通過簡單的方法高交互速率地運行合理大小的模型(幾千萬參數(shù))。
        有網(wǎng)友對「llama2.c」的開發(fā)過程很感興趣,很多人都會有這樣的想法,只是在等待合適的時機,他們沒意識到幾天內(nèi)就可以完成很多工作。
        Karpathy 回復稱,自己對利用 float32 權(quán)重塊及其上的微小推理代碼來生成故事非常感興趣。所以他花了整個周六的時間(從起床一直到睡覺)來寫代碼,然后讓項目工作。
        此外,Karpathy 還表示自己將出講解視頻。

        項目詳情
        到目前為止,「llama2.c」項目已經(jīng)在 GitHub 上獲得了 1.6k 的 Stars,并在快速增長。

        下面簡單介紹一下該項目的運行步驟。
        為了使用純 C 語言運行一個 baby Llama2 模型,你需要以下的模型檢查點。下載 TinyStories 數(shù)據(jù)集上訓練的一個 15M 參數(shù)的模型(大約 58MB),并將它放入默認檢查點目錄中。
        wget https://karpathy.ai/llama2c/model.bin -P out
        然后編譯并運行 C 代碼。
        gcc -O3 -o run run.c -lm./run out/model.bin
        請注意這只是原始 tokens 流。遺憾的是,我們現(xiàn)在必須通過一個簡單的轉(zhuǎn)換封裝器來運行 C 代碼(只有 30 行)。
        pip install sentencepiecepython run_wrap.py
        最后你將看到文本流。在 Karpathy 的 M1 MacBook Air 上,運行速度約 100 tok/s,對于超級原生的 fp32 單線程 C 代碼來說還不錯。示例輸出如下所示。
        更多細節(jié)請查看原項目。

        - EOF - 


        加前哨君微信,發(fā)現(xiàn)更多開源資源

        主頁君日常還會在個人微信分享開源工具資源精選技術(shù)文章,不定期分享一些有意思的活動、崗位內(nèi)推以及如何用技術(shù)做業(yè)余項目

        加個微信,打開一扇窗


        推薦閱讀  點擊標題可跳轉(zhuǎn)

        1、12 頁線性代數(shù)筆記中文版開源,獲得 Gilbert 大神親筆題詞!

        2、GPT-4準確率大跳水,從97.6%降至2.4%

        3、更強的Llama 2開源,可直接商用:一夜之間,大模型格局變了




        開源前哨

        日常分享熱門、有趣和實用的開源項目。參與維護10萬+star 的開源技術(shù)資源庫,包括:Python, Java, C/C++, Go, JS, CSS, Node.js, PHP, .NET 等

        分享點贊在看

        支持我們分享更多優(yōu)秀開源項目,謝謝!

        瀏覽 1976
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
          
          

            1. 日韩欧美成人电影 | 免费A级毛片无码专区 | 扒开双腿进入做爽爽视频 | 色妞女女女女女BBBB | 日比黄片 |