1. Hugging Face 3000+NLP預(yù)訓(xùn)練模型庫整理分享

        共 785字,需瀏覽 2分鐘

         ·

        2021-02-25 23:07

        ????在自然語言處理(NLP)領(lǐng)域中,使用語言模型預(yù)訓(xùn)練方法在多項NLP任務(wù)上都獲得了不錯的提升,廣泛受到了各界的關(guān)注。在bert之前,將預(yù)訓(xùn)練的embedding應(yīng)用到下游任務(wù)的方式大致可以分為2種,一種是feature-based,例如ELMo這種將經(jīng)過預(yù)訓(xùn)練的embedding作為特征引入到下游任務(wù)的網(wǎng)絡(luò)中;一種是fine-tuning,例如GPT這種將下游任務(wù)接到預(yù)訓(xùn)練模型上,然后一起訓(xùn)練。然而這2種方式都會面臨同一個問題,就是無法直接學(xué)習(xí)到上下文信息,像ELMo只是分別學(xué)習(xí)上文和下文信息,然后concat起來表示上下文信息,抑或是GPT只能學(xué)習(xí)上文信息。

        ????隨后提出一種基于transformer encoder的預(yù)訓(xùn)練模型,可以直接學(xué)習(xí)到上下文信息,叫做bert。bert使用了12個transformer encoder block,在13G的數(shù)據(jù)上進行了預(yù)訓(xùn)練,可謂是nlp領(lǐng)域大力出奇跡的代表。在整個流程上與transformer encoder沒有大的差別,只是在embedding,multi-head attention,loss上有所差別。自此開始,各式各樣的預(yù)訓(xùn)練自然語言模型層出不窮,并且在各式各樣的NLP任務(wù)中取得不錯的效果。

        ?????

        ????本資源由Hugging Face整理分享,包含了3000+的已經(jīng)與訓(xùn)練好的自然語言處理模型庫,包含了各式各樣的NLP模型。


        ????全部數(shù)據(jù)獲取地址:https://huggingface.co/models?p=0

        ?????

        部分?jǐn)?shù)據(jù)截圖


        瀏覽 68
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
          
          

            1. 一边摸一边叫床一边爽女人扒开腿 | 中文字幕午夜剧场 | 黄色动漫免费视频 | 欧美爱爱免费 | 国产精品伦子伦免费 |