1.2萬億參數(shù):谷歌通用稀疏語言模型GLaM,小樣本學(xué)習(xí)打敗GPT-3
大規(guī)模語言模型性能固然好,但計算和資源成本太高了,有沒有方法可以更有效地訓(xùn)練和使用 ML 模型呢?

完形填空和完成任務(wù);
開放域問答;
Winograd-style 任務(wù);
常識推理;
上下文閱讀理解;
SuperGLUE 任務(wù);
自然語言推理。








??THE END?
轉(zhuǎn)載請聯(lián)系機(jī)器之心公眾號獲得授權(quán)
投稿或?qū)で髨蟮溃篶[email protected]

點(diǎn)個在看 paper不斷!
評論
圖片
表情
