CogVLM:類 GPT-4V 的開源多模態(tài)大模型 | 清華唐杰&智譜
夢晨 發(fā)自 凹非寺 量子位 | 公眾號 QbitAI
看看這張圖中有幾個房子?如果你回答3個,就和GPT-4V的答案一樣。
但是最新開源的國產(chǎn)多模態(tài)模型CogVLM-17B,就能看出另有玄機。

甚至能區(qū)分在圖中完整可見的有3個和部分可見的有1個。

CogVLM由清華和智譜AI合作開發(fā),通訊作者為唐杰和丁銘,論文和開源代碼已上傳到GitHub。

除這個單獨案例之外,CogVLM-17B還在10項權(quán)威跨模態(tài)基準上取得了SOTA性能。
另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。
與之前的開源多模態(tài)大模型相比,可以算是14邊形戰(zhàn)士。

雷達圖中包含13個基準,最后一個TDIUC單獨展現(xiàn)。

CogVLM可以回答各種類型的視覺問題,比如從馬斯克的陰陽怪氣中推理出小扎假裝去旅行了,回避約架。

認出照片中的C羅,并回答他在2018年世界杯中有多少進球。

帶圖的編程題也能給出代碼了。

甚至能完成復雜的目標檢測,并打上標簽,自動數(shù)據(jù)標注成了。

從淺層對齊到深度融合
CogVLM模型包含4個基本組件
ViT編碼器
MLP適配器
大型預訓練語言模型
視覺專家模塊

其中,每層中都添加了可訓練的視覺專家模塊,以實現(xiàn)圖像特征和文本特征的深度對齊,而不會犧牲任何NLP任務的性能。
之前主流的淺層對齊方法,如BLIP-2,圖像特征和語言模型之間缺乏深度融合,導致性能不佳。
但微調(diào)語言模型的全部參數(shù)又會損害其NLP能力。
CogVLM的方法可以說是改變了視覺語言模型的訓練范式,從淺層對齊轉(zhuǎn)向深度融合。
另外值得注意的是,CogVLM訓練數(shù)據(jù)中沒有專門的OCR數(shù)據(jù),但表現(xiàn)出了很強的文字識別能力。
CogVLM開源并給出了在線試玩。

不過目前僅支持英文,后續(xù)會提供中英雙語版本支持,可以持續(xù)關注。
試玩地址:
http://36.103.203.44:7861
開源及論文地址:
https://github.com/THUDM/CogVLM
關注公眾號【機器學習與AI生成創(chuàng)作】,更多精彩等你來讀
臥剿,6萬字!30個方向130篇!CVPR 2023 最全 AIGC 論文!一口氣讀完
深入淺出stable diffusion:AI作畫技術(shù)背后的潛在擴散模型論文解讀
深入淺出ControlNet,一種可控生成的AIGC繪畫生成算法!
戳我,查看GAN的系列專輯~!
附下載 |《TensorFlow 2.0 深度學習算法實戰(zhàn)》
《基于深度神經(jīng)網(wǎng)絡的少樣本學習綜述》
《禮記·學記》有云:獨學而無友,則孤陋而寡聞
點擊一杯奶茶,成為AIGC+CV視覺的前沿弄潮兒!,加入 AI生成創(chuàng)作與計算機視覺 知識星球!
