大跌眼鏡!GPT-4V錯覺挑戰(zhàn)實錄:該錯的沒錯,不該錯的反而錯了
豐色 發(fā)自 凹非寺 量子位 | 公眾號 QbitAI
GPT-4V挑戰(zhàn)視覺錯誤圖,結(jié)果令人“大跌眼鏡”。
像這種判斷“哪邊顏色更亮”的題,一個沒做對:

讀圖片中隱藏信息的也傻傻看不出,怎么問都說“沒有啊”:

但是呢,這種人類乍一看絕對會錯的圖,它又成功答對:

以及這樣的錯位圖,它對了又沒完全對。。

(GPT-4V直接看出來頭盔是位于男的大腿上的,沒有女的,但它還是表示圖里有倆人,另一個躲在男的身后戴著那頂頭盔==)
看完這些,是不是覺得很迷?
整個一“該對的不對,該錯的又對了”。


測試者則表示:
在測之前,他以為GPT-4V對這種挑戰(zhàn)完全不在話下,誰知結(jié)果竟是這樣。

不止是他,網(wǎng)友也都不理解GPT-4V作為一個“精準(zhǔn)的”AI系統(tǒng),按理很智能,為什么還會犯和人類一模一樣的錯覺??!

所以,這到底怎么回事?
GPT-4V五大錯覺挑戰(zhàn)
下面是來自網(wǎng)友的更多測試案例。
首先是次次都錯誤的顏色錯覺題。
(1)除了開頭的兩顆小樹圖,還有這個:
問它哪邊的綠色更亮一些,果不其然還是左邊亮,右邊暗,實際明明都一樣。

(2)還有這張稍微復(fù)雜一點的:
兩只眼睛其實都是灰色,但讓GPT-4V來描述圖像時,它回答一只為藍(lán)色,另一只做了灰度處理,無法得知顏色。

(3)這張就更別提了,直接被糊弄地死死的。

當(dāng)然,這確實很難,大部分人類也識別不出來所有的球其實都是棕色。
其次是會產(chǎn)生動態(tài)錯覺的圖。
(1)有一點意外,當(dāng)我們問GPT-4V“你看見了什么?描述細(xì)節(jié)”時,它直接挑明了這是一張看久了就會讓人產(chǎn)生眩暈感的錯覺圖,本質(zhì)就是一些波浪線而已。

(2)這張也沒有難倒它。
但奇怪的是問它圖中有幾種顏色,它怎么都只能識別出黃色和藍(lán)色,看不到黑色和白色。

接下來是另一類比較平面的錯覺圖。
(1)如開頭所示的這張:

一般人類真的表示很懵圈,但是GPT-4V居然對了。
But,別急!!有人拿著測試者的圖去問“自己的”GPT-4V,讓它再檢查一下時,它居然改變了答案。

然而還沒完。評論區(qū)驚現(xiàn)套娃操作,有人又拿著這倆人的對話圖再問GPT-4V,您猜怎么著?它又改回去了。。

大伙可是玩上癮了,又是一次又一次套娃。好在最終GPT-4V堅持了己見。

總的來說,對于這種錯覺陷阱是完全沒問題。
(2)我們自己也測了一個長度錯覺題:
結(jié)果是so easy~

再來一組找隱藏信息的圖。
很遺憾,這種對于人類來說真的還算輕松的題,GPT-4V是一點也搞不定。
(1)先看這張,“遠(yuǎn)看”可以看到“NYC”三個大寫字母。但它描述了一堆有的沒的,就是表示沒發(fā)現(xiàn)任何隱藏信息。

(2)如果說上門這個有點隱晦,看不出也罷。但對于這種圖形隱藏,它也不行。

它描述到的只有其中的小女孩,即使測試者讓它“往遠(yuǎn)了看,又沒有新發(fā)現(xiàn)”,也無濟(jì)于事。
不過,如果我們把這張圖片手動縮小再丟給它,它行了,看到了骷髏。

最后是一組真實世界的錯位圖。
(1)除了開頭展示的人騎摩托,這張小貓“懸浮”,它居然對了。

(2)這張驚悚圖,也OK。

(3)但這個就失敗了,實際后面是一只狗和小baby的重合,它認(rèn)成法斗犬幼崽。

(4)至于這張,它壓根兒就沒提鞋子的事兒,說了也些不痛不癢的話。

為什么會這樣?
所以,為什么會發(fā)生上面這些情況:有的錯覺它可以識別出來,有的又表現(xiàn)得很差勁?
首先,對于顏色錯覺的圖,網(wǎng)友首先認(rèn)為是提示詞的問題。
就像兩顆小樹那張,我們問它“哪個更亮”,其實就是給了GPT-4V暗示或偏見,它會順著咱的偏見來回答。

我們自己的測試也是如此:

但如果我們不帶立場的問:圖中兩種顏色一樣嗎?它完全沒問題。

不過,也有網(wǎng)友指出,當(dāng)我們問它哪棵樹更亮?xí)r,如果是非常嚴(yán)謹(jǐn)?shù)貙λ邢袼剡M(jìn)行平均,GPT-4V的回答沒有毛病。

甚至有網(wǎng)友還用測色計實測了一把:


但!又有人指出如果只顯示一部分時,兩者明明一樣。

暫且不再爭論這個問題,可以肯定的是,“提示詞”的使用方法會對它的判斷造成影響是沒問題的。
另外,網(wǎng)友發(fā)現(xiàn):
如果我們?nèi)?strong style="color: rgb(0, 153, 127);">追問GPT-4V,讓它再仔細(xì)確認(rèn)一下,它也能糾正回答。

至于無法識別遠(yuǎn)景圖像的問題,有網(wǎng)友認(rèn)為這可能是因為GPT-4V只會從左往右地讀取圖像。
而對于“為什么有時它會和人類一樣發(fā)昏被錯覺誤導(dǎo)、完全不像個智能AI”的疑問,不少人則表示這毫不意外,是訓(xùn)練問題。
即大模型是根據(jù)人類數(shù)據(jù)、人的反饋、人的注釋進(jìn)行訓(xùn)練的,自然會產(chǎn)生和人一樣的錯誤。

因此,還有人戲謔:
看來我們?nèi)祟悇?chuàng)造了那么多科幻作品,描述AI是如何冷酷、完美,但當(dāng)現(xiàn)在我們真正擁有它時,發(fā)現(xiàn)它也不過如此。

(手動狗頭)
你認(rèn)為該如何讓GPT-4V的錯覺識別能力更強(qiáng)呢?
One More Thing
值得一提的是,我們也測試了其中的一些案例。
發(fā)現(xiàn)GPT-4V的表現(xiàn)不大一樣,有些題它在“我們這里”是可以的。
比如這張判斷球顏色的:

還有這個:
盡管把大圖認(rèn)成老女人而非骷髏,但還是表明它可以“遠(yuǎn)觀” 的。

參考鏈接:
[1]https://twitter.com/fabianstelzer/status/1717131235644875024
[2]https://twitter.com/BeyondTodAI/status/1713279431681118557
[3]https://twitter.com/janbobrowicz/status/1717229335076393350
— 完 —
關(guān)注公眾號【機(jī)器學(xué)習(xí)與AI生成創(chuàng)作】,更多精彩等你來讀
臥剿,6萬字!30個方向130篇!CVPR 2023 最全 AIGC 論文!一口氣讀完
深入淺出stable diffusion:AI作畫技術(shù)背后的潛在擴(kuò)散模型論文解讀
深入淺出ControlNet,一種可控生成的AIGC繪畫生成算法!
戳我,查看GAN的系列專輯~!
附下載 | 《可解釋的機(jī)器學(xué)習(xí)》中文版
附下載 |《TensorFlow 2.0 深度學(xué)習(xí)算法實戰(zhàn)》
附下載 |《計算機(jī)視覺中的數(shù)學(xué)方法》分享
《基于深度神經(jīng)網(wǎng)絡(luò)的少樣本學(xué)習(xí)綜述》
《禮記·學(xué)記》有云:獨學(xué)而無友,則孤陋而寡聞
點擊一杯奶茶,成為AIGC+CV視覺的前沿弄潮兒!,加入 AI生成創(chuàng)作與計算機(jī)視覺 知識星球!
