幻覺(jué)成了AI的“癌癥”,連OpenAI也治不了
掃描二維碼
隨時(shí)隨地手機(jī)看文章
學(xué)生參加考試,當(dāng)他不知道題目的答案時(shí),可能會(huì)猜測(cè)。實(shí)際上,AI聊天機(jī)器人也一樣。AI給出的答案可能看起來(lái)正確,實(shí)際卻是完全錯(cuò)誤的,這就是所謂的“幻覺(jué)”。
從本質(zhì)上講,AI大語(yǔ)言模型生成的回復(fù)偏離事實(shí)或者不符合邏輯,就會(huì)產(chǎn)生幻覺(jué)。在訓(xùn)練時(shí)模型難免存在數(shù)據(jù)空白,但它會(huì)用看似合理、實(shí)則錯(cuò)誤的細(xì)節(jié)填補(bǔ)、掩飾。
AI并非有意欺騙人類,而是人類利用龐大數(shù)據(jù)進(jìn)行訓(xùn)練時(shí)存在缺陷。AI預(yù)測(cè)序列的下一個(gè)單詞或者詞匯時(shí),并未真正理解含義,所以導(dǎo)致錯(cuò)誤。
雖然近年來(lái)AI技術(shù)有所進(jìn)步,但即便是在OpenAI的GPT-5模型中,幻覺(jué)依然存在,而且還很嚴(yán)重。
AI幻覺(jué)出現(xiàn)與獎(jiǎng)勵(lì)出錯(cuò)有關(guān)
為什么會(huì)出現(xiàn)幻覺(jué)?一些專家認(rèn)為,主要是訓(xùn)練數(shù)據(jù)和算法存在局限性。OpenAI開(kāi)發(fā)的AI模型實(shí)際上就是模式匹配機(jī)器,它擅長(zhǎng)模仿,但是當(dāng)數(shù)據(jù)不完整或者含糊不清時(shí)就容易出錯(cuò)。
OpenAI最近發(fā)表論文,認(rèn)為造成幻覺(jué)的原因是訓(xùn)練時(shí)方法錯(cuò)誤。當(dāng)模型輸出充滿自信的結(jié)果時(shí)會(huì)獲得“獎(jiǎng)勵(lì)”,哪怕給出的結(jié)果是猜測(cè)的,也會(huì)得到獎(jiǎng)勵(lì),這就誘導(dǎo)AI輸出過(guò)度自信但存在錯(cuò)誤的信息。
也就是說(shuō),在回復(fù)時(shí)AI喜歡“假裝”自己能準(zhǔn)確回答問(wèn)題,不承認(rèn)自己存在不確定性,這一問(wèn)題屬于隱性結(jié)構(gòu)性缺陷,暫時(shí)找不到解決方法。
一些專家斷言,當(dāng)前的訓(xùn)練方法鼓勵(lì)A(yù)I猜測(cè),導(dǎo)致AI過(guò)度自信,不承認(rèn)自己無(wú)知,結(jié)果導(dǎo)致“幻覺(jué)”問(wèn)題有可能越來(lái)越嚴(yán)重。
就連OpenAI也不得不承認(rèn),幻覺(jué)可能是永遠(yuǎn)無(wú)法解決的問(wèn)題。所以O(shè)penAI認(rèn)為,不應(yīng)該鼓勵(lì)A(yù)I猜測(cè),而應(yīng)該鼓勵(lì)A(yù)I承認(rèn)不確定性。
然而,另一個(gè)問(wèn)題隨之到來(lái)。Claude模型鼓勵(lì)A(yù)I承認(rèn)不確定性,對(duì)于不準(zhǔn)確的回復(fù),它總是避免給出定論。但如此一來(lái),必然會(huì)導(dǎo)致Claude在回復(fù)時(shí)拒絕率居高不下,進(jìn)而導(dǎo)致用戶不滿,最終影響實(shí)用性。
今天的AI實(shí)際上有點(diǎn)像“應(yīng)試者”,面對(duì)問(wèn)題時(shí)如果無(wú)法給出確定答案,為了提高成績(jī),AI會(huì)通過(guò)猜測(cè)來(lái)應(yīng)對(duì),因?yàn)椴聹y(cè)后成績(jī)更高。我們的世界并非絕對(duì)的二元對(duì)立,對(duì)與錯(cuò)、黑與白,并非如此純粹簡(jiǎn)單。生活中到處都是不確定性,真正的準(zhǔn)確可能根本就無(wú)法實(shí)現(xiàn)。
作為人類,當(dāng)我們走出校園,經(jīng)歷挫折和實(shí)踐,會(huì)逐漸領(lǐng)悟到“表達(dá)存在不確定性”的價(jià)值,但在語(yǔ)言模型中,表達(dá)不確定卻會(huì)遭到懲罰。
為了解決這一問(wèn)題,OpenAI建議重新設(shè)計(jì)評(píng)估標(biāo)準(zhǔn)。在評(píng)估AI時(shí),如果存在不確定情況,AI棄權(quán),拒絕回應(yīng),不應(yīng)該懲罰它。
OpenAI認(rèn)為:“我們的評(píng)估方法偏愛(ài)準(zhǔn)確性,這種方法需要更新,評(píng)分機(jī)制應(yīng)該努力抑制猜測(cè)行為。如果主要的評(píng)分系統(tǒng)一直鼓勵(lì)猜測(cè),那么模型就會(huì)不斷學(xué)習(xí)如何猜測(cè)?!?
幻覺(jué)成了AI的“癌癥”
“幻覺(jué)”問(wèn)題嚴(yán)重阻礙了AI的普及。如果應(yīng)用于醫(yī)療保健或者金融領(lǐng)域,不可靠的結(jié)果可能會(huì)造成嚴(yán)重后果。
美國(guó)普渡大學(xué)研究人員Tianyang Xu認(rèn)為:“對(duì)于大多數(shù)幻覺(jué)而言,發(fā)生概率已經(jīng)降低到一個(gè)用戶可以接受的水平。”但在法律、數(shù)學(xué)等領(lǐng)域,幻覺(jué)仍然是一大障礙。
加州大學(xué)認(rèn)知科學(xué)與人工智能研究專家Mark Steyvers表示:“OpenAI在做一些小努力,有進(jìn)步,但離目標(biāo)還很遠(yuǎn),GPT并沒(méi)有頻繁地承認(rèn)自己不知道?!?
Tianyang Xu認(rèn)為,擴(kuò)大模型規(guī)??梢愿纳苹糜X(jué)問(wèn)題,我們還可以豐富模型的內(nèi)部關(guān)聯(lián),提高訓(xùn)練數(shù)據(jù)質(zhì)量。當(dāng)模型訓(xùn)練數(shù)據(jù)不足或者基礎(chǔ)信息存在錯(cuò)誤時(shí),幻覺(jué)問(wèn)題尤其嚴(yán)重。此外,當(dāng)AI面對(duì)的論文太長(zhǎng)、內(nèi)容超出理解能力時(shí),無(wú)論是總結(jié)還是分析,都會(huì)產(chǎn)生幻覺(jué)現(xiàn)象。
哥本哈根AI公司Silvi的研究人員Mushtaq Bilal指出,完全消除幻覺(jué)幾乎是不可能的,如果能做到,AI企業(yè)早就做了。
Saachi Jain管理一個(gè)AI安全團(tuán)隊(duì),他認(rèn)為,減少錯(cuò)誤,讓模型承認(rèn)自己不知道,這是OpenAI關(guān)注的重點(diǎn)。針對(duì)問(wèn)題,OpenAI傾向于給出冗長(zhǎng)、開(kāi)放式回答,這樣也能減少幻覺(jué)現(xiàn)象。
艾倫人工智能研究所AI研究員Akari Asai認(rèn)為,在一項(xiàng)名為“ScholarQA-CS”的文獻(xiàn)綜述基準(zhǔn)測(cè)試中,如果GPT-5允許聯(lián)網(wǎng),它的表現(xiàn)很好。如果無(wú)法聯(lián)網(wǎng),GPT-5就會(huì)出現(xiàn)問(wèn)題,因?yàn)榇蠖辔墨I(xiàn)綜述系統(tǒng)具備與學(xué)術(shù)數(shù)據(jù)庫(kù)交叉核對(duì)的能力,交叉校對(duì)至關(guān)重要。如果不聯(lián)網(wǎng),GPT-5出現(xiàn)錯(cuò)誤的概率相當(dāng)于GPT-4的兩倍。
New Scientist在一篇文章中表示,AI出現(xiàn)一定程度的幻覺(jué)是難以避免的,人類可以通過(guò)檢索增強(qiáng)生成技術(shù)來(lái)緩解,也就是讓模型參考外部數(shù)據(jù),進(jìn)行交叉對(duì)比。問(wèn)題在于,隨著模型的擴(kuò)大,“幻覺(jué)率”似乎并沒(méi)有降低,反而提高了。
New Scientist在2025年5月的一篇文章中指出,由于AI復(fù)雜度增加,幻覺(jué)更嚴(yán)重了。甚至有人大聲疾呼:“當(dāng)AI變得更智能時(shí),幻覺(jué)不僅不會(huì)減少,反而會(huì)增加?!?
看來(lái)幻覺(jué)的確像是AI的癌癥,人類努力多年,無(wú)法治愈癌癥,可能幻覺(jué)也超出了人類認(rèn)知,屬于不可解決的范疇。(小刀)