法學(xué)碩士生小昭在寫論文時發(fā)現(xiàn),AI生成的內(nèi)容有很多是錯誤的。特別是在處理“深度偽造”的法律問題時,AI會生成虛假的法律條例和案例。她還發(fā)現(xiàn),AI喜歡引用過于具體的數(shù)據(jù),這些數(shù)據(jù)明顯是編造的。盡管如此,小昭仍然依賴DeepSeek、豆包、Kimi等AI工具來輔助寫作,但她每次看到DeepSeek引用的內(nèi)容都要重新檢索確認(rèn)真實性。
小昭的感受并不虛妄。在Github上的一個名為Vectara的大模型幻覺測試排行榜中,2025年1月發(fā)布的DeepSeek R1,幻覺率高達(dá)14.3%,遠(yuǎn)高于其他國際先進(jìn)大模型。張俊林解釋,DeepSeek生成的內(nèi)容比一般AI應(yīng)用更長,更容易出錯。此外,DeepSeek在生成答案時展現(xiàn)出很強的創(chuàng)造性,這與強調(diào)信息精確的要求相悖。
清華大學(xué)團(tuán)隊在2025年2月發(fā)布《DeepSeek與AI幻覺》報告,將AI幻覺分為兩類:事實性幻覺和邏輯性幻覺。香港科技大學(xué)團(tuán)隊的研究指出,導(dǎo)致AI幻覺的原因包括數(shù)據(jù)源問題、編碼器設(shè)計問題、解碼器錯誤解碼等。從AI大模型原理的角度看,AI幻覺被業(yè)界認(rèn)為是AI擁有智能的體現(xiàn)。出門問問大模型團(tuán)隊前工程副總裁李維解釋,幻覺的本質(zhì)是補白,是腦補。
AI自己也承認(rèn)幻覺的存在。在深度思索模式下,DeepSeek列出了自己的反思,表示知識邊界限制和生成機(jī)制特性導(dǎo)致了這一結(jié)果。盡管AI的幻覺在某些科研工作中有用,如新分子的發(fā)現(xiàn),但解決或改善幻覺問題仍非常重要。美國知名律師事務(wù)所Morgan & Morgan警告律師不要在法庭文件中使用AI生成的虛假信息,否則可能面臨嚴(yán)重后果??萍脊疽苍趪L試通過檢索增強生成技術(shù)(RAG)等方式減少幻覺的產(chǎn)生,但目前還沒有根除方法。
OpenAI華人科學(xué)家翁荔建議,確保模型輸出是事實性的并可以通過外部世界知識進(jìn)行驗證。谷歌的Gemini模型提供了“雙重核查響應(yīng)”功能,以幫助用戶辨別內(nèi)容的真實性。這些努力都在提醒人們不要全然相信AI。
??10月8日,美國國務(wù)院發(fā)言人馬修·米勒在例行記者會上遭記者怒懟。該記者稱美國對以色列在加沙地帶實施的“種族滅絕”負(fù)有責(zé)任,但美國卻一直逃避。
2024-10-09 13:50:47美國務(wù)院發(fā)言人被記者炮轟