正因如此,AI有時會編造出聽起來有模有樣、但實際上根本不存在的新聞、論文、人物甚至法律條文。它的“自信”和“權(quán)威感”來源于算法的語言組織能力,而不是事實核驗。
問題源于數(shù)據(jù)與訓練方式
據(jù)介紹,AI出現(xiàn)“幻覺”的根源在于訓練數(shù)據(jù)的復雜性和模型的預測機制。
“它吃進去了各種真實的、不真實的、過時的、主觀的甚至矛盾的信息,但沒有一個內(nèi)部機制告訴它哪個信息是真的?!庇绕湓陂_放領(lǐng)域中,當數(shù)據(jù)質(zhì)量參差不齊,AI就會像一個讀書太雜但沒分清真假內(nèi)容的學生,在回答問題時憑印象“編”出一套看似有邏輯的說辭。
此外,目前AI模型在訓練階段主要依賴“語言預測”這一核心目標,它并不涉及嚴謹?shù)氖聦嶒炞C體系。即便在后期通過“對齊”和“微調(diào)”來盡量減少錯誤回答,但在大規(guī)模開放使用時,這些措施依然難以完全杜絕AI胡編亂造的行為。
“信任崩塌”與“技術(shù)追責”
2025年,人工智能的觸角已延伸至醫(yī)療診斷、在線教育、金融風控等重要領(lǐng)域。一個看似無害的小錯誤,可能引發(fā)用戶財產(chǎn)損失、健康誤導甚至司法風險。AI幻覺也不再是個別現(xiàn)象,而逐漸演變?yōu)楣舶踩[患。
“你不能指望一個AI去承認‘我不知道’,它的天性就是給出一個答案?!边@位技術(shù)人員強調(diào),這也正是用戶在使用時最容易被誤導的地方——AI總會給出回答,但你永遠不知道它是不是對的。
近日,馬斯克與xAI團隊在直播中正式發(fā)布了最新版本的Grok3。此前,馬斯克曾稱Grok-3為“地球上最聰明的AI”,并在X平臺上表示自己整個周末都在和團隊打磨產(chǎn)品
2025-02-19 14:49:40Grok3翻車了回答9.11比9.9大在當今數(shù)字化社會中,網(wǎng)絡(luò)謠言悄然侵襲著我們的生活。對于未成年人來說,這些謠言不僅影響他們對事物的正確認知,還威脅到他們的健康成長
2024-11-13 14:25:03有圖未必有真相隨著AI技術(shù)的不斷進步,“人工智能是否會取代人類工作”成為了一個熱門話題。DeepSeek表示,雖然部分工作確實會被取代,但人類的創(chuàng)造力、情感和復雜決策力仍然是AI難以企及的
2025-02-26 13:45:54DeepSeek回答AI是否會搶走人類飯碗