近年來,隨著人工智能技術(shù)的飛速發(fā)展,各類AI產(chǎn)品已經(jīng)深度融入我們的日常生活:無論是在搜索引擎里尋求答案,還是在醫(yī)療、金融、教育等領(lǐng)域嘗試獲得專業(yè)建議,人們?cè)絹碓搅?xí)慣于“問AI”。然而,技術(shù)便利的另一面是,越來越多人開始察覺——這些智能系統(tǒng)雖然話說得頭頭是道,卻經(jīng)?!氨犙壅f瞎話”。
杜撰資料、捏造引用、邏輯混亂……AI一副信誓旦旦的語氣,卻輸出著漏洞百出的內(nèi)容,這種現(xiàn)象已經(jīng)屢見不鮮,業(yè)內(nèi)甚至給它起了個(gè)名字——“AI幻覺”(hallucination)。但問題不僅僅是術(shù)語所能涵蓋的那么簡(jiǎn)單,尤其在醫(yī)療、司法、財(cái)經(jīng)等對(duì)信息精準(zhǔn)度要求極高的場(chǎng)景中,這種“幻覺”不僅是個(gè)技術(shù)問題,更可能帶來嚴(yán)重后果。

對(duì)AI的回答要保持質(zhì)疑 “胡編亂造”背后的真相值得每個(gè)人警惕
那么,AI到底是“為什么胡說八道”?它是真的在“說謊”嗎?又該如何防止被它誤導(dǎo)?
我們采訪了一位深度參與語言模型研發(fā)的工程師,試圖還原AI“胡編”的真實(shí)原因。
不是“說謊”,而是“胡猜”
“很多用戶覺得AI在說謊,但其實(shí)從技術(shù)角度看,它并不是有意欺騙?!边@位開發(fā)者解釋說,目前主流的AI語言模型,并不具備對(duì)“真實(shí)”概念的理解。它的工作原理是通過海量的訓(xùn)練數(shù)據(jù),學(xué)習(xí)如何“預(yù)測(cè)”下一個(gè)最可能出現(xiàn)的詞句。換句話說,它只是在“猜”你想聽什么,并按概率組合出一個(gè)看起來“合理”的答案。