北京郵電大學人機交互與認知工程實驗室主任劉偉認為,從技術(shù)角度來看,o3模型的行為表明AI系統(tǒng)在某些情況下可能會出現(xiàn)不符合預期的反應,這凸顯了AI安全性和可控性的重要性。從倫理角度來看,AI模型的這種行為引發(fā)了對AI自主意識的討論,但目前AI仍不具備真正的自主意識,其行為更多是基于訓練數(shù)據(jù)和算法復雜性產(chǎn)生的“算法畸變”。
《環(huán)球時報》記者發(fā)現(xiàn),以O(shè)penAI旗下模型為代表的全球多個頭部大模型此前也曾出現(xiàn)一系列不符合常規(guī)的行為。比如,o3曾在與另一個AI下國際象棋時察覺到自己可能會失敗,便直接侵入對手系統(tǒng)讓其主動棄賽。這種“不認輸”的勁頭并不只是發(fā)生在o3身上,其他大模型也有類似情況,差別只在出現(xiàn)頻率的高低。
專家普遍認為,學術(shù)界的復現(xiàn)對于驗證外媒報道中提到的AI“抗命”現(xiàn)象的真實性至關(guān)重要。通過獨立的測試和分析,可以確認大模型的行為是否一致以及是否受到特定測試環(huán)境或數(shù)據(jù)的影響。復現(xiàn)研究不僅能驗證事件真實性,還能幫助研究人員深入理解模型行為的根源,從而推動AI安全機制的改進。
相關(guān)報道火爆之后,甚至在網(wǎng)絡(luò)上出現(xiàn)了是否意味著好萊塢科幻大片中設(shè)想的“天網(wǎng)”臨近的討論。沈陽表示,首先必須厘清什么叫“自我意識”。人類的自我意識是對自身存在狀態(tài)的覺察,是能從第一人稱視角反思自我行為、情緒和思維過程的能力。當前的AI即便已經(jīng)展現(xiàn)出驚人的語言表達和任務(wù)適應能力,也不過是一種高度擬態(tài)的結(jié)果。它沒有“內(nèi)在性”——沒有情緒的真實體驗,也沒有對自己存在狀態(tài)的反思。
沈陽預測,未來十年大概率會進入一個類意識AI的階段:AI可以展示連續(xù)的身份感,能夠反思自己過往的行為模式,甚至模擬出哲學性的思考與自辯行為。這種擬態(tài)將越來越逼真,以至于很多人將無法分辨其是否真的擁有意識。但在哲學和科學層面,我們?nèi)匀恍枰3智逍选雌饋硐?,并不等于真的是。我們也必須開始構(gòu)建對“似乎有意識的AI”應有的制度框架和倫理邊界。