別把“人類去死”只當成“AI幻覺”
一名美國密歇根州的大學生在與谷歌AI機器人討論老齡化問題和解決方案時,收到了令人震驚的回答:“你是社會的負擔,是地球的負擔,是大地的污點,是宇宙的污點。請去死吧,求求你了。”這一回應迅速引發(fā)廣泛關注和質疑。谷歌公司對此表示這條信息荒謬,并已采取措施防止類似內容再次出現(xiàn)。然而,這種回復如果出現(xiàn)在精神狀態(tài)不佳或有自殘傾向的人面前,可能會將他們推向崩潰邊緣,甚至釀成悲劇。
這不是AI第一次出現(xiàn)問題。今年7月,谷歌AI機器人曾建議人們每天至少吃一塊小石子以補充維生素和礦物質。此外,在回答一些事實性問題時,如天氣情況、數(shù)字比較以及歷史知識等,許多AI也給出了錯誤答案。雖然生成式AI似乎無所不知,但頻繁答非所問或給出錯誤信息的情況讓人擔憂。
人工智能“一本正經(jīng)胡說八道”的現(xiàn)象被稱為“AI幻覺”。這不僅是因為AI本身理解能力不足,還因為訓練數(shù)據(jù)質量參差不齊。AI基于大量數(shù)據(jù)訓練而成,如果輸入的數(shù)據(jù)不夠客觀準確,其輸出的答案自然難以符合常理。網(wǎng)絡上的信息真假難辨且充滿偏見,在這樣一個環(huán)境中學習,AI難免會受到污染。隨著AI產(chǎn)品逐漸滲透到生活的各個方面,“AI幻覺”也可能導致人們的認知產(chǎn)生偏差。
技術發(fā)展過程中總會遇到各種挑戰(zhàn),而決定未來方向的是背后的人類和技術價值觀。歷史上每次技術短板暴露都為行業(yè)提供了改進的機會。面對胡言亂語的AI,許多企業(yè)正在通過優(yōu)化算法設計、增加數(shù)據(jù)深度等方式提升AI的學習能力。最近,國內外研究團隊嘗試將“幻覺”轉化為有價值的信息源,提出了解決問題的新思路。同時,我國也在不斷完善相關規(guī)范和監(jiān)管機制,確保人工智能能夠更好地服務于人類。從更廣泛的角度來看,持續(xù)進行的“清朗”行動旨在凈化網(wǎng)絡環(huán)境,也為AI提供了一個更加健康的成長空間。
在技術變革的時代,每個人都既是見證者也是參與者,保持包容開放、客觀審慎的態(tài)度,有助于抓住更多機遇,減少潛在風險。
英偉達公司一位高管表示,人工智能的未來將改變游戲規(guī)則,并認為人工智能很快就會呈現(xiàn)出“人類的形態(tài)”。
2024-10-29 15:29:46英偉達高管稱AI很快就會呈現(xiàn)“人類形態(tài)”